64 resultados para non-process elements
Resumo:
Non-malignant inflammatory sensory polyganglionopathy (NISP) is the most common form of acquired ganglionopathies, a rare and distinct subgroup of peripheral nerve diseases characterized by a primary degeneration of sensory neurons in dorsal root ganglia. There is a rational for the use of immune modifying agents (IMA) in NISP since an underlying auto-immune process is demonstrated or suspected. However, commonly used IMA such as corticosteroids, azathioprine, methotrexate or IVIG do not prevent disease's progression in the majority of patients. The use of newer IMA, especially those directed against B-cells, may be a therapeutic alternative. An interesting candidate is rituximab, a mouse-human chimeric anti CD20 antibody that specifically eliminates B-cells and B-cells precursors.Objectives: This is a prospective open label pilot study to determine the efficacy of rituximab treatment in NISP patients, who did not respond to commonly used IMA.Methods: Five patients (40% male) with a mean age of 55 years (range 49-67), diagnosed with NISP after extensive work-up, were treated (schema used for one cure: 2 9 1gr within 15 days interval). Neurological scores (NIS, ISSS, ODSS) and B cell counts were assessed at baseline and during clinical follow-up at 2 and 6 monthsto assess treatment efficacy.Results: The treatment was generally well tolerated. Minor adverse events reported were transient arterial hypotension during the infusions in two patients and intermittent mild leucopenia in one patient. Clinical evolution during the follow-up period was characterized by a stability of the functional scores in four patients (80%) and the continuation of disability progression of one patient (20%). CD4 cells disappeared in all patients after the second infusion, an effect that lasted until the follow up at 6 months.Conclusion: The preliminary results of this pilot study indicate that rituximab is generally well tolerated and prevents progression of disability during the 6-month observation period in NISP patients. Inclusion of additional patients and extending of the follow-up period are intended to further investigate the efficacy of rituximab in NISP.
Resumo:
We characterize the value function of maximizing the total discounted utility of dividend payments for a compound Poisson insurance risk model when strictly positive transaction costs are included, leading to an impulse control problem. We illustrate that well known simple strategies can be optimal in the case of exponential claim amounts. Finally we develop a numerical procedure to deal with general claim amount distributions.
Resumo:
Background: Spermatogenesis is a complex biological process that requires a highly specialized control of gene expression. In the past decade, small non-coding RNAs have emerged as critical regulators of gene expression both at the transcriptional and post-transcriptional level. DICER1, an RNAse III endonuclease, is essential for the biogenesis of several classes of small RNAs, including microRNAs (miRNAs) and endogenous small interfering RNAs (endo-siRNAs), but is also critical for the degradation of toxic transposable elements. In this study, we investigated to which extent DICER1 is required for germ cell development and the progress of spermatogenesis in mice.Principal Findings: We show that the selective ablation of Dicer1 at the early onset of male germ cell development leads to infertility, due to multiple cumulative defects at the meiotic and post-meiotic stages culminating with the absence of functional spermatozoa. Alterations were observed in the first spermatogenic wave and include delayed progression of spermatocytes to prophase I and increased apoptosis, resulting in a reduced number of round spermatids. The transition from round to mature spermatozoa was also severely affected, since the few spermatozoa formed in mutant animals were immobile and misshapen, exhibiting morphological defects of the head and flagellum. We also found evidence that the expression of transposable elements of the SINE family is up-regulated in Dicer1-depleted spermatocytes.Conclusions/Significance: Our findings indicate that DICER1 is dispensable for spermatogonial stem cell renewal and mitotic proliferation, but is required for germ cell differentiation through the meiotic and haploid phases of spermatogenesis.
Resumo:
J. Smuda: Geochemical evolution of active porphyry copper tailings impoundments Thesis abstract Mine waste is the largest volume of materials handled in the world. The oxidation of sulfidic mine waste may result in the release of acid mine drainage (AMD) rich in heavy metals and arsenic to the environment, one of the major problems the mining industry is facing today. To control and reduce this environmental impact, it is crucial to identify the main geochemical and hydrological processes influencing contaminant liberation, transport, and retention. This thesis presents the results of a geochemical, mineralogical and stable isotope study (δ2H, δ18O, δ34S) from two active porphyry copper tailings impoundments in Mediterranean (Carén tailings impoundment, El Teniente mine, Central Chile) and hyper-arid climate (Talabre tailings impoundment, Chuquicamata, Northern Chile) from the deposition in alkaline environment (pH 10.5) towards acidification after several years of exposure. The major hydrological results were the identification of vertical contaminant and water transport in the uppermost, not water-saturated zone, triggered by capillary rise due to evaporation, and infiltration downwards due to new tailings deposition, and of horizontal transport in the groundwater zone. At the surface of the sedimented tailings, evaporation of pore water led to the precipitation of Na-Ca-Mg sulfates (e.g., gypsum, tenorite), in hyper-arid climate also halite. At the Carén tailings impoundment, renewed deposition in a 4-week interval inhibited a pH decrease below neutral values and the formation of an efflorescent salt crust. At the Talabre tailings impoundment, deposition breaks of several years resulted in the formation of acidic oxidation zones in the timeframe of less than 4 years. This process enabled the transport of liberated Cu, Zn, and Fe via capillary rise to the surface, where these metals precipitated as heavy-metal sulfates (e.g., devilline, krohnkite) and chlorides (eriochalcite, atacamite). Renewed depositing may dissolve efflorescent salts and transport liberated elements towards the groundwater zone. This zone was found to be highly dynamic due to infiltration and mixing with water from different sources, like groundwater, catchment water, and infiltration from superficial waters. There, Cu was found to be partially mobile due to complexation with Cl (in Cl-rich groundwater, Talabre) and dissolved organic matter (in zones with infiltration of catchment water rich in dissolved organic matter, Carén). A laboratory study on the isotopic fractionation of sulfur and oxygen of sulfate in different minerals groups (water-soluble sulfates, low- and high-crystalline Fe(III) oxyhydroxides) contributed to the use of stable isotopes as tracer of geochemical and transport processes for environmental studies. The results highlight that a detailed geochemical, stable isotope and mineralogical study permits the identification of contamination processes and pathways already during the deposition of mine tailings. This knowledge allows the early planning of adequate actions to reduce and control the environmental impact during tailings deposition and after the closing of the impoundment. J. Smuda: Geochemical evolution of active porphyry copper tailings impoundments Résumé de these Les déchets miniers constituent les plus grands volumes de matériel gérés dans le monde. L'oxydation des déchets miniers sulfuriques peut conduire à la libération de drainages miniers acides (DMA) riches en métaux et arsenic dans l'environnement, ce qui est l'un des principaux problèmes de l'industrie minière aujourd'hui. Pour contrôler et réduire ces impacts sur l'environnement, il est crucial d'identifier les principaux processus géochimiques et hydrologiques influençant la libération, le transport et la rétention des contaminants. Cette thèse présente les résultats d'une étude géochimique, minéralogique et des isotopes stables (δ2H, δ18O, δ34S) sur des déchets miniers de 2 sites de dépôt actifs en climat méditerranéen (Dépôt de déchets de Carén, mine de El Teniente, Centre du Chili) et en climat hyper-aride (Dépôt de déchets de Talabre, mine de Chuquicamata, Nord du Chili). L'objectif était d'étudier l'évolution des déchets de la déposition en milieu alcalin (pH = 10.5) vers l'acidification après plusieurs années d'exposition. Le principal résultat hydrologique a été l'identification de 2 types de transport : un transport vertical de l'eau et des contaminants dans la zone non saturée en surface, induit par la montée capillaire due à l'évaporation et par l'infiltration subséquente de la déposition de sédiments frais ; et un transport horizontal dans la zone des eaux souterraines. À la surface des déchets, l'évaporation de l'eau interstitielle conduit à la précipitation de sulfates de Na-Ca-Mg (ex. gypse, ténorite) et halite en climat hyper-aride. Dans le site de Carén, une nouvelle déposition de déchets frais à 4 semaines intervalle a empêché la baise du pH en deçà des valeurs neutres et la formation d'une croûte de sels efflorescentes en surface. Dans le site de Talabre, les fentes de dessiccation des dépôts ont entraîné la formation d'une zone d'oxydation à pH acide en moins de 4 ans. Ce processus a permis la libération et le transport par capillarité de Cu, Zn, Fe vers la surface, où ces éléments précipitent sous forme de sulfates de métaux lourds (ex., dévilline, krohnkite) de chlorures (ex. ériochalcite, atacamite). Une nouvelle déposition de sédiments frais pourrait dissoudre ces sels et les transporter vers la zone des eaux souterraines. Cette dernière zone était très dynamique en raison du mélange d'eaux provenant de différentes sources, comme les eaux souterraines, l'eau de captage et l'infiltration des eaux superficielles. Egalement dans cette zone, le cuivre était partiellement mobile à cause de la formation de complexe avec le chlore (dans les zone riche en Cl, Talabre) et avec la matière organique dissoute (dans les zones où s'infiltre l'eau de captage riche en matière organique, Carén). Une étude en laboratoire sur le fractionnement des isotopes stables de sulfure et d'oxygène des sulfates dans différents groupes de minéraux (sulfates hydrosolubles, sulfures de oxy-hydroxyde de Fe(III) faiblement ou fortement cristallins) a permis d'apporter une contribution à leur utilisation comme traceurs dans l'étude des processus géochimiques et de transport lors d'études environnementales. Les résultats montrent qu'une étude détaillée de la géochimie, des isotopes stables et de la minéralogie permet d'identifier les processus et les voies de contamination déjà pendant la période de dépôt des déchets miniers. Cette connaissance permet de planifier, dès le début de l'exploitation, des mesures adéquates pour réduire et contrôler l'impact sur l'environnement pendant la période de dépôts de déchets miniers et après la fermeture du site.
Resumo:
Psychogenic non epileptic seizures (PNES) look like epilepsy, but are not accompanied by the electrophysiological alterations found in epilepsy. The diagnosis requires a complex process at the interface between neurology and psychiatry. Diagnostic restitution to the patient and treatment of the condition should be a collaboration between neurologist and psychiatrist including as much as possible a general practitioner. Vulnerability and triggering psycho-social factors, as well as frequent psychiatric co morbidity implicate that psychiatric-psychological care is needed in a majority of situations, however this cannot be done without a strong "somatic back-up" with rapid access to somatic facility for advice and care when needed. The neurological presentation of the disease, with psychiatric causes underlying the condition, bear the risk for the patient that neither neurological nor psychiatric care is offered. Current knowledge about the condition is still scarce, but the field is progressively enriched by studies with stronger methodologies. Recent neuroimaging studies open fascinating avenues on our understanding of the interplay between emotional regulation, representation of the self, and dissociative symptoms. These new avenues help our understanding of these disorders which challenge classical frontiers between neurology and psychiatry. In this paper we try to formulate a framework for the care of patient with dissociative disorders including NEPS.
Resumo:
Contrairement aux animaux, les plantes sont des organismes sessiles qui ne possèdent pas de mécanismes de fuite quand les conditions environnementales ne sont plus optimales. Les plantes sont physiquement ancrées à l'endroit où elles ont germées et aux conditions environnementales qui parfois peuvent être extrêmes. Les possibilités d'acclimatation de différentes espèces, parfois même de groupes de plantes au sein d'une même espèce, peuvent varier mais repose sur une adaptation génétique de la plante. L'adaptation est un long processus qui repose sur l'apparition spontanée de mutations génétiques, leur mise à l'épreuve face aux conditions environnementales, et dans le cas où la mutation a un impact positif sur la survie dans cet habitat particulier, elle sera maintenue dans une population donnée de plantes. De telles populations, appelées écotypes, sont le matériel de départ pour la découverte de gènes qui induisent un bénéfice pour la plante dans un environnement donné. La plante la plus étudiée en biologie moléculaire est Arabidopsis thaliana, l'arabette des prés. Dans une étude précédente, les racines d'écotypes naturels d'Arabidopsis ont été comparées et un écotype, Uk-1, avait le système racinaire le plus particulier. Cet écotype possède des racines beaucoup plus courtes et plus ramifiées que tous les autres écotypes. Des analyses plus poussées ont montré qu'une seule mutation dans un gène était la cause de ce phénotype, le gène BREVIS RADIX (BRX), mot latin signifiant 'racine courte'. Bien que l'on connaisse le gène BRX, on connaît finalement peu de choses sur son importance adaptative. Dans cette étude, nous avons montré que la mutation dans le gène BRX rend la plante plus résistante aux sols acides. Dans l'optique de mieux comprendre cette valeur adaptative du mutant brx, nous avons analysé dans quels tissus le gène BRX jouait un rôle important. Nous avons pu mettre en évidence que BRX est important pour le développement du protophloème. Le protophloème est un élément du système vasculaire de la plante. En général, les plantes supérieures possèdent deux systèmes de transport à longue distance. L'un d'eux, appelé xylème, transporte l'eau et les nutriments absorbés du sol par les racines vers les feuilles. Les feuilles sont le siège du processus de photosynthèse au cours duquel sont produits des sucres qui devront être distribués partout dans les autres parties de la plante. Le tissu cellulaire chargé de livrer les produits de la photosynthèse, ainsi que les régulateurs de croissance, est le phloème. Ce dernier regroupe le métaphloème et le protophloème. Le protophloème est essentiel pour la livraison des sucres synthétisés ainsi que des signaux de croissance aux pointes des racines, centres organogéniques responsables de la production de nouvelles cellules durant la phase de croissance de la racine. La structure du protophloème peut être décrite comme des tubes continus, vides et résistants, faits de cellules spécialisées qui permettent un transport efficace et rapide. Nous avons montré que dans les mutants brx ces canaux de transports sont discontinus car certaines cellules n'ont pas terminé leur cycle de différenciation. Ces cellules obstruent le conduit ce qui fait que les sucres et les signaux de croissance, comme l'auxine, ne peuvent plus être transportés aux méristèmes. En conséquence, la prolifération de l'activité des méristèmes est compromise, ce qui explique les racines courtes. Au lieu d'être délivré aux méristèmes, l'auxine se concentre en amont des méristèmes où cela provoque l'apparition de nouvelles racines branchées et, très probablement, l'activation des pompes à protons. Sur des sols acides, la concentration en ion H+ est très élevée. Ces ions entrent dans les cellules de la racine par diffusion et perturbent notablement la croissance des racines et de la plante en général. Si les cellules de la racine possédaient des pompes à protons hyperactives, elles seraient capable d'évacuer le surplus d'ions H+ en dehors de la cellule, ce qui leur assurerait de meilleures chances de survie sur sols acides. De fait, le mutant brx est capable d'acidifier le milieu de culture dans lequel il est cultivé plus efficacement que la plante sauvage. Ce mutant est également capable de donner plus de progéniture sur ce type de milieu de croissance que les plantes sauvages. Finalement, nous avons trouvé d'autres mutants brx en milieu naturel poussant sur sols acides, ce qui suggère fortement que la mutation du gène BRX est une des causes de l'adaptation aux sols acides. -- Plants as sessile organisms have developed different mechanisms to cope with the complex environmental conditions in which they live. Adaptation is the process through which traits evolve by natural selection to functionally improve in a given environmental context. An adaptation to the environment is characterized by the genetic changes in the entire populations that have been fixed by natural selection over many generations. BREVIS RADIX (BRX) gene was found through natural Arabidopsis accessions screen and was characterized as a root growth regulator since loss-of-function mutants exhibit arrested post-embryonic primary root growth in addition to a more branched root system. Although brx loss-of-function causes a complete alteration in root architecture, BRX activity is only required in the root vasculature, in particular in protophloem cell file. Protophloem is a part of the phloem transport network and is responsible for delivery of photo-assimilates and growth regulators, coming from the shoot through mature phloem component - metaphloem, to the all plant primary meristems. In order to perform its function, protophloem is the first cell file to differentiate within the root meristem. During this process, protophloem cells undergo a partial programmed cell death, during which they build a thicker cell wall, degrade nucleus and tonoplast while plasma membrane stays functional. Interestingly, protophloem cells enter elongation process only after differentiation into sieve elements is completed. Here we show that brx mutants fail to differentiate protophloem cell file properly, a phenotype that can be distinguished by a presence of a "gap" cells, non-differentiated cells between two flanking differentiated cells. Discontinuity of protophloem differentiation in brx mutants is considered to be a consequence of local hyperactivity of CLAVATA3/EMBRYO SURROUNDING REGION 45 (CLE45) - BARELY ANY MERISTEM 3 (BAM3) signaling module. Interestingly, a CLE45 activity, most probably at the level of receptor binding, can be modulated by apoplastic pH. Altogether, our results imply that the activity of proton pumps, expressed in non-differentiated cells of protophloem, must be maintained under certain threshold, otherwise CLE45-BAM3 signaling pathway will be stimulated and in turn protophloem will not differentiate. Based on vacuolar morphology, a premature cell wall acidification in brx mutants stochastically prevents the protophloem differentiation. Only after protophloem differentiates, proton pumps can be activated in order to acidify apoplast and to support enucleated protophloem multifold elongation driven by surrounding cells growth. Finally, the protophloem differentiation failure would result in an auxin "traffic jam" in the upper parts of the root, created from the phloem-transported auxin that cannot be efficiently delivered to the meristem. Physiologically, auxin "leakage" from the plant vasculature network could have various consequences, since auxin is involved in the regulation of almost every aspect of plant growth and development. Thus, given that auxin stimulates lateral roots initiation and growth, this scenario explains more branched brx root system. Nevertheless, auxin is considered to activate plasma membrane proton pumps. Along with this, it has been shown that brx mutants acidify media much more than the wild type plants do, a trait that was proposed as an adaptive feature of naturally occurring brx null alleles in Arabidopsis populations found on acidic soils. Additionally, in our study we found that most of accessions originally collected from acidic sampling sites exhibit hypersensitivity to CLE45 treatment. This implies that adaptation of plants to acidic soil involves a positive selection pressure against upstream negative regulators of CLE45-BAM3 signaling, such as BRX. Perspective analysis of these accessions would provide more profound understanding of molecular mechanisms underlying plant adaptation to acidic soils. All these results are suggesting that targeting of the factors that affect protophloem differentiation is a good strategy of natural selection to change the root architecture and to develop an adaptation to a certain environment. -- Les plantes comme organismes sessiles ont développé différents mécanismes pour s'adapter aux conditions environnementales complexes dans lesquelles elles vivent. L'adaptation est le processus par lequel des traits vont évoluer via la sélection naturelle vers une amélioration fonctionnelle dans un contexte environnemental donné. Une adaptation à l'environnement est caractérisée par des changements génétiques dans des populations entières qui ont été fixés par la sélection naturelle sur plusieurs générations. Le gène BREVIS RADIX (BRX) a été identifié dans le crible d'une collection d'accessions naturelles d'Arabidopsis et a été caractérisé comme un régulateur de la croissance racinaire étant donné que le mutant perte-de-fonction montre une croissance racinaire primaire arrêtée au stade post-embryonnaire et présente de plus un système racinaire plus ramifié que la plante sauvage. Bien que le mutant perte-de-fonction brx cause une altération complète de l'architecture racinaire, l'activité de BRX n'est requise que dans la vascularisation racinaire, en particulier au niveau du protophloème. Le protophloème est un composant du réseau de transport du phloème et est responsable du transit des dérivés de la photosynthèse ainsi que des régulateurs de croissances, venant de la partie aérienne par le phloème mature (métaphloème) vers tous les méristèmes primaires de la plante. Pour pouvoir réaliser sa fonction, le protophloème est la première file de cellules à se différencier à l'intérieur du méristème de la racine. Pendant ce processus, les cellules du protophloème subissent une mort cellulaire programmée partielle durant laquelle elles épaississent leur paroi cellulaire, dégradent le noyau et le tonoplaste tandis que la membrane plasmique demeure fonctionnelle. De manière intéressante, les cellules du protophloème entament le processus d'allongement seulement après que la différenciation en tubes criblés soit complète. Ce travail montre que le mutant brx est incapable de mener à bien la différenciation de la file de cellules du protophloème, phénotype qui peut être visualisé par la présence de cellules 'trous', de cellules non différenciées entourées de deux cellules différenciées. La discontinuité de la différenciation du phloème dans le mutant brx est considérée comme la conséquence de l'hyperactivité localisée du module de signalisation CLA VA TA3/EMBRYO SURROUNDING REGION 45 (CLE45) - BARELY ANY MERISTEM 3 (BAM3). De manière intéressante, l'activité de CLE45, très probablement au niveau de la liaison avec le récepteur, peut être modulé par le pH apoplastique. Pris ensemble, nos résultats impliquent que l'activité des pompes à protons, actives dans les cellules non différenciées du protophloème, doit être maintenue en dessous d'un certain seuil autrement la cascade de signalisation CLE45-BAM3 serait stimulée, en conséquence de quoi le protophloème ne pourrait se différencier. D'après la morphologie vacuolaire, une acidification prématurée de la paroi cellulaire dans le mutant brx empêche la différenciation du protophloème de manière stochastique. Une fois que le protophloème se différencie, les pompes à protons peuvent alors être activées afin d'acidifier l'apoplaste et ainsi faciliter l'allongement des cellules énuclées du protophloème, entraînées par la croissance des cellules environnantes. Finalement, la différenciation défectueuse du protophloème produit une accumulation d'auxine dans la partie supérieure de la racine car le phloème ne peut plus acheminer efficacement l'auxine au méristème. Physiologiquement, la 'fuite' d'auxine à partir du réseau vasculaire de la plante peut avoir des conséquences variées puisque l'auxine est impliquée dans la régulation de la majorité des aspects de la croissance et développement de la plante. Etant donné que l'auxine stimule l'initiation et développement des racines latérales, ce scénario pourrait expliquer le système racinaire plus ramifié du mutant brx. En plus, l'auxine est considérée comme un activateur des pompes à protons. Par ailleurs, nous avons montré que les mutants brx ont la capacité d'acidifier le milieu plus efficacement que les plantes sauvages, une caractéristique des populations sauvages <¥Arabidopsis poussant sur des sols acides et contenant les allèles délétés brx. De plus, dans nos résultats nous avons mis en évidence que la plupart des accessions collectées originellement sur des sites acidophiles montre une hypersensibilité au traitement par CLE45. Ceci implique que l'adaptation des plantes aux sols acides repose sur la pression de sélection positive à rencontre des régulateurs négatifs de CLE45- BAM3, situés en amont de la cascade, tel le produit du gène BRX. Les analyses de ces accessions pourraient aboutir à une meilleure compréhension des mécanismes moléculaires responsables de l'adaptation des plantes aux sols acides. Tous nos résultats suggèrent que le ciblage des facteurs affectant la différenciation du protophloème serait une stratégie gagnante dans la sélection naturelle pour changer l'architecture de la racine et ainsi s'adapter efficacement à un nouvel environnement.
Resumo:
Plants propagate electrical signals in response to artificial wounding. However, little is known about the electrophysiological responses of the phloem to wounding, and whether natural damaging stimuli induce propagating electrical signals in this tissue. Here, we used living aphids and the direct current (DC) version of the electrical penetration graph (EPG) to detect changes in the membrane potential of Arabidopsis sieve elements (SEs) during caterpillar wounding. Feeding wounds in the lamina induced fast depolarization waves in the affected leaf, rising to maximum amplitude (c. 60 mV) within 2 s. Major damage to the midvein induced fast and slow depolarization waves in unwounded neighbor leaves, but only slow depolarization waves in non-neighbor leaves. The slow depolarization waves rose to maximum amplitude (c. 30 mV) within 14 s. Expression of a jasmonate-responsive gene was detected in leaves in which SEs displayed fast depolarization waves. No electrical signals were detected in SEs of unwounded neighbor leaves of plants with suppressed expression of GLR3.3 and GLR3.6. EPG applied as a novel approach to plant electrophysiology allows cell-specific, robust, real-time monitoring of early electrophysiological responses in plant cells to damage, and is potentially applicable to a broad range of plant-herbivore interactions.
Resumo:
EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.
Resumo:
In eukaryotic cells, transgene expression levels may be limited by an unfavourable chromatin structure at the integration site. Epigenetic regulators are DNA sequences which may protect transgenes from such position effect. We evaluated different epigenetic regulators for their ability to protect transgene expression at telomeres, which are commonly associated to low or inconsistent expression because of their repressive chromatin environment. Although to variable extents, matrix attachment regions (MARs), ubiquitous chromatin opening element (UCOE) and the chicken cHS4 insulator acted as barrier elements, protecting a telomeric-distal transgene from silencing. MARs also increased the probability of silent gene reactivation in time-course experiments. Additionally, all MARs improved the level of expression in non-silenced cells, unlike other elements. MARs were associated to histone marks usually linked to actively expressed genes, especially acetylation of histone H3 and H4, suggesting that they may prevent the spread of silencing chromatin by imposing acetylation marks on nearby nucleosomes. Alternatively, an UCOE was found to act by preventing deposition of repressive chromatin marks. We conclude that epigenetic DNA elements used to enhance and stabilize transgene expression all have specific epigenetic signature that might be at the basis of their mode of action.
Resumo:
The evolution of animal societies in which some individuals forego direct reproduction to help others to reproduce poses an evolutionary paradox. Societies where all individuals reproduce equally and societies where a single individual completely monopolizes reproduction represent the end points of a continuum of variance in the reproductive output among group members. This led Sherman et al. (1995) to propose that cooperative breeding and eusociality (a term originally applied only to insects) are not discrete phenomena. Rather they form a continuum whose main difference is the extent to which individuals forego their own reproductive opportunity to help other members of the group. Here we present a new index: the eusociality index. It quantifies the decrease in direct reproduction of group members as a resut of altruistic acts directed to other members of the group (i.e. a measure of the level of eusociality). The rationale for this index lies in the fundamental duality of the reproductive process, in which organisms supply two distinct elements: (i) genetic material (genes); and (ii) power (energy). In non-eusocial animals, all individuals transmit genes and power in the same ratio (notwithstanding individual variance in offspring size and parental investment). By contrast, amongst eusocial animals some individuals contribute proportionally more to gene transfer, and others more to energy, resulting in high interindividual variation in the ratio of gene to power transfer.
Resumo:
La gouvernance de l'Internet est une thématique récente dans la politique mondiale. Néanmoins, elle est devenue au fil des années un enjeu économique et politique important. La question a même pris une importance particulière au cours des derniers mois en devenant un sujet d'actualité récurrent. Forte de ce constat, c ette recherche retrace l'histoire de la gouvernance de l'Internet depuis son émergence comme enjeu politique dans les années 1980 jusqu'à la fin du Sommet Mondial sur la Société de l'Information (SMSI) en 2005. Plutôt que de se focaliser sur l'une ou l'autre des institutions impliquées dans la régulation du réseau informatique mondial, cette recherche analyse l'émergence et l'évolution historique d'un espace de luttes rassemblant un nombre croissant d'acteurs différents. Cette évolution est décrite à travers le prisme de la relation dialectique entre élites et non-élites et de la lutte autour de la définition de la gouvernance de l'Internet. Cette thèse explore donc la question de comment les relations au sein des élites de la gouvernance de l'Internet et entre ces élites et les non-élites expliquent l'emergence, l'évolution et la structuration d'un champ relativement autonome de la politique mondiale centré sur la gouvernance de l'Internet. Contre les perspectives dominantes réaliste et libérales, cette recherche s'ancre dans une approche issue de la combinaison des traditions hétérodoxes en économie politique internationale et des apports de la sociologie politique internationale. Celle-ci s'articule autour des concepts de champ, d'élites et d'hégémonie. Le concept de champ, développé par Bourdieu inspire un nombre croissant d'études de la politique mondiale. Il permet à la fois une étude différenciée de la mondialisation et l'émergence d'espaces de lutte et de domination au niveau transnational. La sociologie des élites, elle, permet une approche pragmatique et centrée sur les acteurs des questions de pouvoir dans la mondialisation. Cette recherche utilise plus particulièrement le concept d'élite du pouvoir de Wright Mills pour étudier l'unification d'élites a priori différentes autour de projets communs. Enfin, cette étude reprend le concept néo-gramscien d'hégémonie afin d'étudier à la fois la stabilité relative du pouvoir d'une élite garantie par la dimension consensuelle de la domination, et les germes de changement contenus dans tout ordre international. A travers l'étude des documents produits au cours de la période étudiée et en s'appuyant sur la création de bases de données sur les réseaux d'acteurs, cette étude s'intéresse aux débats qui ont suivi la commercialisation du réseau au début des années 1990 et aux négociations lors du SMSI. La première période a abouti à la création de l'Internet Corporation for Assigned Names and Numbers (ICANN) en 1998. Cette création est le résultat de la recherche d'un consensus entre les discours dominants des années 1990. C'est également le fruit d'une coalition entre intérêts au sein d'une élite du pouvoir de la gouvernance de l'Internet. Cependant, cette institutionnalisation de l'Internet autour de l'ICANN excluait un certain nombre d'acteurs et de discours qui ont depuis tenté de renverser cet ordre. Le SMSI a été le cadre de la remise en cause du mode de gouvernance de l'Internet par les États exclus du système, des universitaires et certaines ONG et organisations internationales. C'est pourquoi le SMSI constitue la seconde période historique étudiée dans cette thèse. La confrontation lors du SMSI a donné lieu à une reconfiguration de l'élite du pouvoir de la gouvernance de l'Internet ainsi qu'à une redéfinition des frontières du champ. Un nouveau projet hégémonique a vu le jour autour d'éléments discursifs tels que le multipartenariat et autour d'insitutions telles que le Forum sur la Gouvernance de l'Internet. Le succès relatif de ce projet a permis une stabilité insitutionnelle inédite depuis la fin du SMSI et une acceptation du discours des élites par un grand nombre d'acteurs du champ. Ce n'est que récemment que cet ordre a été remis en cause par les pouvoirs émergents dans la gouvernance de l'Internet. Cette thèse cherche à contribuer au débat scientifique sur trois plans. Sur le plan théorique, elle contribue à l'essor d'un dialogue entre approches d'économie politique mondiale et de sociologie politique internationale afin d'étudier à la fois les dynamiques structurelles liées au processus de mondialisation et les pratiques localisées des acteurs dans un domaine précis. Elle insiste notamment sur l'apport de les notions de champ et d'élite du pouvoir et sur leur compatibilité avec les anlayses néo-gramsciennes de l'hégémonie. Sur le plan méthodologique, ce dialogue se traduit par une utilisation de méthodes sociologiques telles que l'anlyse de réseaux d'acteurs et de déclarations pour compléter l'analyse qualitative de documents. Enfin, sur le plan empirique, cette recherche offre une perspective originale sur la gouvernance de l'Internet en insistant sur sa dimension historique, en démontrant la fragilité du concept de gouvernance multipartenaire (multistakeholder) et en se focalisant sur les rapports de pouvoir et les liens entre gouvernance de l'Internet et mondialisation. - Internet governance is a recent issue in global politics. However, it gradually became a major political and economic issue. It recently became even more important and now appears regularly in the news. Against this background, this research outlines the history of Internet governance from its emergence as a political issue in the 1980s to the end of the World Summit on the Information Society (WSIS) in 2005. Rather than focusing on one or the other institution involved in Internet governance, this research analyses the emergence and historical evolution of a space of struggle affecting a growing number of different actors. This evolution is described through the analysis of the dialectical relation between elites and non-elites and through the struggle around the definition of Internet governance. The thesis explores the question of how the relations among the elites of Internet governance and between these elites and non-elites explain the emergence, the evolution, and the structuration of a relatively autonomous field of world politics centred around Internet governance. Against dominant realist and liberal perspectives, this research draws upon a cross-fertilisation of heterodox international political economy and international political sociology. This approach focuses on concepts such as field, elites and hegemony. The concept of field, as developed by Bourdieu, is increasingly used in International Relations to build a differentiated analysis of globalisation and to describe the emergence of transnational spaces of struggle and domination. Elite sociology allows for a pragmatic actor-centred analysis of the issue of power in the globalisation process. This research particularly draws on Wright Mill's concept of power elite in order to explore the unification of different elites around shared projects. Finally, this thesis uses the Neo-Gramscian concept of hegemony in order to study both the consensual dimension of domination and the prospect of change contained in any international order. Through the analysis of the documents produced within the analysed period, and through the creation of databases of networks of actors, this research focuses on the debates that followed the commercialisation of the Internet throughout the 1990s and during the WSIS. The first time period led to the creation of the Internet Corporation for Assigned Names and Numbers (ICANN) in 1998. This creation resulted from the consensus-building between the dominant discourses of the time. It also resulted from the coalition of interests among an emerging power elite. However, this institutionalisation of Internet governance around the ICANN excluded a number of actors and discourses that resisted this mode of governance. The WSIS became the institutional framework within which the governance system was questioned by some excluded states, scholars, NGOs and intergovernmental organisations. The confrontation between the power elite and counter-elites during the WSIS triggered a reconfiguration of the power elite as well as a re-definition of the boundaries of the field. A new hegemonic project emerged around discursive elements such as the idea of multistakeholderism and institutional elements such as the Internet Governance Forum. The relative success of the hegemonic project allowed for a certain stability within the field and an acceptance by most non-elites of the new order. It is only recently that this order began to be questioned by the emerging powers of Internet governance. This research provides three main contributions to the scientific debate. On the theoretical level, it contributes to the emergence of a dialogue between International Political Economy and International Political Sociology perspectives in order to analyse both the structural trends of the globalisation process and the located practices of actors in a given issue-area. It notably stresses the contribution of concepts such as field and power elite and their compatibility with a Neo-Gramscian framework to analyse hegemony. On the methodological level, this perspective relies on the use of mixed methods, combining qualitative content analysis with social network analysis of actors and statements. Finally, on the empirical level, this research provides an original perspective on Internet governance. It stresses the historical dimension of current Internet governance arrangements. It also criticise the notion of multistakeholde ism and focuses instead on the power dynamics and the relation between Internet governance and globalisation.
Resumo:
Résumé Durant le développement embryonnaire, les cellules pigmentaires des mammifères se développent à partir de deux origines différentes : les melanocytes se développent à partir de la crête neurale alors que les cellules de la rétine pigmentaire (RP) ont une origine neuronale. Un grand nombre de gènes sont impliqués dans la pigmentation dont les gènes de la famille tyrosinase à savoir Tyr, Tyrp1 et Dct. Certaines études ont suggéré que les gènes de la pigmentation sont régulés de manière différentielle dans les mélanocytes et dans la RP. Dans ce travail, les gènes de la famille tyrosinase ont été étudiés comme modèle de la régulation des gènes de la pigmentation par des éléments régulateurs agissant à distance. II a été montré que le promoteur du gène Tyrp1pouvait induire l'expression d'un transgène uniquement dans la RP alors que ce gène est aussi exprimé dans les mélanocytes comme le montre le phénotype des souris mutantes pour Tyrp1. Ce résultat suggère que les éléments régulateurs du promoteur sont suffisants pour l'expression dans la RP mais pas pour l'expression dans les mélanocytes. J'ai donc cherché à identifier la séquence qui régule l'expression dans les mélanocytes. Un chromosome artificiel bactérien (CAB) contenant le gène Tyrp1 s'est avéré suffisant pour induire l'expression dans les mélanocytes, comme démontré par la correction du phénotype mutant. La séquence de ce CAB contient plusieurs régions très conservées qui pourraient représenter de nouveaux éléments régulateurs. Par la suite, j'ai focalisé mon analyse sur une séquence située à -I5 kb qui s'est révélée être un amplificateur spécifique aux mélanocytes comme démontré par des expériences de cultures cellulaire et de transgenèse. De plus, une analyse poussée de cet élément a révélé que le facteur de transcription Sox 10 représentait un transactivateur de cet amplificateur. Comme pour Tyrp1, la régulation du gène tyrosinase est contrôlée par différents éléments régulateurs dans les mélanocytes et la RP. Il a été montré que le promoteur de tyrosinase n'était pas suffisant pour une forte expression dans les mélanocytes et la RP. De plus, l'analyse de la région située en amont a révélé la présence d'un amplificateur nécessaire à l'expression dans les mélanocytes à la position -15 kb. Cet amplificateur n'est toutefois pas actif dans la RP mais agit comme un répresseur dans ces cellules. Ces résultats indiquent que certains éléments nécessaires à l'expression dans les deux types de cellules pigmentaires sont absents de ces constructions. Comme pour Tyrp1, j'ai en premier lieu démontré qu'un CAB était capable de corriger le phénotype albinique, puis ai inséré un gène reporter (lacZ) dans le CAB par recombinaison homologue et ai finalement analysé l'expression du reporter en transgenèse. Ces souris ont montré une expression forte du lacZ dans les mélanocytes et la RP, ce qui indique que le CAB contient les séquences régulatrices nécessaires à l'expression correcte de tyrosinase. Afin de localiser plus précisément les éléments régulateurs, j'ai ensuite généré des délétions dans le CAB et analysé l'expression du lacZ en transgenèse. La comparaison de séquences génomiques provenant de différentes espèces a permis par la suite d'identifier des régions représentant de nouveaux éléments régulateurs potentiels. En utilisant cette approche, j'ai identifié une région qui se comporte comme un amplificateur dans la RP et qui est nécessaire à l'expression de tyrosinase dans ce tissu. De plus, j'ai identifié les facteurs de transcription Mitf et Sox10 comme transactivateurs de l'amplificateur spécifique aux mélanocytes situé à -15 kb. L'identification et la caractérisation des ces éléments régulateurs des gènes tyrosinase et Tyrp1confirme donc que la régulation différentielle des gènes dans les mélanocytes et la RP est liée à des éléments régulateurs séparés. Summary Pigment cells of mammals originate from two different lineages: melanocytes arise from the neural crest, whereas cells of the retinal pigment epithelium (RPE) originate from the optic cup of the developing forebrain. A large set of genes are involved in pigmentation, including the members of the tyrosinase gene family, namely tyrosinase, Tyrp1 and Dct. Previous studies have suggested that pigmentation genes are differentially regulated in melanocytes and RPE. In this work, the tyrosinase gene family was used as a model for studying the involvement of distal regulatory elements in pigment cell-specific gene expression. The promoter of the Tyrp1 gene has been shown to drive detectable transgene expression only to the RPE, even though the gene is also expressed in melanocytes as evident from Tyrp1-mutant mice. This indicates that the regulatory elements responsible for Tyrp1 gene expression in the RPE are not sufficient for expression in melanocytes. I thus searched for a putative melanocyte-specific regulatory sequence and demonstrate that a bacterial artificial chromosome (BAC) containing the Tyrp1 gene and surrounding sequences is able to target transgenic expression to melanocytes and to rescue the Tyrp1 b (brown) phenotype. This BAC contains several highly conserved non-coding sequences that might represent novel regulatory elements. I further focused on a sequence located at -15 kb which I identified as amelanocyte-specific enhancer as shown by cell culture and transgenic mice. In addition, further functional analysis identified the transcription factor Sox10 as being able to bind and transactivate this enhancer. As for Tyrp1, tyrosinase gene regulation is mediated by different cis-regulatory elements in melanocytes and RPE. It was shown that the tyrosinase promoter was not sufficient to confer strong and specific expression in melanocytes and RPE. Moreover, analysis of tyrosinase upstream sequence, revealed the presence of a specific enhancer at position -15 kb which was necessary to confer strong expression in melanocytes. This enhancer element however failed to act as an enhancer in the RPE, but rather repressed expression. This indicates that some regulatory elements required for tyrosinase expression in both RPE and melanocytes are still missing from these constructs. As for Tyrp1, I first demonstrated that a BAC containing the Tyr gene is able to rescue the Tyr c (albino) phenotype in mice, then I inserted a lacZ reporter gene in the BAC by homologous recombination, and finally analysed the pattern of lacZ expression in transgenic mice. These mice showed strong lacZ expression in both RPE and melanocytes, indicating that the BAC contains the regulatory sequences required for proper tyrosinase expression. In order to localize more precisely these regulatory elements, I have then generated several deletions in the BAC and analysed lacZ expression in transgenic mice. Multi-species comparative genomic analysis then allowed identifying conserved sequences that potentially represent novel regulatory elements. Using this experimental approach, I identified a region that behaves as a RPE-specific enhancer and that is required for tyrosinase expression in the retina] pigment epithelium. In addition, I identified the transcription factors Mitf and Sox l0 as being transactivators of the melanocyte-specific enhancer located at -l5 kb. The identification and characterization of these tyrosinase and Tyrp1 distal regulatory element supports the idea that separate regulatory sequences mediate differential gene expression in melanocytes and RPE.
Resumo:
This thesis is composed of three main parts. The first consists of a state of the art of the different notions that are significant to understand the elements surrounding art authentication in general, and of signatures in particular, and that the author deemed them necessary to fully grasp the microcosm that makes up this particular market. Individuals with a solid knowledge of the art and expertise area, and that are particularly interested in the present study are advised to advance directly to the fourth Chapter. The expertise of the signature, it's reliability, and the factors impacting the expert's conclusions are brought forward. The final aim of the state of the art is to offer a general list of recommendations based on an exhaustive review of the current literature and given in light of all of the exposed issues. These guidelines are specifically formulated for the expertise of signatures on paintings, but can also be applied to wider themes in the area of signature examination. The second part of this thesis covers the experimental stages of the research. It consists of the method developed to authenticate painted signatures on works of art. This method is articulated around several main objectives: defining measurable features on painted signatures and defining their relevance in order to establish the separation capacities between groups of authentic and simulated signatures. For the first time, numerical analyses of painted signatures have been obtained and are used to attribute their authorship to given artists. An in-depth discussion of the developed method constitutes the third and final part of this study. It evaluates the opportunities and constraints when applied by signature and handwriting experts in forensic science. A brief summary covering each chapter allows a rapid overview of the study and summarizes the aims and main themes of each chapter. These outlines presented below summarize the aims and main themes addressed in each chapter. Part I - Theory Chapter 1 exposes legal aspects surrounding the authentication of works of art by art experts. The definition of what is legally authentic, the quality and types of the experts that can express an opinion concerning the authorship of a specific painting, and standard deontological rules are addressed. The practices applied in Switzerland will be specifically dealt with. Chapter 2 presents an overview of the different scientific analyses that can be carried out on paintings (from the canvas to the top coat). Scientific examinations of works of art have become more common, as more and more museums equip themselves with laboratories, thus an understanding of their role in the art authentication process is vital. The added value that a signature expertise can have in comparison to other scientific techniques is also addressed. Chapter 3 provides a historical overview of the signature on paintings throughout the ages, in order to offer the reader an understanding of the origin of the signature on works of art and its evolution through time. An explanation is given on the transitions that the signature went through from the 15th century on and how it progressively took on its widely known modern form. Both this chapter and chapter 2 are presented to show the reader the rich sources of information that can be provided to describe a painting, and how the signature is one of these sources. Chapter 4 focuses on the different hypotheses the FHE must keep in mind when examining a painted signature, since a number of scenarios can be encountered when dealing with signatures on works of art. The different forms of signatures, as well as the variables that may have an influence on the painted signatures, are also presented. Finally, the current state of knowledge of the examination procedure of signatures in forensic science in general, and in particular for painted signatures, is exposed. The state of the art of the assessment of the authorship of signatures on paintings is established and discussed in light of the theoretical facets mentioned previously. Chapter 5 considers key elements that can have an impact on the FHE during his or her2 examinations. This includes a discussion on elements such as the skill, confidence and competence of an expert, as well as the potential bias effects he might encounter. A better understanding of elements surrounding handwriting examinations, to, in turn, better communicate results and conclusions to an audience, is also undertaken. Chapter 6 reviews the judicial acceptance of signature analysis in Courts and closes the state of the art section of this thesis. This chapter brings forward the current issues pertaining to the appreciation of this expertise by the non- forensic community, and will discuss the increasing number of claims of the unscientific nature of signature authentication. The necessity to aim for more scientific, comprehensive and transparent authentication methods will be discussed. The theoretical part of this thesis is concluded by a series of general recommendations for forensic handwriting examiners in forensic science, specifically for the expertise of signatures on paintings. These recommendations stem from the exhaustive review of the literature and the issues exposed from this review and can also be applied to the traditional examination of signatures (on paper). Part II - Experimental part Chapter 7 describes and defines the sampling, extraction and analysis phases of the research. The sampling stage of artists' signatures and their respective simulations are presented, followed by the steps that were undertaken to extract and determine sets of characteristics, specific to each artist, that describe their signatures. The method is based on a study of five artists and a group of individuals acting as forgers for the sake of this study. Finally, the analysis procedure of these characteristics to assess of the strength of evidence, and based on a Bayesian reasoning process, is presented. Chapter 8 outlines the results concerning both the artist and simulation corpuses after their optical observation, followed by the results of the analysis phase of the research. The feature selection process and the likelihood ratio evaluation are the main themes that are addressed. The discrimination power between both corpuses is illustrated through multivariate analysis. Part III - Discussion Chapter 9 discusses the materials, the methods, and the obtained results of the research. The opportunities, but also constraints and limits, of the developed method are exposed. Future works that can be carried out subsequent to the results of the study are also presented. Chapter 10, the last chapter of this thesis, proposes a strategy to incorporate the model developed in the last chapters into the traditional signature expertise procedures. Thus, the strength of this expertise is discussed in conjunction with the traditional conclusions reached by forensic handwriting examiners in forensic science. Finally, this chapter summarizes and advocates a list of formal recommendations for good practices for handwriting examiners. In conclusion, the research highlights the interdisciplinary aspect of signature examination of signatures on paintings. The current state of knowledge of the judicial quality of art experts, along with the scientific and historical analysis of paintings and signatures, are overviewed to give the reader a feel of the different factors that have an impact on this particular subject. The temperamental acceptance of forensic signature analysis in court, also presented in the state of the art, explicitly demonstrates the necessity of a better recognition of signature expertise by courts of law. This general acceptance, however, can only be achieved by producing high quality results through a well-defined examination process. This research offers an original approach to attribute a painted signature to a certain artist: for the first time, a probabilistic model used to measure the discriminative potential between authentic and simulated painted signatures is studied. The opportunities and limits that lie within this method of scientifically establishing the authorship of signatures on works of art are thus presented. In addition, the second key contribution of this work proposes a procedure to combine the developed method into that used traditionally signature experts in forensic science. Such an implementation into the holistic traditional signature examination casework is a large step providing the forensic, judicial and art communities with a solid-based reasoning framework for the examination of signatures on paintings. The framework and preliminary results associated with this research have been published (Montani, 2009a) and presented at international forensic science conferences (Montani, 2009b; Montani, 2012).
Resumo:
Within Data Envelopment Analysis, several alternative models allow for an environmental adjustment. The majority of them deliver divergent results. Decision makers face the difficult task of selecting the most suitable model. This study is performed to overcome this difficulty. By doing so, it fills a research gap. First, a two-step web-based survey is conducted. It aims (1) to identify the selection criteria, (2) to prioritize and weight the selection criteria with respect to the goal of selecting the most suitable model and (3) to collect the preferences about which model is preferable to fulfil each selection criterion. Second, Analytic Hierarchy Process is used to quantify the preferences expressed in the survey. Results show that the understandability, the applicability and the acceptability of the alternative models are valid selection criteria. The selection of the most suitable model depends on the preferences of the decision makers with regards to these criteria.
Resumo:
This paper deals with a phenomenologically motivated magneto-viscoelastic coupled finite strain framework for simulating the curing process of polymers under the application of a coupled magneto-mechanical road. Magneto-sensitive polymers are prepared by mixing micron-sized ferromagnetic particles in uncured polymers. Application of a magnetic field during the curing process causes the particles to align and form chain-like structures lending an overall anisotropy to the material. The polymer curing is a viscoelastic complex process where a transformation from fluid. to solid occurs in the course of time. During curing, volume shrinkage also occurs due to the packing of polymer chains by chemical reactions. Such reactions impart a continuous change of magneto-mechanical properties that can be modelled by an appropriate constitutive relation where the temporal evolution of material parameters is considered. To model the shrinkage during curing, a magnetic-induction-dependent approach is proposed which is based on a multiplicative decomposition of the deformation gradient into a mechanical and a magnetic-induction-dependent volume shrinkage part. The proposed model obeys the relevant laws of thermodynamics. Numerical examples, based on a generalised Mooney-Rivlin energy function, are presented to demonstrate the model capacity in the case of a magneto-viscoelastically coupled load.