912 resultados para non-process elements
Resumo:
Psychogenic non epileptic seizures (PNES) look like epilepsy, but are not accompanied by the electrophysiological alterations found in epilepsy. The diagnosis requires a complex process at the interface between neurology and psychiatry. Diagnostic restitution to the patient and treatment of the condition should be a collaboration between neurologist and psychiatrist including as much as possible a general practitioner. Vulnerability and triggering psycho-social factors, as well as frequent psychiatric co morbidity implicate that psychiatric-psychological care is needed in a majority of situations, however this cannot be done without a strong "somatic back-up" with rapid access to somatic facility for advice and care when needed. The neurological presentation of the disease, with psychiatric causes underlying the condition, bear the risk for the patient that neither neurological nor psychiatric care is offered. Current knowledge about the condition is still scarce, but the field is progressively enriched by studies with stronger methodologies. Recent neuroimaging studies open fascinating avenues on our understanding of the interplay between emotional regulation, representation of the self, and dissociative symptoms. These new avenues help our understanding of these disorders which challenge classical frontiers between neurology and psychiatry. In this paper we try to formulate a framework for the care of patient with dissociative disorders including NEPS.
Resumo:
This paper highlights the role of non-functional information when reusing from a component library. We describe a method for selecting appropriate implementations of Ada packages taking non-functional constraints into account; these constraints model the context of reuse. Constraints take the form of queries using an interface description language called NoFun, which is also used to state non-functional information in Ada packages; query results are trees of implementations, following the import relationships between components. We define two different situations when reusing components, depending whether we take the library being searched as closed or extendible. The resulting tree of implementations can be manipulated by the user to solve ambiguities, to state default behaviours, and by the like. As part of the proposal, we face the problem of computing from code the non-functional information that determines the selection process.
Resumo:
Contrairement aux animaux, les plantes sont des organismes sessiles qui ne possèdent pas de mécanismes de fuite quand les conditions environnementales ne sont plus optimales. Les plantes sont physiquement ancrées à l'endroit où elles ont germées et aux conditions environnementales qui parfois peuvent être extrêmes. Les possibilités d'acclimatation de différentes espèces, parfois même de groupes de plantes au sein d'une même espèce, peuvent varier mais repose sur une adaptation génétique de la plante. L'adaptation est un long processus qui repose sur l'apparition spontanée de mutations génétiques, leur mise à l'épreuve face aux conditions environnementales, et dans le cas où la mutation a un impact positif sur la survie dans cet habitat particulier, elle sera maintenue dans une population donnée de plantes. De telles populations, appelées écotypes, sont le matériel de départ pour la découverte de gènes qui induisent un bénéfice pour la plante dans un environnement donné. La plante la plus étudiée en biologie moléculaire est Arabidopsis thaliana, l'arabette des prés. Dans une étude précédente, les racines d'écotypes naturels d'Arabidopsis ont été comparées et un écotype, Uk-1, avait le système racinaire le plus particulier. Cet écotype possède des racines beaucoup plus courtes et plus ramifiées que tous les autres écotypes. Des analyses plus poussées ont montré qu'une seule mutation dans un gène était la cause de ce phénotype, le gène BREVIS RADIX (BRX), mot latin signifiant 'racine courte'. Bien que l'on connaisse le gène BRX, on connaît finalement peu de choses sur son importance adaptative. Dans cette étude, nous avons montré que la mutation dans le gène BRX rend la plante plus résistante aux sols acides. Dans l'optique de mieux comprendre cette valeur adaptative du mutant brx, nous avons analysé dans quels tissus le gène BRX jouait un rôle important. Nous avons pu mettre en évidence que BRX est important pour le développement du protophloème. Le protophloème est un élément du système vasculaire de la plante. En général, les plantes supérieures possèdent deux systèmes de transport à longue distance. L'un d'eux, appelé xylème, transporte l'eau et les nutriments absorbés du sol par les racines vers les feuilles. Les feuilles sont le siège du processus de photosynthèse au cours duquel sont produits des sucres qui devront être distribués partout dans les autres parties de la plante. Le tissu cellulaire chargé de livrer les produits de la photosynthèse, ainsi que les régulateurs de croissance, est le phloème. Ce dernier regroupe le métaphloème et le protophloème. Le protophloème est essentiel pour la livraison des sucres synthétisés ainsi que des signaux de croissance aux pointes des racines, centres organogéniques responsables de la production de nouvelles cellules durant la phase de croissance de la racine. La structure du protophloème peut être décrite comme des tubes continus, vides et résistants, faits de cellules spécialisées qui permettent un transport efficace et rapide. Nous avons montré que dans les mutants brx ces canaux de transports sont discontinus car certaines cellules n'ont pas terminé leur cycle de différenciation. Ces cellules obstruent le conduit ce qui fait que les sucres et les signaux de croissance, comme l'auxine, ne peuvent plus être transportés aux méristèmes. En conséquence, la prolifération de l'activité des méristèmes est compromise, ce qui explique les racines courtes. Au lieu d'être délivré aux méristèmes, l'auxine se concentre en amont des méristèmes où cela provoque l'apparition de nouvelles racines branchées et, très probablement, l'activation des pompes à protons. Sur des sols acides, la concentration en ion H+ est très élevée. Ces ions entrent dans les cellules de la racine par diffusion et perturbent notablement la croissance des racines et de la plante en général. Si les cellules de la racine possédaient des pompes à protons hyperactives, elles seraient capable d'évacuer le surplus d'ions H+ en dehors de la cellule, ce qui leur assurerait de meilleures chances de survie sur sols acides. De fait, le mutant brx est capable d'acidifier le milieu de culture dans lequel il est cultivé plus efficacement que la plante sauvage. Ce mutant est également capable de donner plus de progéniture sur ce type de milieu de croissance que les plantes sauvages. Finalement, nous avons trouvé d'autres mutants brx en milieu naturel poussant sur sols acides, ce qui suggère fortement que la mutation du gène BRX est une des causes de l'adaptation aux sols acides. -- Plants as sessile organisms have developed different mechanisms to cope with the complex environmental conditions in which they live. Adaptation is the process through which traits evolve by natural selection to functionally improve in a given environmental context. An adaptation to the environment is characterized by the genetic changes in the entire populations that have been fixed by natural selection over many generations. BREVIS RADIX (BRX) gene was found through natural Arabidopsis accessions screen and was characterized as a root growth regulator since loss-of-function mutants exhibit arrested post-embryonic primary root growth in addition to a more branched root system. Although brx loss-of-function causes a complete alteration in root architecture, BRX activity is only required in the root vasculature, in particular in protophloem cell file. Protophloem is a part of the phloem transport network and is responsible for delivery of photo-assimilates and growth regulators, coming from the shoot through mature phloem component - metaphloem, to the all plant primary meristems. In order to perform its function, protophloem is the first cell file to differentiate within the root meristem. During this process, protophloem cells undergo a partial programmed cell death, during which they build a thicker cell wall, degrade nucleus and tonoplast while plasma membrane stays functional. Interestingly, protophloem cells enter elongation process only after differentiation into sieve elements is completed. Here we show that brx mutants fail to differentiate protophloem cell file properly, a phenotype that can be distinguished by a presence of a "gap" cells, non-differentiated cells between two flanking differentiated cells. Discontinuity of protophloem differentiation in brx mutants is considered to be a consequence of local hyperactivity of CLAVATA3/EMBRYO SURROUNDING REGION 45 (CLE45) - BARELY ANY MERISTEM 3 (BAM3) signaling module. Interestingly, a CLE45 activity, most probably at the level of receptor binding, can be modulated by apoplastic pH. Altogether, our results imply that the activity of proton pumps, expressed in non-differentiated cells of protophloem, must be maintained under certain threshold, otherwise CLE45-BAM3 signaling pathway will be stimulated and in turn protophloem will not differentiate. Based on vacuolar morphology, a premature cell wall acidification in brx mutants stochastically prevents the protophloem differentiation. Only after protophloem differentiates, proton pumps can be activated in order to acidify apoplast and to support enucleated protophloem multifold elongation driven by surrounding cells growth. Finally, the protophloem differentiation failure would result in an auxin "traffic jam" in the upper parts of the root, created from the phloem-transported auxin that cannot be efficiently delivered to the meristem. Physiologically, auxin "leakage" from the plant vasculature network could have various consequences, since auxin is involved in the regulation of almost every aspect of plant growth and development. Thus, given that auxin stimulates lateral roots initiation and growth, this scenario explains more branched brx root system. Nevertheless, auxin is considered to activate plasma membrane proton pumps. Along with this, it has been shown that brx mutants acidify media much more than the wild type plants do, a trait that was proposed as an adaptive feature of naturally occurring brx null alleles in Arabidopsis populations found on acidic soils. Additionally, in our study we found that most of accessions originally collected from acidic sampling sites exhibit hypersensitivity to CLE45 treatment. This implies that adaptation of plants to acidic soil involves a positive selection pressure against upstream negative regulators of CLE45-BAM3 signaling, such as BRX. Perspective analysis of these accessions would provide more profound understanding of molecular mechanisms underlying plant adaptation to acidic soils. All these results are suggesting that targeting of the factors that affect protophloem differentiation is a good strategy of natural selection to change the root architecture and to develop an adaptation to a certain environment. -- Les plantes comme organismes sessiles ont développé différents mécanismes pour s'adapter aux conditions environnementales complexes dans lesquelles elles vivent. L'adaptation est le processus par lequel des traits vont évoluer via la sélection naturelle vers une amélioration fonctionnelle dans un contexte environnemental donné. Une adaptation à l'environnement est caractérisée par des changements génétiques dans des populations entières qui ont été fixés par la sélection naturelle sur plusieurs générations. Le gène BREVIS RADIX (BRX) a été identifié dans le crible d'une collection d'accessions naturelles d'Arabidopsis et a été caractérisé comme un régulateur de la croissance racinaire étant donné que le mutant perte-de-fonction montre une croissance racinaire primaire arrêtée au stade post-embryonnaire et présente de plus un système racinaire plus ramifié que la plante sauvage. Bien que le mutant perte-de-fonction brx cause une altération complète de l'architecture racinaire, l'activité de BRX n'est requise que dans la vascularisation racinaire, en particulier au niveau du protophloème. Le protophloème est un composant du réseau de transport du phloème et est responsable du transit des dérivés de la photosynthèse ainsi que des régulateurs de croissances, venant de la partie aérienne par le phloème mature (métaphloème) vers tous les méristèmes primaires de la plante. Pour pouvoir réaliser sa fonction, le protophloème est la première file de cellules à se différencier à l'intérieur du méristème de la racine. Pendant ce processus, les cellules du protophloème subissent une mort cellulaire programmée partielle durant laquelle elles épaississent leur paroi cellulaire, dégradent le noyau et le tonoplaste tandis que la membrane plasmique demeure fonctionnelle. De manière intéressante, les cellules du protophloème entament le processus d'allongement seulement après que la différenciation en tubes criblés soit complète. Ce travail montre que le mutant brx est incapable de mener à bien la différenciation de la file de cellules du protophloème, phénotype qui peut être visualisé par la présence de cellules 'trous', de cellules non différenciées entourées de deux cellules différenciées. La discontinuité de la différenciation du phloème dans le mutant brx est considérée comme la conséquence de l'hyperactivité localisée du module de signalisation CLA VA TA3/EMBRYO SURROUNDING REGION 45 (CLE45) - BARELY ANY MERISTEM 3 (BAM3). De manière intéressante, l'activité de CLE45, très probablement au niveau de la liaison avec le récepteur, peut être modulé par le pH apoplastique. Pris ensemble, nos résultats impliquent que l'activité des pompes à protons, actives dans les cellules non différenciées du protophloème, doit être maintenue en dessous d'un certain seuil autrement la cascade de signalisation CLE45-BAM3 serait stimulée, en conséquence de quoi le protophloème ne pourrait se différencier. D'après la morphologie vacuolaire, une acidification prématurée de la paroi cellulaire dans le mutant brx empêche la différenciation du protophloème de manière stochastique. Une fois que le protophloème se différencie, les pompes à protons peuvent alors être activées afin d'acidifier l'apoplaste et ainsi faciliter l'allongement des cellules énuclées du protophloème, entraînées par la croissance des cellules environnantes. Finalement, la différenciation défectueuse du protophloème produit une accumulation d'auxine dans la partie supérieure de la racine car le phloème ne peut plus acheminer efficacement l'auxine au méristème. Physiologiquement, la 'fuite' d'auxine à partir du réseau vasculaire de la plante peut avoir des conséquences variées puisque l'auxine est impliquée dans la régulation de la majorité des aspects de la croissance et développement de la plante. Etant donné que l'auxine stimule l'initiation et développement des racines latérales, ce scénario pourrait expliquer le système racinaire plus ramifié du mutant brx. En plus, l'auxine est considérée comme un activateur des pompes à protons. Par ailleurs, nous avons montré que les mutants brx ont la capacité d'acidifier le milieu plus efficacement que les plantes sauvages, une caractéristique des populations sauvages <¥Arabidopsis poussant sur des sols acides et contenant les allèles délétés brx. De plus, dans nos résultats nous avons mis en évidence que la plupart des accessions collectées originellement sur des sites acidophiles montre une hypersensibilité au traitement par CLE45. Ceci implique que l'adaptation des plantes aux sols acides repose sur la pression de sélection positive à rencontre des régulateurs négatifs de CLE45- BAM3, situés en amont de la cascade, tel le produit du gène BRX. Les analyses de ces accessions pourraient aboutir à une meilleure compréhension des mécanismes moléculaires responsables de l'adaptation des plantes aux sols acides. Tous nos résultats suggèrent que le ciblage des facteurs affectant la différenciation du protophloème serait une stratégie gagnante dans la sélection naturelle pour changer l'architecture de la racine et ainsi s'adapter efficacement à un nouvel environnement.
Resumo:
The present study is an integral part of a broader study focused on the design and implementation of self-cleaning culverts, i.e., configurations that prevent the formation of sediment deposits after culvert construction or cleaning. Sediment deposition at culverts is influenced by many factors, including the size and characteristics of material of which the channel is composed, the hydraulic characteristics generated under different hydrology events, the culvert geometry design, channel transition design, and the vegetation around the channel. The multitude of combinations produced by this set of variables makes the investigation of practical situations a complex undertaking. In addition to the considerations above, the field and analytical observations have revealed flow complexities affecting the flow and sediment transport through culverts that further increase the dimensions of the investigation. The flow complexities investigated in this study entail: flow non-uniformity in the areas of transition to and from the culvert, flow unsteadiness due to the flood wave propagation through the channel, and the asynchronous correlation between the flow and sediment hydrographs resulting from storm events. To date, the literature contains no systematic studies on sediment transport through multi-box culverts or investigations on the adverse effects of sediment deposition at culverts. Moreover, there is limited knowledge about the non-uniform, unsteady sediment transport in channels of variable geometry. Furthermore, there are few readily useable (inexpensive and practical) numerical models that can reliably simulate flow and sediment transport in such complex situations. Given the current state of knowledge, the main goal of the present study is to investigate the above flow complexities in order to provide the needed insights for a series of ongoing culvert studies. The research was phased so that field observations were conducted first to understand the culvert behavior in Iowa landscape. Modeling through complementary hydraulic model and numerical experiments was subsequently carried out to gain the practical knowledge for the development of the self-cleaning culvert designs.
Resumo:
Plants propagate electrical signals in response to artificial wounding. However, little is known about the electrophysiological responses of the phloem to wounding, and whether natural damaging stimuli induce propagating electrical signals in this tissue. Here, we used living aphids and the direct current (DC) version of the electrical penetration graph (EPG) to detect changes in the membrane potential of Arabidopsis sieve elements (SEs) during caterpillar wounding. Feeding wounds in the lamina induced fast depolarization waves in the affected leaf, rising to maximum amplitude (c. 60 mV) within 2 s. Major damage to the midvein induced fast and slow depolarization waves in unwounded neighbor leaves, but only slow depolarization waves in non-neighbor leaves. The slow depolarization waves rose to maximum amplitude (c. 30 mV) within 14 s. Expression of a jasmonate-responsive gene was detected in leaves in which SEs displayed fast depolarization waves. No electrical signals were detected in SEs of unwounded neighbor leaves of plants with suppressed expression of GLR3.3 and GLR3.6. EPG applied as a novel approach to plant electrophysiology allows cell-specific, robust, real-time monitoring of early electrophysiological responses in plant cells to damage, and is potentially applicable to a broad range of plant-herbivore interactions.
Resumo:
EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.
Resumo:
In eukaryotic cells, transgene expression levels may be limited by an unfavourable chromatin structure at the integration site. Epigenetic regulators are DNA sequences which may protect transgenes from such position effect. We evaluated different epigenetic regulators for their ability to protect transgene expression at telomeres, which are commonly associated to low or inconsistent expression because of their repressive chromatin environment. Although to variable extents, matrix attachment regions (MARs), ubiquitous chromatin opening element (UCOE) and the chicken cHS4 insulator acted as barrier elements, protecting a telomeric-distal transgene from silencing. MARs also increased the probability of silent gene reactivation in time-course experiments. Additionally, all MARs improved the level of expression in non-silenced cells, unlike other elements. MARs were associated to histone marks usually linked to actively expressed genes, especially acetylation of histone H3 and H4, suggesting that they may prevent the spread of silencing chromatin by imposing acetylation marks on nearby nucleosomes. Alternatively, an UCOE was found to act by preventing deposition of repressive chromatin marks. We conclude that epigenetic DNA elements used to enhance and stabilize transgene expression all have specific epigenetic signature that might be at the basis of their mode of action.
Resumo:
The evolution of animal societies in which some individuals forego direct reproduction to help others to reproduce poses an evolutionary paradox. Societies where all individuals reproduce equally and societies where a single individual completely monopolizes reproduction represent the end points of a continuum of variance in the reproductive output among group members. This led Sherman et al. (1995) to propose that cooperative breeding and eusociality (a term originally applied only to insects) are not discrete phenomena. Rather they form a continuum whose main difference is the extent to which individuals forego their own reproductive opportunity to help other members of the group. Here we present a new index: the eusociality index. It quantifies the decrease in direct reproduction of group members as a resut of altruistic acts directed to other members of the group (i.e. a measure of the level of eusociality). The rationale for this index lies in the fundamental duality of the reproductive process, in which organisms supply two distinct elements: (i) genetic material (genes); and (ii) power (energy). In non-eusocial animals, all individuals transmit genes and power in the same ratio (notwithstanding individual variance in offspring size and parental investment). By contrast, amongst eusocial animals some individuals contribute proportionally more to gene transfer, and others more to energy, resulting in high interindividual variation in the ratio of gene to power transfer.
Resumo:
La gouvernance de l'Internet est une thématique récente dans la politique mondiale. Néanmoins, elle est devenue au fil des années un enjeu économique et politique important. La question a même pris une importance particulière au cours des derniers mois en devenant un sujet d'actualité récurrent. Forte de ce constat, c ette recherche retrace l'histoire de la gouvernance de l'Internet depuis son émergence comme enjeu politique dans les années 1980 jusqu'à la fin du Sommet Mondial sur la Société de l'Information (SMSI) en 2005. Plutôt que de se focaliser sur l'une ou l'autre des institutions impliquées dans la régulation du réseau informatique mondial, cette recherche analyse l'émergence et l'évolution historique d'un espace de luttes rassemblant un nombre croissant d'acteurs différents. Cette évolution est décrite à travers le prisme de la relation dialectique entre élites et non-élites et de la lutte autour de la définition de la gouvernance de l'Internet. Cette thèse explore donc la question de comment les relations au sein des élites de la gouvernance de l'Internet et entre ces élites et les non-élites expliquent l'emergence, l'évolution et la structuration d'un champ relativement autonome de la politique mondiale centré sur la gouvernance de l'Internet. Contre les perspectives dominantes réaliste et libérales, cette recherche s'ancre dans une approche issue de la combinaison des traditions hétérodoxes en économie politique internationale et des apports de la sociologie politique internationale. Celle-ci s'articule autour des concepts de champ, d'élites et d'hégémonie. Le concept de champ, développé par Bourdieu inspire un nombre croissant d'études de la politique mondiale. Il permet à la fois une étude différenciée de la mondialisation et l'émergence d'espaces de lutte et de domination au niveau transnational. La sociologie des élites, elle, permet une approche pragmatique et centrée sur les acteurs des questions de pouvoir dans la mondialisation. Cette recherche utilise plus particulièrement le concept d'élite du pouvoir de Wright Mills pour étudier l'unification d'élites a priori différentes autour de projets communs. Enfin, cette étude reprend le concept néo-gramscien d'hégémonie afin d'étudier à la fois la stabilité relative du pouvoir d'une élite garantie par la dimension consensuelle de la domination, et les germes de changement contenus dans tout ordre international. A travers l'étude des documents produits au cours de la période étudiée et en s'appuyant sur la création de bases de données sur les réseaux d'acteurs, cette étude s'intéresse aux débats qui ont suivi la commercialisation du réseau au début des années 1990 et aux négociations lors du SMSI. La première période a abouti à la création de l'Internet Corporation for Assigned Names and Numbers (ICANN) en 1998. Cette création est le résultat de la recherche d'un consensus entre les discours dominants des années 1990. C'est également le fruit d'une coalition entre intérêts au sein d'une élite du pouvoir de la gouvernance de l'Internet. Cependant, cette institutionnalisation de l'Internet autour de l'ICANN excluait un certain nombre d'acteurs et de discours qui ont depuis tenté de renverser cet ordre. Le SMSI a été le cadre de la remise en cause du mode de gouvernance de l'Internet par les États exclus du système, des universitaires et certaines ONG et organisations internationales. C'est pourquoi le SMSI constitue la seconde période historique étudiée dans cette thèse. La confrontation lors du SMSI a donné lieu à une reconfiguration de l'élite du pouvoir de la gouvernance de l'Internet ainsi qu'à une redéfinition des frontières du champ. Un nouveau projet hégémonique a vu le jour autour d'éléments discursifs tels que le multipartenariat et autour d'insitutions telles que le Forum sur la Gouvernance de l'Internet. Le succès relatif de ce projet a permis une stabilité insitutionnelle inédite depuis la fin du SMSI et une acceptation du discours des élites par un grand nombre d'acteurs du champ. Ce n'est que récemment que cet ordre a été remis en cause par les pouvoirs émergents dans la gouvernance de l'Internet. Cette thèse cherche à contribuer au débat scientifique sur trois plans. Sur le plan théorique, elle contribue à l'essor d'un dialogue entre approches d'économie politique mondiale et de sociologie politique internationale afin d'étudier à la fois les dynamiques structurelles liées au processus de mondialisation et les pratiques localisées des acteurs dans un domaine précis. Elle insiste notamment sur l'apport de les notions de champ et d'élite du pouvoir et sur leur compatibilité avec les anlayses néo-gramsciennes de l'hégémonie. Sur le plan méthodologique, ce dialogue se traduit par une utilisation de méthodes sociologiques telles que l'anlyse de réseaux d'acteurs et de déclarations pour compléter l'analyse qualitative de documents. Enfin, sur le plan empirique, cette recherche offre une perspective originale sur la gouvernance de l'Internet en insistant sur sa dimension historique, en démontrant la fragilité du concept de gouvernance multipartenaire (multistakeholder) et en se focalisant sur les rapports de pouvoir et les liens entre gouvernance de l'Internet et mondialisation. - Internet governance is a recent issue in global politics. However, it gradually became a major political and economic issue. It recently became even more important and now appears regularly in the news. Against this background, this research outlines the history of Internet governance from its emergence as a political issue in the 1980s to the end of the World Summit on the Information Society (WSIS) in 2005. Rather than focusing on one or the other institution involved in Internet governance, this research analyses the emergence and historical evolution of a space of struggle affecting a growing number of different actors. This evolution is described through the analysis of the dialectical relation between elites and non-elites and through the struggle around the definition of Internet governance. The thesis explores the question of how the relations among the elites of Internet governance and between these elites and non-elites explain the emergence, the evolution, and the structuration of a relatively autonomous field of world politics centred around Internet governance. Against dominant realist and liberal perspectives, this research draws upon a cross-fertilisation of heterodox international political economy and international political sociology. This approach focuses on concepts such as field, elites and hegemony. The concept of field, as developed by Bourdieu, is increasingly used in International Relations to build a differentiated analysis of globalisation and to describe the emergence of transnational spaces of struggle and domination. Elite sociology allows for a pragmatic actor-centred analysis of the issue of power in the globalisation process. This research particularly draws on Wright Mill's concept of power elite in order to explore the unification of different elites around shared projects. Finally, this thesis uses the Neo-Gramscian concept of hegemony in order to study both the consensual dimension of domination and the prospect of change contained in any international order. Through the analysis of the documents produced within the analysed period, and through the creation of databases of networks of actors, this research focuses on the debates that followed the commercialisation of the Internet throughout the 1990s and during the WSIS. The first time period led to the creation of the Internet Corporation for Assigned Names and Numbers (ICANN) in 1998. This creation resulted from the consensus-building between the dominant discourses of the time. It also resulted from the coalition of interests among an emerging power elite. However, this institutionalisation of Internet governance around the ICANN excluded a number of actors and discourses that resisted this mode of governance. The WSIS became the institutional framework within which the governance system was questioned by some excluded states, scholars, NGOs and intergovernmental organisations. The confrontation between the power elite and counter-elites during the WSIS triggered a reconfiguration of the power elite as well as a re-definition of the boundaries of the field. A new hegemonic project emerged around discursive elements such as the idea of multistakeholderism and institutional elements such as the Internet Governance Forum. The relative success of the hegemonic project allowed for a certain stability within the field and an acceptance by most non-elites of the new order. It is only recently that this order began to be questioned by the emerging powers of Internet governance. This research provides three main contributions to the scientific debate. On the theoretical level, it contributes to the emergence of a dialogue between International Political Economy and International Political Sociology perspectives in order to analyse both the structural trends of the globalisation process and the located practices of actors in a given issue-area. It notably stresses the contribution of concepts such as field and power elite and their compatibility with a Neo-Gramscian framework to analyse hegemony. On the methodological level, this perspective relies on the use of mixed methods, combining qualitative content analysis with social network analysis of actors and statements. Finally, on the empirical level, this research provides an original perspective on Internet governance. It stresses the historical dimension of current Internet governance arrangements. It also criticise the notion of multistakeholde ism and focuses instead on the power dynamics and the relation between Internet governance and globalisation.
Resumo:
Työn tavoitteena oli selvittää SBU:n varastovaraosien logistinen prosessin tämänhetkinen tilanne verrattuna muihin ja sitä kautta oppia uusia tehokkaita tapoja hallita sitä sekä parantaa sen kilpailukykyä. Selvittäminen tapahtui benchmarkkaamalla SBU:n varastovaraosien logistinen prosessi kahteen sen kilpailijaan ja viiteen muuhun ei kilpailija yritykseen. Bechmarking -aineiston kerääminen tapahtui pääasiassa Inter netin, haastattelujen, bechmarking -kyselyn ja yritysvierailujen avulla. Tulosten vertailu ja analysointi perustui kerättyyn aineistoon. Kriteereiksi lopullista vertailua varten valittiin seikat, joihin liittyvä tieto oli saatavilta suurimmalta osalta bechmarking -yrityksistä. Tuloksena lopullisesta vertailusta muodostettiin "ranking" lista, jossa yritykset on laitettu paremmuus-järjestykseen. Tässä vertailussa SBU sijoittui viimeiseksi ja SBU varastovaraosien logistisessa prosessissa havaittiin olevan useita parannuskohteita. Joka tapauksessa SBU sai paljon tietoa siitä, kuinka muut yritykset hallitsevat prosessinsa ja kuinka SBU:n tulisi tulevaisuudessa hallita oma logistinen prosessinsa ja kuinka se voisi sitä kautta lisätä kilpailukykyään.
Resumo:
Polymorfian jatkuva seuranta saostuksessa on hyödyllistä suunnittelun ja kidetuotteen ominaisuuksien sekä kiteytystä seuraavan jatkoprosessoinnin kannalta. Tässä diplomityössä on tutkittu L-glutamiinihapon kahden (- ja ß) polymorfimuodon liukoisuuden riippuvuutta pH:sta ja lämpötilasta.Tulokseksi saatiin, että kummankin polymorfin liukoisuus kasvoi sekä pH:ta ettälämpötilaa kasvatettaessa. ¿¿muodon liukoisuus oli korkeampi kuin ß-muodon liukoisuus valituilla pH-arvoilla eri lämpötiloissa. Lisäksi seurattiin puolipanostoimisen saostuksen aikana 1-litraisella laboratoriokiteyttimellä muodostuvan kiteisen polymorfiseoksen koostumusta hyödyntäen in-line Raman-spektroskopiaa. Myös liuoksen pH-muutosta seurattiin sekä liuoksen koostumusta ATR FTIR-spektroskopian (Attenuated Total Reflection Fourier Transform Infrared Spectrometer) avulla. Tutkittavina muuttujina olivat mm. sekoitusintensiteetti, sekoitintyyppi, reaktanttien (natriumglutamaatti ja rikkihappo) konsentraatiot sekä syötetyn rikkihapon syöttökohta kiteyttimessä. Työhön sisältyi 36 koetta ja osa kokeista toistettiin tulosten oikeellisuuden tarkistamiseksi. Inline-mittaustulosten verifioimiseksi kidenäytteet analysoitiin myös käyttämällä konfokaali Raman-mikroskooppia. Kidemorfologiaa tutkittiin SEM-kuvien (Scanning Eletronic Microscope) avulla. Työ osoitti, että Raman-spektroskopia on joustava ja luotettava menetelmä saostusprosessin jatkuvaan seurantaan L-glutamiinihapolla. Alhaiset lähtöainepitoisuudet tuottivat pääasiassa ¿¿muotoa, kun taas alhainen sekoitusteho edisti ß-muodon muodostumista. Syöttökohta vaikutti merkittävästi polymorfiaan. Kun rikkihapon syöttökohta oli epäideaalisesti sekoitetulla vyöhykkeellä, nousi ylikylläisyystaso korkeaksi ja päätuote oli tällöin ß-muotoa. 6-lapainen vinolapaturbiini (nousukulma 45o) ja 6-lapainen levyturbiini eivät merkittävästi poikenneet toisistaan muodostuvien polymorfien osalta.
Resumo:
Résumé Durant le développement embryonnaire, les cellules pigmentaires des mammifères se développent à partir de deux origines différentes : les melanocytes se développent à partir de la crête neurale alors que les cellules de la rétine pigmentaire (RP) ont une origine neuronale. Un grand nombre de gènes sont impliqués dans la pigmentation dont les gènes de la famille tyrosinase à savoir Tyr, Tyrp1 et Dct. Certaines études ont suggéré que les gènes de la pigmentation sont régulés de manière différentielle dans les mélanocytes et dans la RP. Dans ce travail, les gènes de la famille tyrosinase ont été étudiés comme modèle de la régulation des gènes de la pigmentation par des éléments régulateurs agissant à distance. II a été montré que le promoteur du gène Tyrp1pouvait induire l'expression d'un transgène uniquement dans la RP alors que ce gène est aussi exprimé dans les mélanocytes comme le montre le phénotype des souris mutantes pour Tyrp1. Ce résultat suggère que les éléments régulateurs du promoteur sont suffisants pour l'expression dans la RP mais pas pour l'expression dans les mélanocytes. J'ai donc cherché à identifier la séquence qui régule l'expression dans les mélanocytes. Un chromosome artificiel bactérien (CAB) contenant le gène Tyrp1 s'est avéré suffisant pour induire l'expression dans les mélanocytes, comme démontré par la correction du phénotype mutant. La séquence de ce CAB contient plusieurs régions très conservées qui pourraient représenter de nouveaux éléments régulateurs. Par la suite, j'ai focalisé mon analyse sur une séquence située à -I5 kb qui s'est révélée être un amplificateur spécifique aux mélanocytes comme démontré par des expériences de cultures cellulaire et de transgenèse. De plus, une analyse poussée de cet élément a révélé que le facteur de transcription Sox 10 représentait un transactivateur de cet amplificateur. Comme pour Tyrp1, la régulation du gène tyrosinase est contrôlée par différents éléments régulateurs dans les mélanocytes et la RP. Il a été montré que le promoteur de tyrosinase n'était pas suffisant pour une forte expression dans les mélanocytes et la RP. De plus, l'analyse de la région située en amont a révélé la présence d'un amplificateur nécessaire à l'expression dans les mélanocytes à la position -15 kb. Cet amplificateur n'est toutefois pas actif dans la RP mais agit comme un répresseur dans ces cellules. Ces résultats indiquent que certains éléments nécessaires à l'expression dans les deux types de cellules pigmentaires sont absents de ces constructions. Comme pour Tyrp1, j'ai en premier lieu démontré qu'un CAB était capable de corriger le phénotype albinique, puis ai inséré un gène reporter (lacZ) dans le CAB par recombinaison homologue et ai finalement analysé l'expression du reporter en transgenèse. Ces souris ont montré une expression forte du lacZ dans les mélanocytes et la RP, ce qui indique que le CAB contient les séquences régulatrices nécessaires à l'expression correcte de tyrosinase. Afin de localiser plus précisément les éléments régulateurs, j'ai ensuite généré des délétions dans le CAB et analysé l'expression du lacZ en transgenèse. La comparaison de séquences génomiques provenant de différentes espèces a permis par la suite d'identifier des régions représentant de nouveaux éléments régulateurs potentiels. En utilisant cette approche, j'ai identifié une région qui se comporte comme un amplificateur dans la RP et qui est nécessaire à l'expression de tyrosinase dans ce tissu. De plus, j'ai identifié les facteurs de transcription Mitf et Sox10 comme transactivateurs de l'amplificateur spécifique aux mélanocytes situé à -15 kb. L'identification et la caractérisation des ces éléments régulateurs des gènes tyrosinase et Tyrp1confirme donc que la régulation différentielle des gènes dans les mélanocytes et la RP est liée à des éléments régulateurs séparés. Summary Pigment cells of mammals originate from two different lineages: melanocytes arise from the neural crest, whereas cells of the retinal pigment epithelium (RPE) originate from the optic cup of the developing forebrain. A large set of genes are involved in pigmentation, including the members of the tyrosinase gene family, namely tyrosinase, Tyrp1 and Dct. Previous studies have suggested that pigmentation genes are differentially regulated in melanocytes and RPE. In this work, the tyrosinase gene family was used as a model for studying the involvement of distal regulatory elements in pigment cell-specific gene expression. The promoter of the Tyrp1 gene has been shown to drive detectable transgene expression only to the RPE, even though the gene is also expressed in melanocytes as evident from Tyrp1-mutant mice. This indicates that the regulatory elements responsible for Tyrp1 gene expression in the RPE are not sufficient for expression in melanocytes. I thus searched for a putative melanocyte-specific regulatory sequence and demonstrate that a bacterial artificial chromosome (BAC) containing the Tyrp1 gene and surrounding sequences is able to target transgenic expression to melanocytes and to rescue the Tyrp1 b (brown) phenotype. This BAC contains several highly conserved non-coding sequences that might represent novel regulatory elements. I further focused on a sequence located at -15 kb which I identified as amelanocyte-specific enhancer as shown by cell culture and transgenic mice. In addition, further functional analysis identified the transcription factor Sox10 as being able to bind and transactivate this enhancer. As for Tyrp1, tyrosinase gene regulation is mediated by different cis-regulatory elements in melanocytes and RPE. It was shown that the tyrosinase promoter was not sufficient to confer strong and specific expression in melanocytes and RPE. Moreover, analysis of tyrosinase upstream sequence, revealed the presence of a specific enhancer at position -15 kb which was necessary to confer strong expression in melanocytes. This enhancer element however failed to act as an enhancer in the RPE, but rather repressed expression. This indicates that some regulatory elements required for tyrosinase expression in both RPE and melanocytes are still missing from these constructs. As for Tyrp1, I first demonstrated that a BAC containing the Tyr gene is able to rescue the Tyr c (albino) phenotype in mice, then I inserted a lacZ reporter gene in the BAC by homologous recombination, and finally analysed the pattern of lacZ expression in transgenic mice. These mice showed strong lacZ expression in both RPE and melanocytes, indicating that the BAC contains the regulatory sequences required for proper tyrosinase expression. In order to localize more precisely these regulatory elements, I have then generated several deletions in the BAC and analysed lacZ expression in transgenic mice. Multi-species comparative genomic analysis then allowed identifying conserved sequences that potentially represent novel regulatory elements. Using this experimental approach, I identified a region that behaves as a RPE-specific enhancer and that is required for tyrosinase expression in the retina] pigment epithelium. In addition, I identified the transcription factors Mitf and Sox l0 as being transactivators of the melanocyte-specific enhancer located at -l5 kb. The identification and characterization of these tyrosinase and Tyrp1 distal regulatory element supports the idea that separate regulatory sequences mediate differential gene expression in melanocytes and RPE.
Resumo:
A rigorous unit operation model is developed for vapor membrane separation. The new model is able to describe temperature, pressure, and concentration dependent permeation as wellreal fluid effects in vapor and gas separation with hydrocarbon selective rubbery polymeric membranes. The permeation through the membrane is described by a separate treatment of sorption and diffusion within the membrane. The chemical engineering thermodynamics is used to describe the equilibrium sorption of vapors and gases in rubbery membranes with equation of state models for polymeric systems. Also a new modification of the UNIFAC model is proposed for this purpose. Various thermodynamic models are extensively compared in order to verify the models' ability to predict and correlate experimental vapor-liquid equilibrium data. The penetrant transport through the selective layer of the membrane is described with the generalized Maxwell-Stefan equations, which are able to account for thebulk flux contribution as well as the diffusive coupling effect. A method is described to compute and correlate binary penetrant¿membrane diffusion coefficients from the experimental permeability coefficients at different temperatures and pressures. A fluid flow model for spiral-wound modules is derived from the conservation equation of mass, momentum, and energy. The conservation equations are presented in a discretized form by using the control volume approach. A combination of the permeation model and the fluid flow model yields the desired rigorous model for vapor membrane separation. The model is implemented into an inhouse process simulator and so vapor membrane separation may be evaluated as an integralpart of a process flowsheet.
Resumo:
The optical and electrical recovery processes of the metastable state of the EL2 defect artificially created in n‐type GaAs by boron or oxygen implantation are analyzed at 80 K using optical isothermal transient spectroscopy. In both cases, we have found an inhibition of the electrical recovery and the existence of an optical recovery in the range 1.1-1.4 eV, competing with the photoquenching effect. The similar results obtained with both elements and the different behavior observed in comparison with the native EL2 defect has been related to the network damage produced by the implantation process. From the different behavior with the technological process, it can be deduced that the electrical and optical anomalies have a different origin. The electrical inhibition is due to the existence of an interaction between the EL2 defect and other implantation‐created defects. However, the optical recovery seems to be related to a change in the microscopic metastable state configuration involving the presence of vacancies
Resumo:
This thesis is composed of three main parts. The first consists of a state of the art of the different notions that are significant to understand the elements surrounding art authentication in general, and of signatures in particular, and that the author deemed them necessary to fully grasp the microcosm that makes up this particular market. Individuals with a solid knowledge of the art and expertise area, and that are particularly interested in the present study are advised to advance directly to the fourth Chapter. The expertise of the signature, it's reliability, and the factors impacting the expert's conclusions are brought forward. The final aim of the state of the art is to offer a general list of recommendations based on an exhaustive review of the current literature and given in light of all of the exposed issues. These guidelines are specifically formulated for the expertise of signatures on paintings, but can also be applied to wider themes in the area of signature examination. The second part of this thesis covers the experimental stages of the research. It consists of the method developed to authenticate painted signatures on works of art. This method is articulated around several main objectives: defining measurable features on painted signatures and defining their relevance in order to establish the separation capacities between groups of authentic and simulated signatures. For the first time, numerical analyses of painted signatures have been obtained and are used to attribute their authorship to given artists. An in-depth discussion of the developed method constitutes the third and final part of this study. It evaluates the opportunities and constraints when applied by signature and handwriting experts in forensic science. A brief summary covering each chapter allows a rapid overview of the study and summarizes the aims and main themes of each chapter. These outlines presented below summarize the aims and main themes addressed in each chapter. Part I - Theory Chapter 1 exposes legal aspects surrounding the authentication of works of art by art experts. The definition of what is legally authentic, the quality and types of the experts that can express an opinion concerning the authorship of a specific painting, and standard deontological rules are addressed. The practices applied in Switzerland will be specifically dealt with. Chapter 2 presents an overview of the different scientific analyses that can be carried out on paintings (from the canvas to the top coat). Scientific examinations of works of art have become more common, as more and more museums equip themselves with laboratories, thus an understanding of their role in the art authentication process is vital. The added value that a signature expertise can have in comparison to other scientific techniques is also addressed. Chapter 3 provides a historical overview of the signature on paintings throughout the ages, in order to offer the reader an understanding of the origin of the signature on works of art and its evolution through time. An explanation is given on the transitions that the signature went through from the 15th century on and how it progressively took on its widely known modern form. Both this chapter and chapter 2 are presented to show the reader the rich sources of information that can be provided to describe a painting, and how the signature is one of these sources. Chapter 4 focuses on the different hypotheses the FHE must keep in mind when examining a painted signature, since a number of scenarios can be encountered when dealing with signatures on works of art. The different forms of signatures, as well as the variables that may have an influence on the painted signatures, are also presented. Finally, the current state of knowledge of the examination procedure of signatures in forensic science in general, and in particular for painted signatures, is exposed. The state of the art of the assessment of the authorship of signatures on paintings is established and discussed in light of the theoretical facets mentioned previously. Chapter 5 considers key elements that can have an impact on the FHE during his or her2 examinations. This includes a discussion on elements such as the skill, confidence and competence of an expert, as well as the potential bias effects he might encounter. A better understanding of elements surrounding handwriting examinations, to, in turn, better communicate results and conclusions to an audience, is also undertaken. Chapter 6 reviews the judicial acceptance of signature analysis in Courts and closes the state of the art section of this thesis. This chapter brings forward the current issues pertaining to the appreciation of this expertise by the non- forensic community, and will discuss the increasing number of claims of the unscientific nature of signature authentication. The necessity to aim for more scientific, comprehensive and transparent authentication methods will be discussed. The theoretical part of this thesis is concluded by a series of general recommendations for forensic handwriting examiners in forensic science, specifically for the expertise of signatures on paintings. These recommendations stem from the exhaustive review of the literature and the issues exposed from this review and can also be applied to the traditional examination of signatures (on paper). Part II - Experimental part Chapter 7 describes and defines the sampling, extraction and analysis phases of the research. The sampling stage of artists' signatures and their respective simulations are presented, followed by the steps that were undertaken to extract and determine sets of characteristics, specific to each artist, that describe their signatures. The method is based on a study of five artists and a group of individuals acting as forgers for the sake of this study. Finally, the analysis procedure of these characteristics to assess of the strength of evidence, and based on a Bayesian reasoning process, is presented. Chapter 8 outlines the results concerning both the artist and simulation corpuses after their optical observation, followed by the results of the analysis phase of the research. The feature selection process and the likelihood ratio evaluation are the main themes that are addressed. The discrimination power between both corpuses is illustrated through multivariate analysis. Part III - Discussion Chapter 9 discusses the materials, the methods, and the obtained results of the research. The opportunities, but also constraints and limits, of the developed method are exposed. Future works that can be carried out subsequent to the results of the study are also presented. Chapter 10, the last chapter of this thesis, proposes a strategy to incorporate the model developed in the last chapters into the traditional signature expertise procedures. Thus, the strength of this expertise is discussed in conjunction with the traditional conclusions reached by forensic handwriting examiners in forensic science. Finally, this chapter summarizes and advocates a list of formal recommendations for good practices for handwriting examiners. In conclusion, the research highlights the interdisciplinary aspect of signature examination of signatures on paintings. The current state of knowledge of the judicial quality of art experts, along with the scientific and historical analysis of paintings and signatures, are overviewed to give the reader a feel of the different factors that have an impact on this particular subject. The temperamental acceptance of forensic signature analysis in court, also presented in the state of the art, explicitly demonstrates the necessity of a better recognition of signature expertise by courts of law. This general acceptance, however, can only be achieved by producing high quality results through a well-defined examination process. This research offers an original approach to attribute a painted signature to a certain artist: for the first time, a probabilistic model used to measure the discriminative potential between authentic and simulated painted signatures is studied. The opportunities and limits that lie within this method of scientifically establishing the authorship of signatures on works of art are thus presented. In addition, the second key contribution of this work proposes a procedure to combine the developed method into that used traditionally signature experts in forensic science. Such an implementation into the holistic traditional signature examination casework is a large step providing the forensic, judicial and art communities with a solid-based reasoning framework for the examination of signatures on paintings. The framework and preliminary results associated with this research have been published (Montani, 2009a) and presented at international forensic science conferences (Montani, 2009b; Montani, 2012).