916 resultados para Long memory stochastic process
Resumo:
Recientemente, ha aumentado mucho el interés por la aplicación de los modelos de memoria larga a variables económicas, sobre todo los modelos ARFIMA. Sin duda , el método más usado para la estimación de estos modelos en el ámbito del análisis económico es el propuesto por Geweke y Portero-Hudak (GPH) aun cuando en trabajos recientes se ha demostrado que, en ciertos casos, este estimador presenta un sesgo muy importante. De ahí que, se propone una extensión de este estimador a partir del modelo exponencial propuesto por Bloomfield, y que permite corregir este sesgo.A continuación, se analiza y compara el comportamiento de ambos estimadores en muestras no muy grandes y se comprueba como el estimador propuesto presenta un error cuadrático medio menor que el estimador GPH
Resumo:
Abstract Working memory has been defined as the ability to maintain and manipulate on-line a limited amount of information. A large number of studies have investigated visuospatial working memory in schizophrenia. However, today, the available data concerning the functioning of these processes in schizophrenia are largely controversial. These inconclusive results are due to incomplete knowledge on processes involved in visuospatial working memory tasks. Recent studies suggest that visuospatial working memory processes may be divided into an active monitoring and a storing components. Furthermore, it has been shown that visuospatial working memory processes are strongly interconnected with early encoding processes (perceptual organization). In our view, the two working memory components, and the relationship that they entertain with early encoding processes, may be investigated using dynamic and static visuospatial stimuli in a working memory paradigm. In this thesis we aim at comparing dynamic and static visuospatial working memory processes in patients with schizophrenia and first-episode of psychosis patients. This analysis may clarify the functioning of visuospatial working memory and the dysfunction of these processes in schizophrenia. Our results are in accord with the hypothesis of two visuospatial working memory subcomponents. Dynamic, rather than static, stimuli are strongly involved in the visuospatial working memory encoding process. Indeed, the results are congruent with the idea that static stimuli may be strongly encoded by parallel perceptual organization processes. Patients with schizophrenia show important deficits in both working memory and perceptual organization encoding processes. In contrast, perceptual organization processes seem spared in firstepisodepsychosis patients. Considering our findings, we propose a model to explain the degradation of visuospatial processes involved in a working memory task during schizophrenia. Résumé: La mémoire de travail est définie comme la capacité à maintenir et manipuler « on-line » un nombre limité d'informations pour une courte période de temps (de l'ordre de quelques dizaines de secondes). Un grand nombre d'études a montré que les processus de mémoire de travail visuo spatiale peuvent être affectés dans la schizophrénie. Malgré cela, les données concernant les déficits de ces processus chez des patients qui souffrent de schizophrénie sont contradictoires. La difficulté de comprendre la nature des déficits de mémoire de travail visuospatiale dans la schizophrénie est en grande partie imputable aux connaissances encore lacunaires sur le fonctionnement de ces processus dans un état non pathologique. Dans cette thèse, on cherche à élucider le fonctionnement des processus de mémoire de travail visuospatiale. Pour cela, on a créé un nouveau paradigme qui sollicite ce type de mémoire. Dans ce paradigme, on présente des stimuli dynamiques et statiques. Après un court délai, le sujet doit reconnaître le stimulus qu'il a visualisé parmi six possibilités. Sur la base de récentes études neurophysiologiques, neuroanatomiques et psychologiques, nous avançons l'hypothèse que l'encodage de stimuli dynamiques et statiques repose sur deux processus distincts de mémoire de travail : un processus d'organisation qui manipule les informations sensorielles et un processus dé stockage qui est responsable du maintien de l'information au cours de la manipulation. Ces processus sont en relation directe avec les processus responsables d'une organisation de l'information à un niveau précoce du traitement visuel. Les études présentées dans cette thèse ont pour but de vérifier la pertinence de la distinction entre les processus de mémoire de travail visuospatiale, selon la modalité «dynamique » ou «statique ». L'investigation des processus dynamiques et statiques de mémoire de travail dans la schizophrénie présente deux avantages principaux. Premièrement, 1a pathologie pourrait permettre de mettre en évidence, par les dysfonctionnements qu'elle présente, la pertinence des hypothèses sur le fonctionnement des processus de mémoire de travail visuospatiale et de leur interaction avec les processus sensoriels. Deuxièmement, ces investigations rendent possible une analyse des dysfonctions des différents processus dans la schizophrénie. Dans cette thèse, on analyse aussi les processus de mémoire de travail «dynamiques » et «statiques » chez des sujets dans une phase initiale de la psychose. Les résultats de cette étude permettent de faire une comparaison avec ceux obtenus avec des patients qui souffrent de schizophrénie. Cette comparaison peut apporter des informations intéressantes sur l'évolution des dysfonctions dans les processus impliqués dans les fonctions de mémoire de travail visuospatiale au cours de la schizophrénie. Les résultats obtenus dans les différentes études sont cohérents avec l'hypothèse d'une implication différente des processus d'organisation de la mémoire de travail sur des stimuli dynamiques et statiques. -Nos résultats montrent que les processus de mémoire de travail responsables de l'organisation (manipulation active) des informations est déficitaire dans la schizophrénie. Ce déficit semble jouer un rôle de premier plan dans la dégradation des processus visuospatiaux au cours de la schizophrénie.
Resumo:
We develop an algorithm to simulate a Gaussian stochastic process that is non-¿-correlated in both space and time coordinates. The colored noise obeys a linear reaction-diffusion Langevin equation with Gaussian white noise. This equation is exactly simulated in a discrete Fourier space.
Resumo:
Preface The starting point for this work and eventually the subject of the whole thesis was the question: how to estimate parameters of the affine stochastic volatility jump-diffusion models. These models are very important for contingent claim pricing. Their major advantage, availability T of analytical solutions for characteristic functions, made them the models of choice for many theoretical constructions and practical applications. At the same time, estimation of parameters of stochastic volatility jump-diffusion models is not a straightforward task. The problem is coming from the variance process, which is non-observable. There are several estimation methodologies that deal with estimation problems of latent variables. One appeared to be particularly interesting. It proposes the estimator that in contrast to the other methods requires neither discretization nor simulation of the process: the Continuous Empirical Characteristic function estimator (EGF) based on the unconditional characteristic function. However, the procedure was derived only for the stochastic volatility models without jumps. Thus, it has become the subject of my research. This thesis consists of three parts. Each one is written as independent and self contained article. At the same time, questions that are answered by the second and third parts of this Work arise naturally from the issues investigated and results obtained in the first one. The first chapter is the theoretical foundation of the thesis. It proposes an estimation procedure for the stochastic volatility models with jumps both in the asset price and variance processes. The estimation procedure is based on the joint unconditional characteristic function for the stochastic process. The major analytical result of this part as well as of the whole thesis is the closed form expression for the joint unconditional characteristic function for the stochastic volatility jump-diffusion models. The empirical part of the chapter suggests that besides a stochastic volatility, jumps both in the mean and the volatility equation are relevant for modelling returns of the S&P500 index, which has been chosen as a general representative of the stock asset class. Hence, the next question is: what jump process to use to model returns of the S&P500. The decision about the jump process in the framework of the affine jump- diffusion models boils down to defining the intensity of the compound Poisson process, a constant or some function of state variables, and to choosing the distribution of the jump size. While the jump in the variance process is usually assumed to be exponential, there are at least three distributions of the jump size which are currently used for the asset log-prices: normal, exponential and double exponential. The second part of this thesis shows that normal jumps in the asset log-returns should be used if we are to model S&P500 index by a stochastic volatility jump-diffusion model. This is a surprising result. Exponential distribution has fatter tails and for this reason either exponential or double exponential jump size was expected to provide the best it of the stochastic volatility jump-diffusion models to the data. The idea of testing the efficiency of the Continuous ECF estimator on the simulated data has already appeared when the first estimation results of the first chapter were obtained. In the absence of a benchmark or any ground for comparison it is unreasonable to be sure that our parameter estimates and the true parameters of the models coincide. The conclusion of the second chapter provides one more reason to do that kind of test. Thus, the third part of this thesis concentrates on the estimation of parameters of stochastic volatility jump- diffusion models on the basis of the asset price time-series simulated from various "true" parameter sets. The goal is to show that the Continuous ECF estimator based on the joint unconditional characteristic function is capable of finding the true parameters. And, the third chapter proves that our estimator indeed has the ability to do so. Once it is clear that the Continuous ECF estimator based on the unconditional characteristic function is working, the next question does not wait to appear. The question is whether the computation effort can be reduced without affecting the efficiency of the estimator, or whether the efficiency of the estimator can be improved without dramatically increasing the computational burden. The efficiency of the Continuous ECF estimator depends on the number of dimensions of the joint unconditional characteristic function which is used for its construction. Theoretically, the more dimensions there are, the more efficient is the estimation procedure. In practice, however, this relationship is not so straightforward due to the increasing computational difficulties. The second chapter, for example, in addition to the choice of the jump process, discusses the possibility of using the marginal, i.e. one-dimensional, unconditional characteristic function in the estimation instead of the joint, bi-dimensional, unconditional characteristic function. As result, the preference for one or the other depends on the model to be estimated. Thus, the computational effort can be reduced in some cases without affecting the efficiency of the estimator. The improvement of the estimator s efficiency by increasing its dimensionality faces more difficulties. The third chapter of this thesis, in addition to what was discussed above, compares the performance of the estimators with bi- and three-dimensional unconditional characteristic functions on the simulated data. It shows that the theoretical efficiency of the Continuous ECF estimator based on the three-dimensional unconditional characteristic function is not attainable in practice, at least for the moment, due to the limitations on the computer power and optimization toolboxes available to the general public. Thus, the Continuous ECF estimator based on the joint, bi-dimensional, unconditional characteristic function has all the reasons to exist and to be used for the estimation of parameters of the stochastic volatility jump-diffusion models.
Resumo:
Bardina and Jolis [Stochastic process. Appl. 69 (1997) 83-109] prove an extension of Ito's formula for F(Xt, t), where F(x, t) has a locally square-integrable derivative in x that satisfies a mild continuity condition in t and X is a one-dimensional diffusion process such that the law of Xt has a density satisfying certain properties. This formula was expressed using quadratic covariation. Following the ideas of Eisenbaum [Potential Anal. 13 (2000) 303-328] concerning Brownian motion, we show that one can re-express this formula using integration over space and time with respect to local times in place of quadratic covariation. We also show that when the function F has a locally integrable derivative in t, we can avoid the mild continuity condition in t for the derivative of F in x.
Resumo:
Abstract In humans, the skin is the largest organ of the body, covering up to 2m2 and weighing up to 4kg in an average adult. Its function is to preserve the body from external insults and also to retain water inside. This barrier function termed epidermal permeability barrier (EPB) is localized in the functional part of the skin: the epidermis. For this, evolution has built a complex structure of cells and lipids sealing the surface, the stratum corneum. The formation of this structure is finely tuned since it is not only formed once at birth, but renewed all life long. This active process gives a high plasticity and reactivity to skin, but also leads to various pathologies. ENaC is a sodium channel extensively studied in organs like kidney and lung due to its importance in regulating sodium homeostasis and fluid volume. It is composed of three subunits α, ß and r which are forming sodium selective channel through the cell membrane. Its presence in the skin has been demonstrated, but little is known about its physiological role. Previous work has shown that αENaC knockout mice displayed an abnormal epidermis, suggesting a role in differentiation processes that might be implicated in the EPB. The principal aim of this thesis has been to study the consequences for EPB function in mice deficient for αENaC by molecular and physiological means and to investigate the underlying molecular mechanisms. Here, the barrier function of αENaC knockout pups is impaired. Apparently not immediately after birth (permeability test) but 24h later, when evident water loss differences appeared compared to wildtypes. Neither the structural proteins of the epithelium nor the tights junctions showed any obvious alterations. In contrary, stratum corneum lipid disorders are most likely responsible for the barrier defect, accompanied by an impairment of skin surface acidification. To analyze in details this EPB defect, several hypotheses have been proposed: reduced sensibility to calcium which is the key activator far epidermal formation, or modification of ENaC-mediated ion fluxes/currents inside the epidermis. The cellular localization of ENaC and the action in the skin of CAPl, a positive regulator of ENaC, have been also studied in details. In summary, this study clearly demonstrates that ENaC is a key player in the EPB maintenance, because αENaC knockout pups are not able to adapt to the new environment (ex utero) as efficiently as the wildtypes, most likely due to impaired of sodium handling inside the epidermis. Résumé Chez l'homme, la peau est le plus grand organe, couvrant presque 2m2 et pesant près de 4kg chez l'adulte. Sa fonction principale est de protéger l'organisme des agressions extérieures mais également de conserver l'eau à l'intérieur du corps. Cette fonction nommée barrière épithéliale est localisée dans la partie fonctionnelle de la peau : l'épiderme. A cette fin, l'évolution s'est dotée d'une structure complexe composée de cellules et de lipides recouvrant la surface, la couche cornée. Sa formation est finement régulée, car elle n'est pas seulement produite à la naissance mais constamment renouvelée tout au long de la vie, ce qui lui confère une grande plasticité mais ce qui est également la cause de nombreuses pathologies. ENaC est un canal sodique très étudié dans le rein et le poumon pour son importance dans la régulation de l'homéostasie sodique et la régulation du volume du milieu intérieur. Il est composé de 3 sous unités, α, ß et y qui forment un pore sélectif pour le sodium dans les membranes. Ce canal est présent dans la peau mais sa fonction n'y est pas connue. Des travaux précédents ont pu montrer que les souris dont le gène codant pour αENaC a été invalidé présentent un épiderme pathologique, suggérant un rôle dans la différentiation et pourrait même être impliqué dans la barrière épithéliale. Le but de cette thèse fut l'étude de la barrière dans ces souris knockouts avec des méthodes moléculaires et physiologiques et la caractérisation des mécanismes moléculaire impliqués. Dans ce travail, il a été montré que les souris mutantes présentaient un défaut de la barrière. Ce défaut n'est pas visible immédiatement à la naissance (test de perméabilité), mais 24h plus tard, lorsque les tests de perte d'eau transépithéliale montrent une différence évidente avec les animaux contrôles. Ni les protéines de structures ni les jonctions serrées de l'épiderme ne présentaient d'imperfections majeures. A l'inverse, les lipides de la couche cornée présentaient un problème de maturation (expliquant le phénotype de la barrière), certainement consécutif au défaut d'acidification à la surface de la peau que nous avons observé. D'autres mécanismes ont été explorées afin d'investiguer cette anomalie de la barrière, comme la réduction de sensibilité au calcium qui est le principal activateur de la formation de l'épiderme, ou la modification des flux d'ions entre les couches de l'épiderme. La localisation cellulaire d'ENaC, et l'action de son activateur CAPl ont également été étudiés en détails. En résumé, cette étude démontre clairement qu'ENaC est un acteur important dans la formation de la barrière épithéliale, car la peau des knockouts ne s'adapte pas aussi bien que celle des sauvages au nouvel environnement ex utero à cause de la fonction d'ENaC dans les mouvements de sodium au sein même de l'épiderme. Résumé tout public Chez l'homme, la peau est le plus grand organe, couvrant presque 2m2 et pesant près de 4kg chez l'adulte. Sa fonction principale est de protéger l'organisme des agressions extérieures mais également de conserver l'eau à l'intérieur du corps. Cette fonction nommée barrière épithéliale est localisée dans la partie fonctionnelle de la peau : l'épiderme. A cette fin, l'évolution s'est dotée d'une structure complexe composée de cellules et de lipides recouvrant la surface, la couche cornée. Sa formation est finement régulée, car elle n'est pas seulement produite à la naissance mais constamment renouvelée tout au long de la vie, ce qui lui confère une grande plasticité mais ce qui est également la cause de nombreuses maladies. ENaC est une protéine formant un canal qui permet le passage sélectif de l'ion sodium à travers la paroi des cellules. Il est très étudié dans le rein pour son importance dans la récupération du sel lors de la concentration de l'urine. Ce canal est présent dans la peau mais sa fonction n'y est pas connue. Des travaux précédents ont pu montrer que les souris où le gène codant pour αENaC a été invalidé présentent un épiderme pathologique, suggérant un rôle dans la peau et plus particulièrement la fonction de barrière de l'épiderme. Le but de cette thèse fut l'étude de la fonction de barrière dans ces souris mutantes, au niveau tissulaire et cellulaire. Dans ce travail, il a été montré que les souris mutantes présentaient une peau plus perméable que celle des animaux contrôles, grâce à une machine mesurant la perte d'eau à travers la peau. Ce défaut n'est visible que 24h après la naissance, mais nous avons pu montrer que les animaux mutants perdaient quasiment 2 fois plus d'eau que les contrôles. Au niveau moléculaire, nous avons pu montrer que ce défaut provenait d'un problème de maturation des lipides qui composent la barrière de la peau. Cette maturation est incomplète vraisemblablement à cause d'un défaut de mouvement des ions dans les couches les plus superficielles de l'épiderme, et cela à cause de l'absence du canal ENaC. En résumé, cette étude démontre clairement qu'ENaC est un acteur important dans la formation de la barrière épithéliale, car la peau des mutants ne s'adapte pas aussi bien que celle des sauvages au nouvel environnement ex utero à cause de la fonction d'ENaC dans les mouvements de sodium au sein même de l'épiderme.
Resumo:
This study was carried out to assess the genetic variability of ten "cagaita" tree (Eugenia dysenterica) populations in Southeastern Goiás. Fifty-four randomly amplified polymorphic DNA (RAPD) loci were used to characterize the population genetic variability, using the analysis of molecular variance (AMOVA). A phiST value of 0.2703 was obtained, showing that 27.03% and 72.97% of the genetic variability is present among and within populations, respectively. The Pearson correlation coefficient (r) among the genetic distances matrix (1 - Jaccard similarity index) and the geographic distances were estimated, and a strong positive correlation was detected. Results suggest that these populations are differentiating through a stochastic process, with restricted and geographic distribution dependent gene flow.
Resumo:
In order to understand the development of non-genetically encoded actions during an animal's lifespan, it is necessary to analyze the dynamics and evolution of learning rules producing behavior. Owing to the intrinsic stochastic and frequency-dependent nature of learning dynamics, these rules are often studied in evolutionary biology via agent-based computer simulations. In this paper, we show that stochastic approximation theory can help to qualitatively understand learning dynamics and formulate analytical models for the evolution of learning rules. We consider a population of individuals repeatedly interacting during their lifespan, and where the stage game faced by the individuals fluctuates according to an environmental stochastic process. Individuals adjust their behavioral actions according to learning rules belonging to the class of experience-weighted attraction learning mechanisms, which includes standard reinforcement and Bayesian learning as special cases. We use stochastic approximation theory in order to derive differential equations governing action play probabilities, which turn out to have qualitative features of mutator-selection equations. We then perform agent-based simulations to find the conditions where the deterministic approximation is closest to the original stochastic learning process for standard 2-action 2-player fluctuating games, where interaction between learning rules and preference reversal may occur. Finally, we analyze a simplified model for the evolution of learning in a producer-scrounger game, which shows that the exploration rate can interact in a non-intuitive way with other features of co-evolving learning rules. Overall, our analyses illustrate the usefulness of applying stochastic approximation theory in the study of animal learning.
Resumo:
Julkaisu on kuvaus Agendi Modus - yrittäjyyskasvatushankkeesta, joka toteutettiin Etelä- Karjalassa vuosina 2004-2007. Samalla se on hankkeeseen osallistuneiden kokemuksista tehty vaikuttavuuden arviointiraportti. Agendi Modus-hanke oli Lappeenrannan teknillisen yliopiston Koulutus ja kehittämiskeskuksen kouluille ja yrityksille suunnattu projekti. Hankkeen tavoitteet olivat 1. pedagogisen muutoksen tuottaminen, 2. oppimisympäristöjen kehittäminen ja 3. yrittäjämäistä koulutyötä tukevan koulun kulttuurin ja johtamisen muutoksen tuottaminen. Julkaisusta käy ilmi, että hankevoi oppia yhdessä asiakkaidensa eli hankkeen yhteistyötahojen kanssa. Raportin toisessa osassa tuodaan esille muutamia yrittäjyyskasvatuksen näkökulmia. Lukija voi myös pohtia, tulisiko yrittäjyyskasvatuksen koulutuskokonaisuus rakentua kuten Agendi Moduksessa, eli esitellen aihealuetta sekäyleisesti että perehtyen sen eri olemuspuoliin. Julkaisun keskeisimmät huomiot ovat että A) hanke, joka kuuntelee asiakastaan, tuottaa sen tarvitsemia tuotteita, B) pitkäkestoinen koulutusprosessi tarjoaa mahdollisuuden ymmärtää yrittäjyyskasvatuksen metodologiaa ja pedagogiaa ja tukee aihealueen didaktiikan kokeilemista, C) on tärkeää kouluttaa sekä työyhteisöjä että näiden yksittäisiä toimijoita, D) eri osallistujilla on omanlaistaan osaamista yrittäjyyskasvatuksessa, koska kukin on valinnut erityyppistä koulutuksista itselleen soveltuvimpia, E) näyttää siltä, että noin puolet koulutuksiin osallistuneista käyttää yrittäjyyskasvatusta opetuksensa käyttöteoriana, F) oppimisympäristöjen kehittäminen on vähäisempää kuin yrittäjyyskasvatuksen käyttö oman opetuksen osana, G) hankkeen jälkeen osallistujilla on laaja ymmärrys yrittäjyyskasvatusta suosivasta oppimiskulttuurista, mutta vain harvat kokevat luovansa yrittäjämäistä koulukulttuuria. Jos uutta aihealueen hanketta suunnitellaan, se voisi keskittyä tätä hanketta tarkemmin koulukulttuurin muuttamiseen, jonka lisäksi toiminta-ajatuksissa kannattaisi huomioida oppimisen, teknologian ja yrittäjyyden strategiat.
Resumo:
The linking of North and South America by the Isthmus of Panama had major impacts on global climate, oceanic and atmospheric currents, and biodiversity, yet the timing of this critical event remains contentious. The Isthmus is traditionally understood to have fully closed by ca. 3.5 million years ago (Ma), and this date has been used as a benchmark for oceanographic, climatic, and evolutionary research, but recent evidence suggests a more complex geological formation. Here, we analyze both molecular and fossil data to evaluate the tempo of biotic exchange across the Americas in light of geological evidence. We demonstrate significant waves of dispersal of terrestrial organisms at approximately ca. 20 and 6 Ma and corresponding events separating marine organisms in the Atlantic and Pacific oceans at ca. 23 and 7 Ma. The direction of dispersal and their rates were symmetrical until the last ca. 6 Ma, when northern migration of South American lineages increased significantly. Variability among taxa in their timing of dispersal or vicariance across the Isthmus is not explained by the ecological factors tested in these analyses, including biome type, dispersal ability, and elevation preference. Migration was therefore not generally regulated by intrinsic traits but more likely reflects the presence of emergent terrain several millions of years earlier than commonly assumed. These results indicate that the dramatic biotic turnover associated with the Great American Biotic Interchange was a long and complex process that began as early as the Oligocene-Miocene transition.
Resumo:
Tämän diplomityö käsittelee UPM-Kymmenen paperitoimialoilla käynnissä olevaa Chain 2000 –projektin toteutusta uuden markkinan integroinnin aikana SAP –toiminnanohjausjärjestelmään yhden paperitehtaan näkökulmasta. Koska tehdasjärjestelmän kaikkien osa-alueiden integraatio on erittäin vaativa ja pitkäkestoinen prosessi, keskittyy tämä työ yhden markkinan integraatioon. Tavoitteena on suunnitella, toteuttaa ja testata tässä integroinnissa tarvittavat järjestelmämuutokset ja kuvata integroinnissa käytettäviä työkaluja, toimintamalleja ja prosesseja. Samalla kerrotaan tämän vaativan projektin mukanaan tuomia ongelmia ja ratkaisuja yhden paperitehtaan kannalta. Työssä esitellään erilaisia keinoja ja työkaluja varsinkin IT -projektien hallinnointiin ja toteuttamiseen sekä käydään läpi ohjelmistotestaaminen, ERP -järjestelmät ja tietovarastot. Työ tuo esille miten haastavaa globaalin IT –projektin toteuttaminen on. Tarkastelun tuloksena huomataan, että standardityökalujen käyttö aiheuttaa ongelmia erikoistilanteissa ja väärä informaatio tuo yritykselle ylimääräisiä kustannuksia. Projektin myötä toimintojen toteutuksen painotus ja samalla vastuu tiedon oikeellisuudesta siirtyy jatkuvasti tehtaalle päin. Integraatiotestaamisesta ja tarvittavista muutoksista on diplomityön aikana selviydytty kiitettävästi, mutta täysi varmuus kaikkien integraatioon osallistuvien järjestelmien toimivuudesta saadaan vasta itse käyttöönotossa kesällä 2004. Ylläpito käyttöönoton jälkeen vaatii myös resursseja.
Resumo:
Työn tavoitteena oli kehittää kunnossapitoyritykselle toiminnan tuottavuuden ja tehokkuuden mittausjärjestelmä. Ensin etsittiin teorian avulla ne sopivat suorituskykymittarit ja tekijät, joiden avulla yrityksen suorituskykyä voidaan luotettavasti ja ymmärrettävästi seurata. Apuna työnkulussa käytettiin kunnossapidon henkilökunnalle suunnattuja kirjallisia ja suullisia haastatteluja. Haastatteluiden avulla selvitettiin kunnossapidon suorituskyvyn mittauksen nykytila sekä mahdollisia kehityskohteita. Haastatteluihin ja kirjallisuuteen pohjautuen päätettiin yritykselle rakentaa suorituskykymittaristo. Mittaristoksi valittiin tuottavuus- eli tavoitematriisi, joka on toimiva työkalu mittareiden seurantaan. Se on helppokäyttöinen ja selkeä. Lisäksi matriisi antaa tulosindeksin avulla kokonaiskuvan kunnossapidon tasosta. Tavoitematriisi koostuu eri menestystekijöistä sekä näiden menestystekijöiden tunnusluvuista eli mittareista. Menestystekijöiksi valittiin: taloudellisuus, tuotantojärjestelmän tehokkuus, kustannusrakenne, kunnossapidon suunnittelu sekä häiriönkorjaus. Menestystekijöillä on jokaisella kolmesta kuuteen mittaria. Tavoitematriisin käyttö ja seuranta tapahtuu yksinkertaisen sovellusohjelman avulla. Mittariston kehittäminen on pitkä ja vaativa prosessi. Mittareita, niiden tavoitearvoja sekä menestystekijöitä tulee säännöllisin väliajoin tarkastaa, jotta kehitys on oikean suuntaista. Mittariston käyttöönotto ja käyttö edellyttävät kaikilta työntekijöiltä motivaatiota toiminnan kehitykseen sekä pitkäjänteisyyttä, sillä matriisin tarjoamat hyödyt ovat näkyvissä vasta kuukausien päästä.
Resumo:
Successful generation of high producing cell lines requires the generation of cell clones expressing the recombinant protein at high levels and the characterization of the clones' ability to maintain stable expression levels. The use of cis-acting epigenetic regulatory elements that improve this otherwise long and uncertain process has revolutionized recombinant protein production. Here we review and discuss new insights into the molecular mode of action of the matrix attachment regions (MARs) and ubiquitously-acting chromatin opening elements (UCOEs), i.e. cis-acting elements, and how these elements are being used to improve recombinant protein production. These elements can help maintain the chromatin environment of the transgene genomic integration locus in a transcriptionally favorable state, which increases the numbers of positive clones and the transgene expression levels. Moreover, the high producing clones tend to be more stable in long-term cultures even in the absence of selection pressure. Therefore, by increasing the probability of isolating a high producing clone, as well as by increasing transcription efficiency and stability, these elements can significantly reduce the time and cost required for producing large quantities of recombinant proteins.
Resumo:
Finlands industri har av tradition varit starkt energikrävande. Träförädlingsindustrin, som fick sin egentliga start i medlet på 1800-talet, använde stora mängder energi liksom metallförädlingsföretagen i ett senare skede. Krigstiden med sin energiransonering visade handgripligen för allmänheten liksom för specialisterna att en tillräcklig tillgång till energi är ett livsvillkor för vår industri och därmed för vårt land. Efterkrigstiden kännetecknades av en allt snabbare utbyggnad av den på vatten- och ångkraft baserade elkraftskapaciteten, en utbyggnad som den inhemska verkstadsindustrin i stor utsträckning deltog i. Men redan på 1950-talet var vattenkraften till stor del utbyggd, varför den privata såväl som den statliga sektorns intresse allt mera inriktade sig på den speciellt i USA favoriserade atomenergin. Efter fördjupade studier i kärnfysik och kärnteknik vid the International School of Nuclear Science and Engineering i USA deltog författaren av dessa rader intensivt (först som Ahlströmanställd och senare som VD för Finnatom) i den utvecklingsverksamhet inom det kärntekniska området som inte bara elproducenterna utan även verkstadsindustrin i vårt land genomförde. Det var därför naturligt för mig att som objekt för min doktorsavhandling välja introduktionen av kärnkraften i Finland med speciell fokus på den inhemska verkstadsindustrins roll. Jag ställde följande forskningsfrågor: a. När och hur skedde introduktionen av kärnkraften i Finland? b. Vilka var orsakerna till och resultatet av denna introduktion? c. Vilken var den inhemska verkstadsindustrins roll? Ett grundligt studium av litteraturen inklusive mötesprotokoll och tidningsreferat samt personligen genomförda intervjuer med ett trettiotal av de verkliga aktörerna i den långa och komplicerade introduktionsprocessen ledde till en teori, vars riktighet jag anser mig ha kunnat bevisa. Den inhemska verkstadsindustrins roll var synnerligen central. Dess representanter lyckades, bl.a. refererande till erfarenheterna från utbyggnaden av vatten- och ångkraften liksom till byggandet av den underkritiska milan YXP samt forskningsreaktorn TRIGA, övertyga beslutsfattarna om att den besatt nödig kompetens för att kompensera den kompetensbrist som kunde iakttas inom vissa områden hos den sovjetiska kärnkraftverksleverantören. De inhemska leveranserna påverkade även driftsresultatet, speciellt i fallet Lovisa, i positiv riktning. Introduktionsprocessen, som omfattade tiden från slutet av 1950-talet till början på 1980-talet, beskrevs, noterande bl.a. J. W. Creswells anvisningar, i detalj i avhandlingen. Introduktionen fick som resultat konkurrenskraftig elkraft, impuls till start av nya företag, exempelvis Nokia Elektronik, liksom en klar höjning av den tekniska nivån hos vår industri, inkluderande kärnteknisk tillverkning i stor skala. Katastrofen i Tjernobyl i slutet av april 1986 innebar emellertid att utvecklingen tog en paus på ett par decennier. Erfarenheterna från introduktionsfasen kan förhoppningsvis utnyttjas till fullo nu, när utbyggnaden av kärnkraften återupptagits i vårt land.
Resumo:
A single bout of resistance exercise (RE) induces hormonal and immune responses, playing an important role in a long-term adaptive process. Whole-body vibration (WBV) has also been shown to affect hormonal responses. Evidence suggests that combining WBV with RE may amplify hormonal and immune responses due to the increased neuromuscular load. Therefore, the aim of this study was to evaluate salivary cortisol (Scortisol) and salivary IgA (SIgA) concentrations following a RE session combined or not with WBV. Nine university students (22.9 ± 5.1 years, 175.8 ± 5.2 cm, and 69.2 ± 7.3 kg) performed five sets of squat exercise (70% one-repetition-maximum) combined (R+V30) or not (R) with WBV at 30 Hz. Saliva samples were obtained before and after exercise. Subjects also rated their effort according to the Borg CR-10 scale (RPE). Data were analyzed by a mixed model. RPE was higher after R+V30 (8.3 ± 0.7) compared to R (6.2 ± 0.7). However, Scortisol (pre: 10.6 ± 7.6 and 11.7 ± 7.6, post: 8.3 ± 6.3 and 10.2 ± 7.2 ng/mL for R and R+V30, respectively) and SIgA concentrations (pre: 98.3 ± 22.6 and 116.1 ± 51.2, post: 116.6 ± 64.7 and 143.6 ± 80.5 µg/mL for R and R+V30, respectively) were unaffected. No significant correlations were observed between Scortisol and RPE (r = 0.45, P = 0.22; r = 0.30, P = 0.42, for R and R+V30, respectively). On the basis of these data, neither protocol modified salivary cortisol or IgA, although RPE was higher after R+V30 than R.