997 resultados para Complexity processing
Resumo:
Pölyäminen aiheuttaa ongelmia sekä paperin valmistuksessa paperikoneella että asiakkaalla painokoneella. Pölyäminen painokoneella aiheuttaa kumulatiivisia kertymiä painokumeille, -levyille ja kostutusvesijärjestelmään. Pölykertymistä seuraa painojäljen heikkenemistä, pesukertojen lisääntymistä ja tuotantokatkoja. Lisääntynyt painaminen tahmeilla offsetväreillä ja täyteaineiden käyttö paperin raaka-aineena on aiheuttanut paperin pölyämisherkkyyden kasvamista. Paperin pölyävyyteen vaikuttavia tekijöitä valmistuksessa, jälkikäsittelyssä ja jatkojalostuksessa on useita, mikä tekee ilmiöstä monimutkaisen. Paperin painatuksessa esiintyvän pölyävyyden ennakoimiseksi tutkittiin erilaisten pölymittausmenetelmien käytettävyys ja luotettavuus. Työssä käytetyt menetelmät olivatMac Millan Bloedel pölytesteri, R.A. Emerson & Company:n pölymittalaite, Finntesteri, SOLA, Masuga, arkkipainatus sekä IGT ja Prüfbau laboratoriopainatukset. Menetelmien luotettavuus arvioitiin vertaamalla saatuja pölytuloksia testipainatuksesta saatuihin pölytuloksiin ja Gage R&R testiä käyttäen. Lisäksi työssä selvitettiin paperin pölyävyyteen vaikuttavia tekijöitä, ja tutkittiin prosessiolosuhteiden vaikutusta paperin pölyävyyteen. Tutkimus osoitti tuotantoprosessin olosuhteissa tehtyjen muutosten aiheuttavan oleellisia muutoksia paperin pölyävyyteen. Käytettävän massan ominaisuuksilla, tuotantoprosessin kemian hallinnalla sekä paperin ominaisuuksista etenkin lujuus- ja formaatio-ominaisuuksilla on selkeästi yhteyttä paperin pölyävyyteen painatuksessa. Pölymittauksilla paperin valmistuksen yhteydessä voidaan tasollisesti arvioida paperinpölyävyys painatuksessa, mutta absoluuttisten tulosten saaminen on ilmiön monimuotoisuudesta johtuen mahdotonta. Käytetyistä menetelmistä tähän tuotantoprosessiin toimivin pölyävyyden mittamenetelmä on R.A. Emerson & Company:n pölymittalaite. Laite on yksinkertainen ja nopea käyttää, eikä toteutus vaadi suuria investointeja.
Resumo:
Työn päätavoitteena on kartoittaa Venäjän elintarviketeollisuutta ulkomaisen investoijan näkökulmasta. Tutkimus arvioi liiketoimintamahdollisuuksia ja kilpailutilannetta Venäjän elintarviketeollisuudessa ja auttaa ulkomaisia yrityksiä toteuttamaan liiketoimintastrategioitaan Venäjällä. Venäjän ja muiden siirtymätalousmaiden markkinatilannevertailujen lisäksi Venäjän alueita verrataan keskenään. Myös mahdollisen WTO jäsenyyden vaikutuksia arvioidaan. Kommunismin perintö vaikuttaa edelleen Venäjän elintarviketeollisuuteen ja maatalouteen. Maatalouden tuottavuus on kaukana länsimaisesta tasosta ja maatiloilta puuttuu rahoitusta. Etenkin maidon- ja lihanjalostajat kärsivät raaka-ainepulasta. Venäjän kriisi vuonna 1998 vahvisti paikallista teollisuustuotantoa mutta aiheutti ongelmia ulkomaisille investoijille ja yrityksille, jotka vievät tuotteitaan Venäjälle. Edut, joita mahdollinen maailmankauppajärjestö WTO:n jäsenyys tuo, ovat merkittävämpiä Venäjälle kuin sen kauppakumppaneille. Venäjän alueet eivät ole yhtäläisesti kehittyneitä ja kuluttajien ostovoima vaihtelee paljon. Itsestään selvin ja houkuttelevin vaihtoehto menestyvien elintarvikeyritysten laajentumiselle löytyy alueilta, joilla ostovoima on suurin. Tähän asti kansainväliset elintarvikeyritykset ovat olleet enemmän kiinnostuneita Itä- ja Keski-Euroopan maista. Käytettävissä olevat tulot ovat Itä- ja Keski-Euroopan maissa suurempia kuin Venäjällä, joten tuottajat pystyvät myymään myös kalliimpia tuotteita. Työvoimakustannukset Venäjällä tulevat olemaan suotuisia vielä muutaman vuosikymmenen ja markkinoiden koko on merkittävä. Siksi kansainvälisillä elintarvikeyrityksillä riittää kiinnostusta tulevaisuudessa investoida myös Venäjälle.
Resumo:
Nykyaikaiset Java-teknologiaa sisältävät matkapuhelimet kehittyvät vauhdikkaasti prosessoritehon, muistin määrän sekä uusien käyttöjärjestelmäversioiden tarjoamien ominaisuuksien myötä. Laitteiden näyttöjen koko tulee pysymään pienenä,mutta silti moninaista multimediasisältöä äänen, videon ja kuvan osilta voidaanhuomattavasti parantaa JSR 234:n eli kehittyneen multimedialaajennuksen avulla.Erityisesti edistyneet ääniominaisuudet ovat tervetullut lisä, sillä viime aikojen kehitys matkapuhelimissa on saanut aikaan niiden muuntumisen myös kannettavaksi musiikkisoittimiksi. Diplomityössä JSR 234 -spesifikaation tietty osa kehitettiin ympäristössä, joka koostui Series 60 -ohjelmistoalustankolmannesta versiosta sekä Symbian OS v9.1 käyttöjärjestelmästä. Tuloksena syntynyt Java-rajapinta tarjoaa sovelluskehittäjille yksinkertaisemman lähestymistavan Symbianin efektirajapintaan piilottaen samalla alla olevan käyttöjärjestelmänmonimutkaisuuden. Toteutuksen täytyy olla läpikotaisin testattu, jotta voidaan varmentua sen noudattavan tarkkaan JSR 234 -spesifikaatiota. Työssä on esitelty useita eri testausmenetelmiä tarkoituksena saavuttaa projektissa paras mahdollinen laatu.
Resumo:
The production and use of false identity and travel documents in organized crime represent a serious and evolving threat. However, a case-by-case perspective, thus suffering from linkage blindness and a limited analysis capacity, essentially drives the present-day fight against this criminal problem. To assist in overcoming these limitations, a process model was developed using a forensic perspective. It guides the systematic analysis and management of seized false documents to generate forensic intelligence that supports strategic and tactical decision-making in an intelligence-led policing approach. The model is articulated on a three-level architecture that aims to assist in detecting and following-up on general trends, production methods and links between cases or series. Using analyses of a large dataset of counterfeit and forged identity and travel documents, it is possible to illustrate the model, its three levels and their contribution. Examples will point out how the proposed approach assists in detecting emerging trends, in evaluating the black market's degree of structure, in uncovering criminal networks, in monitoring the quality of false documents, and in identifying their weaknesses to orient the conception of more secured travel and identity documents. The process model proposed is thought to have a general application in forensic science and can readily be transposed to other fields of study.
Resumo:
A crucial step in the arenavirus life cycle is the biosynthesis of the viral envelope glycoprotein (GP) responsible for virus attachment and entry. Processing of the GP precursor (GPC) by the cellular proprotein convertase site 1 protease (S1P), also known as subtilisin-kexin-isozyme 1 (SKI-1), is crucial for cell-to-cell propagation of infection and production of infectious virus. Here, we sought to evaluate arenavirus GPC processing by S1P as a target for antiviral therapy using a recently developed peptide-based S1P inhibitor, decanoyl (dec)-RRLL-chloromethylketone (CMK), and the prototypic arenavirus lymphocytic choriomeningitis virus (LCMV). To control for off-target effects of dec-RRLL-CMK, we employed arenavirus reverse genetics to introduce a furin recognition site into the GPC of LCMV. The rescued mutant virus grew to normal titers, and the processing of its GPC critically depended on cellular furin, but not S1P. Treatment with the S1P inhibitor dec-RRLL-CMK resulted in specific blocking of viral spread and virus production of LCMV. Combination of the protease inhibitor with ribavirin, currently used clinically for treatment of human arenavirus infections, resulted in additive drug effects. In cells deficient in S1P, the furin-dependent LCMV variant established persistent infection, whereas wild-type LCMV underwent extinction without the emergence of S1P-independent escape variants. Together, the potent antiviral activity of an inhibitor of S1P-dependent GPC cleavage, the additive antiviral effect with ribavirin, and the low probability of emergence of S1P-independent viral escape variants make S1P-mediated GPC processing by peptide-derived inhibitors a promising strategy for the development of novel antiarenaviral drugs.
Resumo:
Palvelukehitystoiminta sitoo huomattavan määrän resursseja ja on pitkäkestoista toimintaa. Innovatiivisuuteen tähtäämällä ja systemaattisella tuotekehitystyöllä yritys parantaa jatkuvuutta omassa liiketoiminnassaan. Alusta-ajattelu tuo uuden ulottuvuuden tuotteiden ja palveluiden kehitykseen. Alustan kehittäminen tukemaan tuote- ja palvelukehitystoimintaa ja yksinkertaistamaan tuote/palvelurakenteita antaa yrityksissä lisäpotentiaalia esimerkiksi lyhentyneiden kehitysaikojen, paremman kompleksisuuden hallinnan ja kustannustehokkuuden nousun myötä. Toimintojen tehostuminen yritystasolla saa aikaan mahdollisuuksien lisääntymisen nykyisillä liiketoimintasektoreilla. Palvelualustan kehityksellä päästään palvelurakenteen mallintamisen kautta parempaan liiketoiminnan hallitsemiseen ja systemaattisempaan tuotekehityksen läpivientiin. Palvelualustan yhtenä tärkeimpänä hyötynä on, että palvelun rakenteellisuus saadaan kuvattua alustaan. Lisäksi on tärkeää määritellä vastuutukset alustan kehityksessä, sekä pystyä mallintamaan informaation kulku (rajapinnat) prosesseissa.
Resumo:
Tämän kannattavuustutkimuksen lähtökohtana oli se, että Yhtyneet Sahat Oy:n Kaukaan sahalla ja Luumäen jatkojalostuslaitoksella haluttiin selvittää pellettitehtaan kannattavuus nykyisessä markkinatilanteessa. Tämä työon luonteeltaan teknis-taloudellinen selvitys eli ns. feasibility study. Pelletöintiprosessi on tekniikaltaan yksinkertainen eikä edellytä korkea teknologian laitteita. Toimiala on maailmanlaajuisesti varsin uusi. Suomessa pellettimarkkinat ovat vielä pienet ja kehittymättömät, mutta kasvua on viime vuosina tapahtunut. Valtaosa kotimaan tuotannosta menee vientiin. Investoinnin laskentaprosessissa saadut tuotannon alkuarvot sekä kustannusrakenteen määrittelyt ovat perustana varsinaisille kannattavuuslaskelmille. Laskelmista on selvitetty investointeihin liittyvät yleisimmät taloudelliset tunnusluvut ja herkimpiä muuttujia on tutkittu ja pohdittu herkkyysanalyysiä apuna käyttäen.
Resumo:
INTRODUCTION: Deficits in decision making (DM) are commonly associated with prefrontal cortical damage, but may occur with multiple sclerosis (MS). There are no data concerning the impact of MS on tasks evaluating DM under explicit risk, where different emotional and cognitive components can be distinguished. METHODS: We assessed 72 relapsing-remitting MS (RRMS) patients with mild to moderate disease and 38 healthy controls in two DM tasks involving risk with explicit rules: (1) The Wheel of Fortune (WOF), which probes the anticipated affects of decisions outcomes on future choices; and (2) The Cambridge Gamble Task (CGT) which measures risk taking. Participants also underwent a neuropsychological and emotional assessment, and skin conductance responses (SCRs) were recorded. RESULTS: In the WOF, RRMS patients showed deficits in integrating positive counterfactual information (p<0.005) and greater risk aversion (p<0.001). They reported less negative affect than controls (disappointment: p = 0.007; regret: p = 0.01), although their implicit emotional reactions as measured by post-choice SCRs did not differ. In the CGT, RRMS patients differed from controls in quality of DM (p = 0.01) and deliberation time (p = 0.0002), the latter difference being correlated with attention scores. Such changes did not result in overall decreases in performance (total gains). CONCLUSIONS: The quality of DM under risk was modified by MS in both tasks. The reduction in the expression of disappointment coexisted with an increased risk aversion in the WOF and alexithymia features. These concomitant emotional alterations may have implications for better understanding the components of explicit DM and for the clinical support of MS patients.
Resumo:
Increasing evidence suggests that working memory and perceptual processes are dynamically interrelated due to modulating activity in overlapping brain networks. However, the direct influence of working memory on the spatio-temporal brain dynamics of behaviorally relevant intervening information remains unclear. To investigate this issue, subjects performed a visual proximity grid perception task under three different visual-spatial working memory (VSWM) load conditions. VSWM load was manipulated by asking subjects to memorize the spatial locations of 6 or 3 disks. The grid was always presented between the encoding and recognition of the disk pattern. As a baseline condition, grid stimuli were presented without a VSWM context. VSWM load altered both perceptual performance and neural networks active during intervening grid encoding. Participants performed faster and more accurately on a challenging perceptual task under high VSWM load as compared to the low load and the baseline condition. Visual evoked potential (VEP) analyses identified changes in the configuration of the underlying sources in one particular period occurring 160-190 ms post-stimulus onset. Source analyses further showed an occipito-parietal down-regulation concurrent to the increased involvement of temporal and frontal resources in the high VSWM context. Together, these data suggest that cognitive control mechanisms supporting working memory may selectively enhance concurrent visual processing related to an independent goal. More broadly, our findings are in line with theoretical models implicating the engagement of frontal regions in synchronizing and optimizing mnemonic and perceptual resources towards multiple goals.
Resumo:
Résumé: Le développement rapide de nouvelles technologies comme l'imagerie médicale a permis l'expansion des études sur les fonctions cérébrales. Le rôle principal des études fonctionnelles cérébrales est de comparer l'activation neuronale entre différents individus. Dans ce contexte, la variabilité anatomique de la taille et de la forme du cerveau pose un problème majeur. Les méthodes actuelles permettent les comparaisons interindividuelles par la normalisation des cerveaux en utilisant un cerveau standard. Les cerveaux standards les plus utilisés actuellement sont le cerveau de Talairach et le cerveau de l'Institut Neurologique de Montréal (MNI) (SPM99). Les méthodes de recalage qui utilisent le cerveau de Talairach, ou celui de MNI, ne sont pas suffisamment précises pour superposer les parties plus variables d'un cortex cérébral (p.ex., le néocortex ou la zone perisylvienne), ainsi que les régions qui ont une asymétrie très importante entre les deux hémisphères. Le but de ce projet est d'évaluer une nouvelle technique de traitement d'images basée sur le recalage non-rigide et utilisant les repères anatomiques. Tout d'abord, nous devons identifier et extraire les structures anatomiques (les repères anatomiques) dans le cerveau à déformer et celui de référence. La correspondance entre ces deux jeux de repères nous permet de déterminer en 3D la déformation appropriée. Pour les repères anatomiques, nous utilisons six points de contrôle qui sont situés : un sur le gyrus de Heschl, un sur la zone motrice de la main et le dernier sur la fissure sylvienne, bilatéralement. Evaluation de notre programme de recalage est accomplie sur les images d'IRM et d'IRMf de neuf sujets parmi dix-huit qui ont participés dans une étude précédente de Maeder et al. Le résultat sur les images anatomiques, IRM, montre le déplacement des repères anatomiques du cerveau à déformer à la position des repères anatomiques de cerveau de référence. La distance du cerveau à déformer par rapport au cerveau de référence diminue après le recalage. Le recalage des images fonctionnelles, IRMf, ne montre pas de variation significative. Le petit nombre de repères, six points de contrôle, n'est pas suffisant pour produire les modifications des cartes statistiques. Cette thèse ouvre la voie à une nouvelle technique de recalage du cortex cérébral dont la direction principale est le recalage de plusieurs points représentant un sillon cérébral. Abstract : The fast development of new technologies such as digital medical imaging brought to the expansion of brain functional studies. One of the methodolgical key issue in brain functional studies is to compare neuronal activation between individuals. In this context, the great variability of brain size and shape is a major problem. Current methods allow inter-individual comparisions by means of normalisation of subjects' brains in relation to a standard brain. A largerly used standard brains are the proportional grid of Talairach and Tournoux and the Montreal Neurological Insititute standard brain (SPM99). However, there is a lack of more precise methods for the superposition of more variable portions of the cerebral cortex (e.g, neocrotex and perisyvlian zone) and in brain regions highly asymmetric between the two cerebral hemipsheres (e.g. planum termporale). The aim of this thesis is to evaluate a new image processing technique based on non-linear model-based registration. Contrary to the intensity-based, model-based registration uses spatial and not intensitiy information to fit one image to another. We extract identifiable anatomical features (point landmarks) in both deforming and target images and by their correspondence we determine the appropriate deformation in 3D. As landmarks, we use six control points that are situated: one on the Heschl'y Gyrus, one on the motor hand area, and one on the sylvian fissure, bilaterally. The evaluation of this model-based approach is performed on MRI and fMRI images of nine of eighteen subjects participating in the Maeder et al. study. Results on anatomical, i.e. MRI, images, show the mouvement of the deforming brain control points to the location of the reference brain control points. The distance of the deforming brain to the reference brain is smallest after the registration compared to the distance before the registration. Registration of functional images, i.e fMRI, doesn't show a significant variation. The small number of registration landmarks, i.e. six, is obvious not sufficient to produce significant modification on the fMRI statistical maps. This thesis opens the way to a new computation technique for cortex registration in which the main directions will be improvement of the registation algorithm, using not only one point as landmark, but many points, representing one particular sulcus.
Resumo:
Quality inspection and assurance is a veryimportant step when today's products are sold to markets. As products are produced in vast quantities, the interest to automate quality inspection tasks has increased correspondingly. Quality inspection tasks usuallyrequire the detection of deficiencies, defined as irregularities in this thesis. Objects containing regular patterns appear quite frequently on certain industries and science, e.g. half-tone raster patterns in the printing industry, crystal lattice structures in solid state physics and solder joints and components in the electronics industry. In this thesis, the problem of regular patterns and irregularities is described in analytical form and three different detection methods are proposed. All the methods are based on characteristics of Fourier transform to represent regular information compactly. Fourier transform enables the separation of regular and irregular parts of an image but the three methods presented are shown to differ in generality and computational complexity. Need to detect fine and sparse details is common in quality inspection tasks, e.g., locating smallfractures in components in the electronics industry or detecting tearing from paper samples in the printing industry. In this thesis, a general definition of such details is given by defining sufficient statistical properties in the histogram domain. The analytical definition allowsa quantitative comparison of methods designed for detail detection. Based on the definition, the utilisation of existing thresholding methodsis shown to be well motivated. Comparison of thresholding methods shows that minimum error thresholding outperforms other standard methods. The results are successfully applied to a paper printability and runnability inspection setup. Missing dots from a repeating raster pattern are detected from Heliotest strips and small surface defects from IGT picking papers.