969 resultados para Data Flow Algorithm


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Aquest treball de final de carrera inclou el desenvolupament d'un programari que permet xifrar arxius utilitzant un algorisme de flux. El desenvolupament del programari ha estat dividit en tres parts, el generador de números aleatoris, l'aplicació de l'algorisme de xifrat on s'han aplicat les tècniques adients de criptografia i la interfície gràfica per l'usuari.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Uncertainty quantification of petroleum reservoir models is one of the present challenges, which is usually approached with a wide range of geostatistical tools linked with statistical optimisation or/and inference algorithms. Recent advances in machine learning offer a novel approach to model spatial distribution of petrophysical properties in complex reservoirs alternative to geostatistics. The approach is based of semisupervised learning, which handles both ?labelled? observed data and ?unlabelled? data, which have no measured value but describe prior knowledge and other relevant data in forms of manifolds in the input space where the modelled property is continuous. Proposed semi-supervised Support Vector Regression (SVR) model has demonstrated its capability to represent realistic geological features and describe stochastic variability and non-uniqueness of spatial properties. On the other hand, it is able to capture and preserve key spatial dependencies such as connectivity of high permeability geo-bodies, which is often difficult in contemporary petroleum reservoir studies. Semi-supervised SVR as a data driven algorithm is designed to integrate various kind of conditioning information and learn dependences from it. The semi-supervised SVR model is able to balance signal/noise levels and control the prior belief in available data. In this work, stochastic semi-supervised SVR geomodel is integrated into Bayesian framework to quantify uncertainty of reservoir production with multiple models fitted to past dynamic observations (production history). Multiple history matched models are obtained using stochastic sampling and/or MCMC-based inference algorithms, which evaluate posterior probability distribution. Uncertainty of the model is described by posterior probability of the model parameters that represent key geological properties: spatial correlation size, continuity strength, smoothness/variability of spatial property distribution. The developed approach is illustrated with a fluvial reservoir case. The resulting probabilistic production forecasts are described by uncertainty envelopes. The paper compares the performance of the models with different combinations of unknown parameters and discusses sensitivity issues.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Detecting local differences between groups of connectomes is a great challenge in neuroimaging, because the large number of tests that have to be performed and the impact on multiplicity correction. Any available information should be exploited to increase the power of detecting true between-group effects. We present an adaptive strategy that exploits the data structure and the prior information concerning positive dependence between nodes and connections, without relying on strong assumptions. As a first step, we decompose the brain network, i.e., the connectome, into subnetworks and we apply a screening at the subnetwork level. The subnetworks are defined either according to prior knowledge or by applying a data driven algorithm. Given the results of the screening step, a filtering is performed to seek real differences at the node/connection level. The proposed strategy could be used to strongly control either the family-wise error rate or the false discovery rate. We show by means of different simulations the benefit of the proposed strategy, and we present a real application of comparing connectomes of preschool children and adolescents.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Työn tavoite oli löytää malli, joka mahdollistaisi kaikkien tilaus- toimitusprosessin operatiivisten järjestelmien integroimisen keskenään siten, että niitä voidaan hyödyntää valmistuksen ohjaukseen. Vaneritehtaissa ei ole keskitettyä tietojärjestelmää, joten tavoiteasetanta edellytti vaneritehtaan tietoverkon rakentamiseen liittyvän ongelmakentän periaatteellista ratkaisua.Koska tilaus- toimitusprosessi, tuotantoa lukuunottamatta, oli kohdeyrityksessä katettu tietojärjestelmillä, loivat nämä jo olemassa olevat järjestelmät reunaehdot ratkaisulle myös tuotannon tietoverkon kehittämisessä. Työssä etsittiin ja kiinnitettiin avaimet, joilla tuote- sekä henkilötieto saadaan identifioitua keskenään integroiduissa järjestelmissä niin, että informaatioketju ei katkea siirryttäessä järjestelmästä toiseen.Työssä ratkaistiin tietoverkon liityntä tuotantolaitteisiin valvomotuotteen avulla. Liittymisratkaisuja esiteltiin neljä. Nämä mallit kattavat suurimman osan vaneritehtaassa eteen tulevista tapauksista. Näiden lisäksi päädyttiin suosittamaan erään mekaanisen metsäteollisuuden laitetoimittajan luomaa tiedonkeruu- ja tuotannonsuunnitteluohjelmistoa, joka valmiina ratkaisuna edesauttaa tietoverkon nopeaa implementointia.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Työn tavoitteena oli luoda selkeä kuvaus sanomalehden lehtitilausprosessin toiminnasta tilauksesta jakeluun sekä kartoittaa lehtitilausprosessiin liittyvät ongelmakohdat ja esittää alustavia parannus- ja kehittämisehdotuksia niiden ratkaisemiseksi. Kuvauksen rakenteen teoreettisen pohjan luo työn alussa esitetty strukturoitu analyysi eli SA-menetelmä (structured analysis), jota soveltaen varsinainen kuvaus pääosin henkilöhaastatteluista saatuihin tietoihin perustuen toteutettiin.Sanomalehden lehtitilausprosessi on hyvin laaja ja monivaiheinen prosessi. Työn yhtenä tarkoituksena olikin selventää henkilöstölle, mitä kyseisen prosessin sisällä oikein tapahtuu. Kuvausta tehtäessä havaittiin useita lehtitilausprosessiin liittyviä ongelma- ja kehittämiskohteita, joiden kuntoon saattamiseksi on työssä esitetty alustavia ratkaisuvaihtoehtoja. Diplomityön teettämisen perusteena oli halu kehittää lehtitilausprosessia tilauksesta jakeluun nykyprosessin laadun parantamiseksi.Toimenpide-ehdotuksena esitetään tutkimuksessa läpi käytyjen sekä sen pohjalta mahdollisesti ilmenevien uusien parannus- ja kehittämisehdotusten toteuttamista lähitulevaisuudessa. Näin kyetään takaamaan lehtitilausprosessin toimivuus sekä vastaamaan asiakkaiden kasvaviin tarpeisiin myös tulevaisuudessa.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Diplomityön tavoitteena oli löytää voimalaitosprojektin dokumenttien hallinnan epäjatkuvuuskohdat, mikä ne aiheuttaa ja millä toimenpiteillä dokumenttien hallintaa voidaan parantaa. Tietojärjestelmien, tiedon ja dokumenttien hallinnan merkitys kasvaa yhä enenevässä määrin globaalissa verkostoliiketoiminnassa. Tieto on varastoituna voimalaitoksen suunnittelu-, rakentamis- sekä käyttö- ja ylläpitodokumenteissa. Dokumentit pitää pystyä jäljittämään tietojärjestelmistä ajasta ja paikasta riippumatta laitoksen koko elinkaaren ajan. Laitosdokumentaatiota hyödynnetään laitoksen käyttö- ja ylläpitotoimintojen, tuotekehityksen sekä uusien projektien lähtötietona. Haastatteluilla selvitettiin dokumentoinnin tilaa eräässä laajassa hajautetussa voimalaitosprojektissa. Haastattelujen tuloksia ja yrityksen sisäistä dokumentoinnin ohjeistusta vertaamalla havaittiin, että tiedon siirtoa myynniltä projektille tulee kehittää, samoin kuin dokumenttien tarkastus- ja hyväksymiskäytäntöjä. Dokumenttien käytettävyys edellyttää tietojärjestelmien integrointia ja metatietojen määrittelyä. Työn tuloksena on syntynyt karkean tason tietovirtakaavio sekä dokumentoinnin prosessikuvaukset parantamaan yrityksen ja sen alihankkijoiden välistä kommunikaatiota.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Sähkömarkkinoiden vapautumisen jälkeen energia-alalle on muodostunut entistä suurempi kysyntä kehittyneille energiatiedon hallintaaan erikoistuneille tietojärjestelmille. Uudet lakisäädökset sekä tulevaisuuden kokonaisvaltaiset tiedonkeruujärjestelmät, kuten älykkäät mittarit ja älykkäät sähköverkot, tuovat mukanaan entistä suuremman prosessoitavan tietovirran. Nykyaikaisen energiatietojärjestelmän on kyettävä vastaamaan haasteeseen ja palveltava asiakkaan vaatimuksia tehokkaasti prosessien suorituskyvyn kärsimättä. Tietojärjestelmän prosessien on oltava myös skaalautuvia, jotta tulevaisuuden lisääntyneet prosessointitarpeet ovat hallittavissa. Tässä työssä kuvataan nykyaikaisen energiatietojärjestelmän keskeiset energiatiedon hallintaan ja varastointiin liittyvät komponentit. Työssä esitellään myös älykkäiden mittareiden perusperiaate ja niiden tuomat edut energia-alalla. Lisäksi työssä kuvataan visioita tulevaisuuden älykkäiden sähköverkkojen toteutusmahdollisuuksista. Diplomityössä esitellään keskeisiä suorituskykyyn liittyviä kokonaisuuksia. Lisäksi työssä kuvataan keskeiset suorituskyvyn mittarit sekä suorituskykyvaatimukset. Järjestelmän suorituskyvyn arvioinnin toteuttamiseen on erilaisia menetelmiä, joista tässä työssä kuvataan yksi sen keskeisine periaatteineen. Suorituskyvyn analysointiin käytetään erilaisia tekniikoita, joista tässä diplomityössä esitellään tarkemmin järjestelmän mittaus. Työssä toteutetaan myös case-tutkimus, jossa analysoidaan mittaustiedon sisääntuontiin käytettävän prosessin kahta eri kehitysversiota ja näiden suorituskykyominaisuuksia. Kehitysversioiden vertailussa havaitaan, että uusi versio on selkeästi edellistä versiota nopeampi. Case-tutkimuksessa määritetään myös suorituskyvyn kannalta optimaalinen rinnakkaisprosessien määrä ja tutkitaan prosessin skaalautuvuutta. Tutkimuksessa todetaan, että uusi kehitysversio skaalautuu lineaarisesti.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Työssä tutkitaan tiedonsiirtoa eri modulaatioilla, bittinopeuksilla ja amplitudin voimakkuuksilla ja tuloksia tarkastellaan Bit Error Ration avulla. Signaaleja siirrettiiin myös koodattuna ja vertailtiin koodauksen etuja ja haittoja verrattuna koodaamattomaan tietoon. Datavirta kulkee AXMK-kaapelissa, joko tasasähkön mukana, tai maadoituskaapelissa. Tuloksissa havaittiin, että suurempi bittinopeus ei kasvattanut häviöiden määrää. Koodauksen käyttö toisaalta vähenti bittivirheiden määrää.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Poster at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Presentation at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The number of security violations is increasing and a security breach could have irreversible impacts to business. There are several ways to improve organization security, but some of them may be difficult to comprehend. This thesis demystifies threat modeling as part of secure system development. Threat modeling enables developers to reveal previously undetected security issues from computer systems. It offers a structured approach for organizations to find and address threats against vulnerabilities. When implemented correctly threat modeling will reduce the amount of defects and malicious attempts against the target environment. In this thesis Microsoft Security Development Lifecycle (SDL) is introduced as an effective methodology for reducing defects in the target system. SDL is traditionally meant to be used in software development, principles can be however partially adapted to IT-infrastructure development. Microsoft threat modeling methodology is an important part of SDL and it is utilized in this thesis to find threats from the Acme Corporation’s factory environment. Acme Corporation is used as a pseudonym for a company providing high-technology consumer electronics. Target for threat modeling is the IT-infrastructure of factory’s manufacturing execution system. Microsoft threat modeling methodology utilizes STRIDE –mnemonic and data flow diagrams to find threats. Threat modeling in this thesis returned results that were important for the organization. Acme Corporation now has more comprehensive understanding concerning IT-infrastructure of the manufacturing execution system. On top of vulnerability related results threat modeling provided coherent views of the target system. Subject matter experts from different areas can now agree upon functions and dependencies of the target system. Threat modeling was recognized as a useful activity for improving security.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The proposal presented in this thesis is to provide designers of knowledge based supervisory systems of dynamic systems with a framework to facilitate their tasks avoiding interface problems among tools, data flow and management. The approach is thought to be useful to both control and process engineers in assisting their tasks. The use of AI technologies to diagnose and perform control loops and, of course, assist process supervisory tasks such as fault detection and diagnose, are in the scope of this work. Special effort has been put in integration of tools for assisting expert supervisory systems design. With this aim the experience of Computer Aided Control Systems Design (CACSD) frameworks have been analysed and used to design a Computer Aided Supervisory Systems (CASSD) framework. In this sense, some basic facilities are required to be available in this proposed framework: ·

Relevância:

80.00% 80.00%

Publicador:

Resumo:

We investigate a simplified form of variational data assimilation in a fully nonlinear framework with the aim of extracting dynamical development information from a sequence of observations over time. Information on the vertical wind profile, w(z ), and profiles of temperature, T (z , t), and total water content, qt (z , t), as functions of height, z , and time, t, are converted to brightness temperatures at a single horizontal location by defining a two-dimensional (vertical and time) variational assimilation testbed. The profiles of T and qt are updated using a vertical advection scheme. A basic cloud scheme is used to obtain the fractional cloud amount and, when combined with the temperature field, this information is converted into a brightness temperature, using a simple radiative transfer scheme. It is shown that our model exhibits realistic behaviour with regard to the prediction of cloud, but the effects of nonlinearity become non-negligible in the variational data assimilation algorithm. A careful analysis of the application of the data assimilation scheme to this nonlinear problem is presented, the salient difficulties are highlighted, and suggestions for further developments are discussed.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A new incremental four-dimensional variational (4D-Var) data assimilation algorithm is introduced. The algorithm does not require the computationally expensive integrations with the nonlinear model in the outer loops. Nonlinearity is accounted for by modifying the linearization trajectory of the observation operator based on integrations with the tangent linear (TL) model. This allows us to update the linearization trajectory of the observation operator in the inner loops at negligible computational cost. As a result the distinction between inner and outer loops is no longer necessary. The key idea on which the proposed 4D-Var method is based is that by using Gaussian quadrature it is possible to get an exact correspondence between the nonlinear time evolution of perturbations and the time evolution in the TL model. It is shown that J-point Gaussian quadrature can be used to derive the exact adjoint-based observation impact equations and furthermore that it is straightforward to account for the effect of multiple outer loops in these equations if the proposed 4D-Var method is used. The method is illustrated using a three-level quasi-geostrophic model and the Lorenz (1996) model.