946 resultados para framework de persistencia
Resumo:
Fenix on suuri metsäteollisuuden tuotannonohjausjärjestelmä. Fenix-järjestelmän raportointi- ja tulostuspalvelut elävätvaihdekautta. Aikaisemmin käytetyt raportointityökalut ovat vanhentumassa ja neon korvattava uusilla. Uusi raportointialusta, Global Printing System (GPS), onrakennettu StreamServe Business Communication Platformin ympärille. Uuden alustan on tarkoitus hoitaa Fenixin tulostus sekä raportointitehtävät. Työ kuvaa raportointialustan toteutuksen sekä sen tärkeimmät ominaisuudet. Uuden alustan suorituskyvyssä on ollut toivomisen varaa. Etenkin suurien raporttien generoiminen on kestänyt joskus toivottoman pitkään. Työssä analysoidaan raportointialustan suorituskykyä ja etsitään mahdolliset pullonkaulat. Suorituskyvyn heikkouksiin pyritään löytämään ratkaisut ja annetaan ehdotuksia suorituskyvyn parantamiseksi. XML pohjaisena järjestelmänä GPS:n suorituskyvyssä suurta osaaesittää XML:n tehokkuus. GPS sisääntuleva data tulee XML-muodossa ja sisääntulon parsimisen tehokkuus on avaintekijöitä koko GPS:n tehokkuuden kannalta. Suorituskyvyn parantamisessa keskitytäänki vahvasti XML:n tehokkaampaan käyttöön ja esitetään ehdotuksia sen parantamiseksi.
Resumo:
Avoimesta innovaatiosta ja innovaatioiden tehokkaasta hyödyntämisestä on tulossa tärkeitä osia yritysten T&K-prosesseihin. Diplomityön tarkoituksena on luoda viitekehys teknologioiden, jotka eivät kuulu yrityksen ydinliiketoimintaan, tehokkaampaan hallinnointiin tutkimusorganisaatiossa. Konstruktiivinen viitekehys on rakennettu pohjautuen aineettomien pääomien johtamisen ja portfolion hallinnoinnin teorioihin. Lisäksi työssä määritellään työkaluja jatekniikoita ylijäämäteknologioiden arviointiin. Uutta ylijäämäteknologioiden portfoliota voidaan hyödyntää hakukoneena, ideapankkina, kommunikaatiotyökaluna tai teknologioiden markkinapaikkana. Sen johtaminen koostuu tietojen dokumentoinnista järjestelmään, teknologioiden arvioinnista ja portfolion päivityksestä ja ylläpidosta.
Resumo:
In this article, the author provides a framework to guide¦research in emotional intelligence. Studies conducted up¦to the present bear on a conception of emotional intelligence¦as pertaining to the domain of consciousness and¦investigate the construct with a correlational approach.¦As an alternative, the author explores processes underlying¦emotional intelligence, introducing the distinction¦between conscious and automatic processing as a potential¦source of variability in emotionally intelligent¦behavior. Empirical literature is reviewed to support the¦central hypothesis that individual differences in emotional¦intelligence may be best understood by considering¦the way individuals automatically process emotional¦stimuli. Providing directions for research, the author¦encourages the integration of experimental investigation¦of processes underlying emotional intelligence with¦correlational analysis of individual differences and¦fosters the exploration of the automaticity component¦of emotional intelligence.
Resumo:
Forensic intelligence is a distinct dimension of forensic science. Forensic intelligence processes have mostly been developed to address either a specific type of trace or a specific problem. Even though these empirical developments have led to successes, they are trace-specific in nature and contribute to the generation of silos which hamper the establishment of a more general and transversal model. Forensic intelligence has shown some important perspectives but more general developments are required to address persistent challenges. This will ensure the progress of the discipline as well as its widespread implementation in the future. This paper demonstrates that the description of forensic intelligence processes, their architectures, and the methods for building them can, at a certain level, be abstracted from the type of traces considered. A comparative analysis is made between two forensic intelligence approaches developed independently in Australia and in Europe regarding the monitoring of apparently very different kind of problems: illicit drugs and false identity documents. An inductive effort is pursued to identify similarities and to outline a general model. Besides breaking barriers between apparently separate fields of study in forensic science and intelligence, this transversal model would assist in defining forensic intelligence, its role and place in policing, and in identifying its contributions and limitations. The model will facilitate the paradigm shift from the current case-by-case reactive attitude towards a proactive approach by serving as a guideline for the use of forensic case data in an intelligence-led perspective. A follow-up article will specifically address issues related to comparison processes, decision points and organisational issues regarding forensic intelligence (part II).
Integration in strategic alliances : a conceptual framework of IT use in marketing as NPD key factor
Resumo:
En una economia basada en el coneixement, la innovació del producte es considera un factor clau a l'hora de determinar la competitivitat, la productivitat i el creixement d'una companyia. No obstant això, l'experiència de les companyies demostra la necessitat d'un nou model de gestió de la innovació del producte: una gestió basada en el màrqueting, en què la cooperació i l'ús intensiu de les tecnologies de la informació i de la comunicació (TIC) són especialment importants. En els darrers anys, la bibliografia sobre màrqueting ha analitzat el paper de la cooperació en l'èxit del procés d'innovació. No obstant això, fins ara pocs treballs han estudiat el paper que té l'ús de les TIC en el màrqueting en l'èxit del desenvolupament de nous productes (NPD, New Product Development en anglès). És una omissió curiosa, tenint en compte que el nou entorn competitiu és definit per una economia i una societat basades principalment en l'ús intensiu de les TIC i del coneixement. L'objectiu d'aquest treball és investigar el paper que l'ús de les TIC en el màrqueting té en el procés de desenvolupament de nous productes, com a element que reforça la integració d'agents al projecte, afavorint l'establiment de relacions dirigides a la cooperació i l'adquisició d'intel·ligència de mercat útil en el procés de desenvolupament de nous productes. L'estudi d'una mostra de 2.038 companyies de tots els sectors de l'activitat econòmica a Catalunya ens permet contrastar hipòtesis inicials i establir un perfil de companyia innovadora basat en les importants relacions que hi ha entre la innovació, l'ús de TIC en el màrqueting i la integració. Sobresurten dues idees en la nostra anàlisi. En primer lloc, l'ús intensiu de les TIC en el màrqueting fa que la companyia sigui més innovadora, ja que percep que el seu ús ajuda a superar barreres a la innovació i accelera els processos, que es tornen més eficients. En segon lloc, incrementant l'ús de les TIC en el màrqueting es fa augmentar la predisposició de la companyia a integrar agents particulars en l'entorn de negoci en el desenvolupament del procés d'innovació i a col·laborar-hi, de manera que es millora el grau d'adaptació del nou producte a les demandes del mercat.
Resumo:
Esta memoria trata sobre la implementación de un gestor de peticiones de cambio, basado en los estándares definidos por ITIL. Este gestor se implementa dentro del ERP eSengo, desarrollado por Isencia S.L. También se hace una breve explicación sobre los submódulos que han sido necesarios y los estados de flujo de ejecución del gestor. Además se explican características sobre el ERP eSengo y sobre la plataforma basada en Java Beans, SherpaBeans, también desarrollada por Isencia, a parte de enumerar las tecnologías que esta plataforma utiliza.
Resumo:
In recent years, Semantic Web (SW) research has resulted in significant outcomes. Various industries have adopted SW technologies, while the ‘deep web’ is still pursuing the critical transformation point, in which the majority of data found on the deep web will be exploited through SW value layers. In this article we analyse the SW applications from a ‘market’ perspective. We are setting the key requirements for real-world information systems that are SW-enabled and we discuss the major difficulties for the SW uptake that has been delayed. This article contributes to the literature of SW and knowledge management providing a context for discourse towards best practices on SW-based information systems.
Resumo:
In order to improve the management of copyright in the Internet, known as Digital Rights Management, there is the need for a shared language for copyright representation. Current approaches are based on purely syntactic solutions, i.e. a grammar that defines a rights expression language. These languages are difficult to put into practise due to the lack of explicit semantics that facilitate its implementation. Moreover, they are simple from the legal point of view because they are intended just to model the usage licenses granted by content providers to end-users. Thus, they ignore the copyright framework that lies behind and the whole value chain from creators to end-users. Our proposal is to use a semantic approach based on semantic web ontologies. We detail the development of a copyright ontology in order to put this approach into practice. It models the copyright core concepts for creation, rights and the basic kinds of actions that operate on content. Altogether, it allows building a copyright framework for the complete value chain. The set of actions operating on content are our smaller building blocks in order to cope with the complexity of copyright value chains and statements and, at the same time, guarantee a high level of interoperability and evolvability. The resulting copyright modelling framework is flexible and complete enough to model many copyright scenarios, not just those related to the economic exploitation of content. The ontology also includes moral rights, so it is possible to model this kind of situations as it is shown in the included example model for a withdrawal scenario. Finally, the ontology design and the selection of tools result in a straightforward implementation. Description Logic reasoners are used for license checking and retrieval. Rights are modelled as classes of actions, action patterns are modelled also as classes and the same is done for concrete actions. Then, to check if some right or license grants an action is reduced to check for class subsumption, which is a direct functionality of these reasoners.
Resumo:
The advent of new advances in mobile computing has changed the manner we do our daily work, even enabling us to perform collaborative activities. However, current groupware approaches do not offer an integrating and efficient solution that jointly tackles the flexibility and heterogeneity inherent to mobility as well as the awareness aspects intrinsic to collaborative environments. Issues related to the diversity of contexts of use are collected under the term plasticity. A great amount of tools have emerged offering a solution to some of these issues, although always focused on individual scenarios. We are working on reusing and specializing some already existing plasticity tools to the groupware design. The aim is to offer the benefits from plasticity and awareness jointly, trying to reach a real collaboration and a deeper understanding of multi-environment groupware scenarios. In particular, this paper presents a conceptual framework aimed at being a reference for the generation of plastic User Interfaces for collaborative environments in a systematic and comprehensive way. Starting from a previous conceptual framework for individual environments, inspired on the model-based approach, we introduce specific components and considerations related to groupware.
Resumo:
For the first time in Finland, the chemical profiling of cocaine specimens was performed at the National Bureau of Investigation (NBI). The main goals were to determine the chemical composition of cocaine specimens sold in the Finnish market and to study the distribution networks of cocaine in order to provide intelligence related to its trafficking. An analytical methodology enabling through one single GC-MS injection the determination of the added cutting agents (adulterants and diluents), the cocaine purity and the chemical profile (based on the major and minor alkaloids) for each specimen was thus implemented and validated. The methodology was found to be efficient for the discrimination between specimens coming from the same source and specimens coming from different sources. The results highlighted the practical utility of the chemical profiling, especially for supporting the investigation through operational intelligence and improving the knowledge related to the cocaine trafficking through strategic intelligence.
Resumo:
In the last decade defeasible argumentation frameworks have evolved to become a sound setting to formalize commonsense, qualitative reasoning. The logic programming paradigm has shown to be particularly useful for developing different argument-based frameworks on the basis of different variants of logic programming which incorporate defeasible rules. Most of such frameworks, however, are unable to deal with explicit uncertainty, nor with vague knowledge, as defeasibility is directly encoded in the object language. This paper presents Possibilistic Logic Programming (P-DeLP), a new logic programming language which combines features from argumentation theory and logic programming, incorporating as well the treatment of possibilistic uncertainty. Such features are formalized on the basis of PGL, a possibilistic logic based on G¨odel fuzzy logic. One of the applications of P-DeLP is providing an intelligent agent with non-monotonic, argumentative inference capabilities. In this paper we also provide a better understanding of such capabilities by defining two non-monotonic operators which model the expansion of a given program P by adding new weighed facts associated with argument conclusions and warranted literals, respectively. Different logical properties for the proposed operators are studied
Resumo:
Memoria de la implementación de un software que permite la gestión y control de todo el framework que requiere gestionar el departamento de mejora continua (BEX Business Excelence).
Resumo:
Simulaattorit ovat yksinkertaistettuja malleja tietyistä järjestelmän osioista. Niitä käytetään mallintamaan testattavan osion ympärillä olevien muiden osioiden ulkoista toimintaa, jotta testattavalle osiolle saadaan oikeanlainen toimintaympäristö aikaiseksi. Tilakoneita käytetään mallintamaan ohjelmistojen tai niiden osien toimintaa. Sanomaohjatuissa tilakoneissa tilojen vaihdot perustuvat saapuviin sanomiin. Tässä työssä esitellään erään ohjelmiston alijärjestelmän testaamisessa käytettävä arkkitehtuuri, joka perustuu suurelta osin simulaattoreiden käyttöön muiden alijärjestelmien mallintamisessa. Testattava ohjelmisto koostuu enimmäkseen tilakoneista, jotka vaihtavat keskenään sanomia ja ohjaavat näin toistensa tilasiirtymiä. Työn testausympäristö on suunniteltu juuri tämänkaltaisen ohjelmiston testaamiseen. Työssä esiteltävää testausympäristöä myöskin käytettiin useamman kuukauden ajan ja se todettiin toimivaksi. Joitakin testausympäristön käyttöohjeita, käyttökokemuksia sekä siihen liittyviä parannusehdotuksia käydään läpi työn loppuosassa. Erityisesti havaittiin miten tärkeää on testata implementaatiota jo luokka tasolla ennen alijärjestelmä tason testaukseen siirtymistä sekä päädyttiin siihen, että suunnitteluvaiheen pitäisi olla lähemmin liitoksissa alijärjestelmätestaukseen.
Resumo:
Ohjelmistoteollisuudessa pitkiä ja vaikeita kehityssyklejä voidaan helpottaa käyttämällä hyväksi ohjelmistokehyksiä (frameworks). Ohjelmistokehykset edustavat kokoelmaa luokkia, jotka tarjoavat yleisiä ratkaisuja tietyn ongelmakentän tarpeisiin vapauttaen ohjelmistokehittäjät keskittymään sovelluskohtaisiin vaatimuksiin. Hyvin suunniteltujen ohjelmistokehyksien käyttö lisää suunnitteluratkaisujen sekä lähdekoodin uudelleenkäytettävyyttä enemmän kuin mikään muu suunnittelulähestymistapa. Tietyn kohdealueen tietämys voidaan tallentaa ohjelmistokehyksiin, joista puolestaan voidaan erikoistaa viimeisteltyjä ohjelmistotuotteita. Tässä diplomityössä kuvataan ohjelmistoagentteihin (software agents) perustuvaa ohjelmistokehyksen suunnittelua toteutusta. Pääpaino työssä on vaatimusmäärittelyä vastaavan suunnitelman sekä toteutuksen kuvaaminen ohjelmistokehykselle, josta voidaan erikoistaa erilaiseen tiedonkeruuseen kykeneviä ohjelmistoja Internet ympäristöön. Työn kokeellisessa osuudessa esitellään myös esimerkkisovellus, joka perustuu työssä kehitettyyn ohjelmistokehykseen.
Resumo:
Diplomityössä luodaan viitekehys tuotetiedonhallintajärjestelmän esisuunnittelua varten. Siinä on kolme ulottuvuutta: lisäarvontuotto-, toiminnallisuus- ja ohjelmistoulottuvuus. Viitekehys auttaa- tunnistamaan lisäarvontuottokomponentit, joihin voidaan vaikuttaa tiettyjen ohjelmistoluokkien tarjoamilla tuotetiedonhallintatoiminnallisuuksilla. Viitekehyksen järjestelmäsuunnittelullista näkökulmaa hyödynnetään tutkittavissa yritystapauksissa perustuen laskentamatriisin muotoon mallinnettuihin ulottuvuuksien välisiin suhteisiin. Matriisiin syötetään lisäarvontuotto- ja toiminnallisuuskomponenttien saamat tärkeydet kohdeyrityksessä suoritetussa haastattelututkimuksessa. Matriisin tuotos on tietyn ohjelmiston soveltuvuus kyseisen yrityksen tapauksessa. Soveltuvuus on joukko tunnuslukuja, jotka analysoidaan tulostenkäsittelyvaiheessa. Soveltuvuustulokset avustavat kohdeyritystä sen valitessa lähestymistapaansa tuotetiedonhallintaan - ja kuvaavat esisuunnitellun tuotetiedonhallintajärjestelmän. Viitekehyksen rakentaminen vaatii perinpohjaisen lähestymistavan merkityksellisten lisäarvontuotto- ja toiminnallisuuskomponenttien sekä ohjelmistoluokkien määrittämiseen. Määritystyö perustuu työssä yksityiskohtaisesti laadittujen menetelmien ja komponenttiryhmitysten hyödyntämiselle. Kunkin alueen analysointi mahdollistaa viitekehyksen ja laskentamatriisin rakentamisen yhdenmukaisten määritysten perusteella. Viitekehykselle on ominaista sen muunneltavuus. Nykymuodossaan se soveltuu elektroniikka- ja high-tech yrityksille. Viitekehystä voidaan hyödyntää myös muilla toimialoilla muokkaamalla lisäarvontuottokomponentteja kunkin toimialan intressien mukaisesti. Vastaavasti analysoitava ohjelmisto voidaan valita tapauskohtaisesti. Laskentamatriisi on kuitenkin ensin päivitettävä valitun ohjelmiston kyvykkyyksillä, minkä jälkeen viitekehys voi tuottaa soveltuvuustuloksia kyseiseen yritystapaukseen perustuen