900 resultados para Data Structures, Cryptology and Information Theory
Resumo:
The effect of the heat flux on the rate of chemical reaction in dilute gases is shown to be important for reactions characterized by high activation energies and in the presence of very large temperature gradients. This effect, obtained from the second-order terms in the distribution function (similar to those obtained in the Burnett approximation to the solution of the Boltzmann equation), is derived on the basis of information theory. It is shown that the analytical results describing the effect are simpler if the kinetic definition for the nonequilibrium temperature is introduced than if the thermodynamic definition is introduced. The numerical results are nearly the same for both definitions
Resumo:
Työn tavoittena oli selvittää, miten tietovarastointi voi tukea yrityksessä tapahtuvaa päätöksentekoa. Tietovarastokomponenttien ja –prosessien kuvauksen jälkeen on käsitelty tietovarastoprojektin eri vaiheita. Esitettyä teoriaa sovellettiin käytäntöön globaalissa metalliteollisuusyrityksessä, jossa tietovarastointikonseptia testattiin. Testauksen perusteella arvioitiin olemassa olevan tiedon tilaa sekä kahden käytetyn ohjelmiston toimivuutta tietovarastoinnissa. Yrityksen operatiivisten järjestelmien tiedon laadun todettiin olevan tutkituilta osin epäyhtenäistä ja puutteellista. Siksi tiedon suora yrityslaajuinen hyödyntäminen luotettavien ja hyvälaatuisten raporttien luonnissa on vaikeaa. Lisäksi eri yksiköiden välillä havaittiin epäyhtenäisyyttä käytettyjen liiketoiminnan käsitteiden sekä järjestelmien käyttötapojen suhteen. Testauksessa käytetyt ohjelmistot suoriutuivat perustietovarastoinnista hyvin, vaikkakin joitain rajoituksia ja erikoisuuksia ilmenikin. Työtä voidaan pitää ennen varsinaista tietovarastoprojektia tehtävänä esitutkimuksena. Jatkotoimenpiteinä ehdotetaan testauksen jatkamista nykyisillä työkaluilla kohdistaen tavoitteet konkreettisiin tuloksiin. Tiedon laadun tärkeyttä tulee korostaa koko organisaatiossa ja olemassa olevan tiedon laatua pitää parantaa tulevaisuudessa.
Resumo:
Geophysical data may provide crucial information about hydrological properties, states, and processes that are difficult to obtain by other means. Large data sets can be acquired over widely different scales in a minimally invasive manner and at comparatively low costs, but their effective use in hydrology makes it necessary to understand the fidelity of geophysical models, the assumptions made in their construction, and the links between geophysical and hydrological properties. Geophysics has been applied for groundwater prospecting for almost a century, but it is only in the last 20 years that it is regularly used together with classical hydrological data to build predictive hydrological models. A largely unexplored venue for future work is to use geophysical data to falsify or rank competing conceptual hydrological models. A promising cornerstone for such a model selection strategy is the Bayes factor, but it can only be calculated reliably when considering the main sources of uncertainty throughout the hydrogeophysical parameter estimation process. Most classical geophysical imaging tools tend to favor models with smoothly varying property fields that are at odds with most conceptual hydrological models of interest. It is thus necessary to account for this bias or use alternative approaches in which proposed conceptual models are honored at all steps in the model building process.
Resumo:
Markkinasegmentointi nousi esiin ensi kerran jo 50-luvulla ja se on ollut siitä lähtien yksi markkinoinnin peruskäsitteistä. Suuri osa segmentointia käsittelevästä tutkimuksesta on kuitenkin keskittynyt kuluttajamarkkinoiden segmentointiin yritys- ja teollisuusmarkkinoiden segmentoinnin jäädessä vähemmälle huomiolle. Tämän tutkimuksen tavoitteena on luoda segmentointimalli teollismarkkinoille tietotekniikan tuotteiden ja palveluiden tarjoajan näkökulmasta. Tarkoituksena on selvittää mahdollistavatko case-yrityksen nykyiset asiakastietokannat tehokkaan segmentoinnin, selvittää sopivat segmentointikriteerit sekä arvioida tulisiko tietokantoja kehittää ja kuinka niitä tulisi kehittää tehokkaamman segmentoinnin mahdollistamiseksi. Tarkoitus on luoda yksi malli eri liiketoimintayksiköille yhteisesti. Näin ollen eri yksiköiden tavoitteet tulee ottaa huomioon eturistiriitojen välttämiseksi. Tutkimusmetodologia on tapaustutkimus. Lähteinä tutkimuksessa käytettiin sekundäärisiä lähteitä sekä primäärejä lähteitä kuten case-yrityksen omia tietokantoja sekä haastatteluita. Tutkimuksen lähtökohtana oli tutkimusongelma: Voiko tietokantoihin perustuvaa segmentointia käyttää kannattavaan asiakassuhdejohtamiseen PK-yritys sektorilla? Tavoitteena on luoda segmentointimalli, joka hyödyntää tietokannoissa olevia tietoja tinkimättä kuitenkaan tehokkaan ja kannattavan segmentoinnin ehdoista. Teoriaosa tutkii segmentointia yleensä painottuen kuitenkin teolliseen markkinasegmentointiin. Tarkoituksena on luoda selkeä kuva erilaisista lähestymistavoista aiheeseen ja syventää näkemystä tärkeimpien teorioiden osalta. Tietokantojen analysointi osoitti selviä puutteita asiakastiedoissa. Peruskontaktitiedot löytyvät mutta segmentointia varten tietoa on erittäin rajoitetusti. Tietojen saantia jälleenmyyjiltä ja tukkureilta tulisi parantaa loppuasiakastietojen saannin takia. Segmentointi nykyisten tietojen varassa perustuu lähinnä sekundäärisiin tietoihin kuten toimialaan ja yrityskokoon. Näitäkään tietoja ei ole saatavilla kaikkien tietokannassa olevien yritysten kohdalta.
Resumo:
Context. There are a number of very high energy sources in the Galaxy that remain unidentified. Multi-wavelength and variability studies, and catalogue searches, are powerful tools to identify the physical counterpart, given the uncertainty in the source location and extension. Aims. This work carries out a thorough multi-wavelength study of the unidentified, very high energy source HESS J1858+020 and its environs. Methods. We have performed Giant Metrewave Radio Telescope observations at 610 MHz and 1.4 GHz to obtain a deep, low-frequency radio image of the region surrounding HESS J1858+020. We analysed archival radio, infrared, and X-ray data as well. This observational information, combined with molecular data, catalogue sources, and a nearby Fermi gamma-ray detection of unidentified origin, are combined to explore possible counterparts to the very high energy source. Results. We provide with a deep radio image of a supernova remnant that might be related to the GeV and TeV emission in the region. We confirm the presence of an H ii region next to the supernova remnant and coincident with molecular emission. A potential region of star formation is also identified. We identify several radio and X-ray sources in the surroundings. Some of these sources are known planetary nebulae, whereas others may be non-thermal extended emitters and embedded young stellar objects. Three old, background Galactic pulsars also neighbour HESS J1858+020 along the line of sight. Conclusions. The region surrounding HESS J1858+020 is rich in molecular structures and non-thermal objects that may potentially be linked to this unidentified very high energy source. In particular, a supernova remnant interacting with nearby molecular clouds may be a good candidate, but a star forming region, or a non-thermal radio source of yet unclear nature, may also be behind the gamma-ray source. The neighbouring pulsars, despite being old and distant, cannot be discarded as candidates. Further observational studies are needed, however, to narrow the search for a counterpart to the HESS source.
Resumo:
Tämä tutkimus käsittelee strategiamuutoksen toimeenpanoa projektiliiketoimintaympäristössä toimivan liiketoimintayksikön tuotekehitys-, suunnittelu- ja tuotetoimitusprosesseissa. Muutoksen tavoitteena on tuoterakenteiden ja toimitusprosessien hallinta pelkän resurssien hallinnan sijaan. Työn tavoitteena on kuvaus siitä, mitä muutoksia strategisten tavoitteiden saavuttaminen edellyttää liiketoimintayksikön tuoteprosessien, tuotearkkitehtuurin ja tietojärjestelmien osalta. Tutkimuksen teoriaosuus käsittelee teknologiastrategiaa, tuotetiedon hallintaa, tuotearkkitehtuureja sekä tuotekehitystoiminnan prosesseja ja menestystekijöitä. Tutkimuksen empiriaosuudessa peilataan liiketoimintayksikön nykytilaa ja strategisia tavoitteita esitettyyn teoreettiseen viitekehykseen, sekä suoritetaan analyysi tavoitellun muutoksen edellytyksistä. Työn tulos sisältää sarjan toimenpiteitä ja näistä muodostetun käsitekartan, joka kuvaa muutosprosessia kokonaisuutena: tuoterakenteiden, tuotetiedon hallinnan, prosessien ja organisaatioiden osalta.
Resumo:
Breast cancer is the most common diagnosed cancer and the leading cause of cancer death among females worldwide. It is considered a highly heterogeneous disease and it must be classified into more homogeneous groups. Hence, the purpose of this study was to classify breast tumors based on variations in gene expression patterns derived from RNA sequencing by using different class discovery methods. 42 breast tumors paired-samples were sequenced by Illumine Genome Analyzer and the data was analyzed and prepared by TopHat2 and htseq-count. As reported previously, breast cancer could be grouped into five main groups known as basal epithelial-like group, HER2 group, normal breast-like group and two Luminal groups with a distinctive expression profile. Classifying breast tumor samples by using PAM50 method, the most common subtype was Luminal B and was significantly associated with ESR1 and ERBB2 high expression. Luminal A subtype had ESR1 and SLC39A6 significant high expression, whereas HER2 subtype had a high expression of ERBB2 and CNNE1 genes and low luminal epithelial gene expression. Basal-like and normal-like subtypes were associated with low expression of ESR1, PgR and HER2, and had significant high expression of cytokeratins 5 and 17. Our results were similar compared with TGCA breast cancer data results and with known studies related with breast cancer classification. Classifying breast tumors could add significant prognostic and predictive information to standard parameters, and moreover, identify marker genes for each subtype to find a better therapy for patients with breast cancer.
Resumo:
Especially in global enterprises, key data is fragmented in multiple Enterprise Resource Planning (ERP) systems. Thus the data is inconsistent, fragmented and redundant across the various systems. Master Data Management (MDM) is a concept, which creates cross-references between customers, suppliers and business units, and enables corporate hierarchies and structures. The overall goal for MDM is the ability to create an enterprise-wide consistent data model, which enables analyzing and reporting customer and supplier data. The goal of the study was defining the properties and success factors of a master data system. The theoretical background was based on literature and the case consisted of enterprise specific needs and demands. The theoretical part presents the concept, background, and principles of MDM and then the phases of system planning and implementation project. Case consists of background, definition of as is situation, definition of project, evaluation criterions and concludes the key results of the thesis. In the end chapter Conclusions combines common principles with the results of the case. The case part ended up dividing important factors of the system in success factors, technical requirements and business benefits. To clarify the project and find funding for the project, business benefits have to be defined and the realization has to be monitored. The thesis found out six success factors for the MDM system: Well defined business case, data management and monitoring, data models and structures defined and maintained, customer and supplier data governance, delivery and quality, commitment, and continuous communication with business. Technical requirements emerged several times during the thesis and therefore those can’t be ignored in the project. Conclusions chapter goes through these factors on a general level. The success factors and technical requirements are related to the essentials of MDM: Governance, Action and Quality. This chapter could be used as guidance in a master data management project.
Resumo:
In this thesis the main objective is to examine and model configuration system and related processes. When and where configuration information is created in product development process and how it is utilized in order-delivery process? These two processes are the essential part of the whole configuration system from the information point of view. Empirical part of the work was done as a constructive research inside a company that follows a mass customization approach. Data models and documentation are created for different development stages of the configuration system. A base data model already existed for new structures and relations between these structures. This model was used as the basis for the later data modeling work. Data models include different data structures, their key objects and attributes, and relations between. Representation of configuration rules for the to-be configuration system was defined as one of the key focus point. Further, it is examined how the customer needs and requirements information can be integrated into the product development process. Requirements hierarchy and classification system is presented. It is shown how individual requirement specifications can be connected for physical design structure via features by developing the existing base data model further.
Resumo:
This Master´s thesis explores how the a global industrial corporation’s after sales service department should arrange its installed base management practices in order to maintain and utilize the installed base information effectively. Case company has product-related records, such as product’s lifecycle information, service history information and information about product’s performance. Information is collected and organized often case by case, therefore the systematic and effective use of installed base information is difficult also the overview of installed base is missing. The goal of the thesis study was to find out how the case company can improve the installed base maintenance and management practices and improve the installed base information availability and reliability. Installed base information management practices were first examined through the literature. The empirical research was conducted by the interviews and questionnaire survey, targeted to the case company’s service department. The research purpose was to find out the challenges related to case company´s service department’s information management practices. The study also identified the installed base information needs and improvement potential in the availability of information. Based on the empirical research findings, recommendations for improve installed base management practices and information availability were created. Grounding of the recommendations, the case company is suggested the following proposals for action: Service report development, improving the change management process, ensuring the quality of the product documentation in early stages of product life cycle and decision to improve installed base management practices.
Resumo:
Tutkimus on tehty Tekesin DTP-ohjelman Sinfonet-tutkimusprojektin puitteissa aikavälillä 2009-2011. Työssä on laadittu kokonaisvaltainen tuote- ja elinkaaritiedon hallinnan (eng. Product Lifecycle Management, PLM) tiekartta ja kehityssuunnitelma pienelle engineering-yritykselle. Työ käsittelee asiakkaan erikoisvaatimusten mukaan räätälöitävän tuotteen tuote- ja elinkaaritiedon hallinnan systematisointia pk-yrityksessä. Vaikka PLM-tiekartta on laadittu yksittäiselle yritykselle, sitä voidaan tietyin edellytyksin soveltaa myös toisten pk-yritysten tai engineeringyritysten PLM:n kehittämiseen. Teoriassa tarkastellaan ensinnäkin kohdeyritykseen liittyviä erityispiirteitä, pyritään ymmärtämään engineering–yrityksen ja pk-yrityksen erikoispiirteitä sekä niiden vaikutusta PLM:n kehittämiseen. Toiseksi esitellään PLM:n viittä keskeistä osaaluetta, yksi- ja viisiulotteisten PLM-kypsyysmallien käyttöä yrityksen nykytilan arvioimiseksi sekä rakennetaan engineering-yrityksen kokonaisvaltainen PLM-malli ja kahdeksan askeleen PLM-kehityspolku. PLM-malli jäsentää tiedonhallintaa prosessien kautta ja se koostuu viidestä osaalueesta: strategia identifioi asiakastarpeet sekä määrittelee kuinka tuotteiden ja prosessien avulla asiakastarpeet tyydytetään; prosessit ovat yrityksen toiminnan ydin, joissa tuotemallit ja tuote- ja tietorakenteet kehitetään sekä tuoteyksilöt toimitetaan asiakkaalle; rakenteet pohjautuvat strategiassa valittuun tuote- ja tiedonhallinnan strategiaan ja niiden tehtävänä on tukea ja tehostaa toimintaprosesseja; kulttuuri ja ihmiset muodostavat aineettoman pääoman, jonka vaikutuksesta prosessit toimivat ja tuotteet pystytään toimittamaan asiakkaalle; informaatioteknologia on työkalu, jota käytetään prosesseissa ja tietorakenteiden ylläpidossa, pääosin dokumentoidun tiedon luomiseen, hankitaan, varastoimiseen, jakamiseen ja soveltamiseen. Tapaustutkimuksessa kuvataan kohdeyrityksen nykytilaa PLM:n viidellä keskeisellä osa-alueella, tehdään PLM kypsyysarvio kahdella menetelmällä, määritellään yrityksen tavoitetila ja laaditaan yritykselle ensin alustava PLM roadmap ja lopulta kokonaisvaltaiseen PLM-malliin perustuva PLM roadmap ja PLM:n jatkokehityssuunnitelma.
Resumo:
Fast changing environment sets pressure on firms to share large amount of information with their customers and suppliers. The terms information integration and information sharing are essential for facilitating a smooth flow of information throughout the supply chain, and the terms are used interchangeably in research literature. By integrating and sharing information, firms want to improve their logistics performance. Firms share information with their suppliers and customers by using traditional communication methods (telephone, fax, Email, written and face-to-face contacts) and by using advanced or modern communication methods such as electronic data interchange (EDI), enterprise resource planning (ERP), web-based procurement systems, electronic trading systems and web portals. Adopting new ways of using IT is one important resource for staying competitive on the rapidly changing market (Saeed et al. 2005, 387), and an information system that provides people the information they need for performing their work, will support company performance (Boddy et al. 2005, 26). The purpose of this research has been to test and understand the relationship between information integration with key suppliers and/or customers and a firm’s logistics performance, especially when information technology (IT) and information systems (IS) are used for integrating information. Quantitative and qualitative research methods have been used to perform the research. Special attention has been paid to the scope, level and direction of information integration (Van Donk & van der Vaart 2005a). In addition, the four elements of integration (Jahre & Fabbe-Costes 2008) are closely tied to the frame of reference. The elements are integration of flows, integration of processes and activities, integration of information technologies and systems and integration of actors. The study found that information integration has a low positive relationship to operational performance and a medium positive relationship to strategic performance. The potential performance improvements found in this study vary from efficiency, delivery and quality improvements (operational) to profit, profitability or customer satisfaction improvements (strategic). The results indicate that although information integration has an impact on a firm’s logistics performance, all performance improvements have not been achieved. This study also found that the use of IT and IS have a mediocre positive relationship to information integration. Almost all case companies agreed on that the use of IT and IS could facilitate information integration and improve their logistics performance. The case companies felt that an implementation of a web portal or a data bank would benefit them - enhance their performance and increase information integration.
Resumo:
Poster at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014
Resumo:
Presentation at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014
Resumo:
Presentation at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014