864 resultados para Sharable Content Object Resource Model (SCORM)


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tässä työssä on esitetty sen ohjelmiston kehittämisen prosessi, joka on tarkoitettu annettavien palveluiden valvottavaksi käyttäen prototyyppimallia. Raportti sisältää vaatimusten, kohteisiin suunnatun analyysin ja suunnittelun, realisointiprosessien kuvauksen ja prototyypin testauksen. Ohjelmiston käyttöala – antavien palveluiden valvonta. Vaatimukset sovellukselle analysoitiin ohjelmistomarkkinoiden perusteella sekä ohjelmiston engineeringin periaatteiden mukaisesti. Ohjelmiston prototyyppi on realisoitu käyttäen asiakas-/palvelinhybridimallia sekä ralaatiokantaa. Kehitetty ohjelmisto on tarkoitettu venäläisille tietokonekerhoille, jotka erikoistuvat pelipalvelinten antamiseen.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tämä diplomityökuuluu tietoliikenneverkkojen suunnittelun tutkimukseen ja pohjimmiltaan kohdistuu verkon mallintamiseen. Tietoliikenneverkkojen suunnittelu on monimutkainen ja vaativa ongelma, joka sisältää mutkikkaita ja aikaa vieviä tehtäviä. Tämä diplomityö esittelee ”monikerroksisen verkkomallin”, jonka tarkoitus on auttaa verkon suunnittelijoita selviytymään ongelmien monimutkaisuudesta ja vähentää verkkojen suunnitteluun kuluvaa aikaa. Monikerroksinen verkkomalli perustuu yleisille objekteille, jotka ovat yhteisiä kaikille tietoliikenneverkoille. Tämä tekee mallista soveltuvan mielivaltaisille verkoille, välittämättä verkkokohtaisista ominaisuuksista tai verkon toteutuksessa käytetyistä teknologioista. Malli määrittelee tarkan terminologian ja käyttää kolmea käsitettä: verkon jakaminen tasoihin (plane separation), kerrosten muodostaminen (layering) ja osittaminen (partitioning). Nämä käsitteet kuvataan yksityiskohtaisesti tässä työssä. Monikerroksisen verkkomallin sisäinen rakenne ja toiminnallisuus ovat määritelty käyttäen Unified Modelling Language (UML) -notaatiota. Tämä työ esittelee mallin use case- , paketti- ja luokkakaaviot. Diplomityö esittelee myös tulokset, jotka on saatu vertailemalla monikerroksista verkkomallia muihin verkkomalleihin. Tulokset osoittavat, että monikerroksisella verkkomallilla on etuja muihin malleihin verrattuna.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Spiroplasmas are helical and motile members of a cell wall-less eubacterial group called Mollicutes. Although all spiroplasmas are associated with arthropods, they exhibit great diversity with respect to both their modes of transmission and their effects on their hosts; ranging from horizontally transmitted pathogens and commensals to endosymbionts that are transmitted transovarially (i.e., from mother to offspring). Here we provide the first genome sequence, along with proteomic validation, of an endosymbiotic inherited Spiroplasma bacterium, the Spiroplasma poulsonii MSRO strain harbored by Drosophila melanogaster. Comparison of the genome content of S. poulsonii with that of horizontally transmitted spiroplasmas indicates that S. poulsonii has lost many metabolic pathways and transporters, demonstrating a high level of interdependence with its insect host. Consistent with genome analysis, experimental studies showed that S. poulsonii metabolizes glucose but not trehalose. Notably, trehalose is more abundant than glucose in Drosophila hemolymph, and the inability to metabolize trehalose may prevent S. poulsonii from overproliferating. Our study identifies putative virulence genes, notably, those for a chitinase, the H2O2-producing glycerol-3-phosphate oxidase, and enzymes involved in the synthesis of the eukaryote-toxic lipid cardiolipin. S. poulsonii also expresses on the cell membrane one functional adhesion-related protein and two divergent spiralin proteins that have been implicated in insect cell invasion in other spiroplasmas. These lipoproteins may be involved in the colonization of the Drosophila germ line, ensuring S. poulsonii vertical transmission. The S. poulsonii genome is a valuable resource to explore the mechanisms of male killing and symbiont-mediated protection, two cardinal features of many facultative endosymbionts. IMPORTANCE: Most insect species, including important disease vectors and crop pests, harbor vertically transmitted endosymbiotic bacteria. These endosymbionts play key roles in their hosts' fitness, including protecting them against natural enemies and manipulating their reproduction in ways that increase the frequency of symbiont infection. Little is known about the molecular mechanisms that underlie these processes. Here, we provide the first genome draft of a vertically transmitted male-killing Spiroplasma bacterium, the S. poulsonii MSRO strain harbored by D. melanogaster. Analysis of the S. poulsonii genome was complemented by proteomics and ex vivo metabolic experiments. Our results indicate that S. poulsonii has reduced metabolic capabilities and expresses divergent membrane lipoproteins and potential virulence factors that likely participate in Spiroplasma-host interactions. This work fills a gap in our knowledge of insect endosymbionts and provides tools with which to decipher the interaction between Spiroplasma bacteria and their well-characterized host D. melanogaster, which is emerging as a model of endosymbiosis.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Työssä tutkittiin tehokasta tietojohtamista globaalin metsäteollisuusyrityksen tutkimus ja kehitys verkostossa. Työn tavoitteena oli rakentaa kuvaus tutkimus ja kehitys sisällön hallintaan kohdeyrityksen käyttämän tietojohtamisohjelmiston avulla. Ensin selvitettiin käsitteitä tietämys ja tietojohtaminen kirjallisuuden avulla. Selvityksen perusteella esitettiin prosessimalli, jolla tietämystä voidaan tehokkaasti hallita yrityksessä. Seuraavaksi analysoitiin tietojohtamisen asettamia vaatimuksia informaatioteknologialle ja informaatioteknologian roolia prosessimallissa. Verkoston vaatimukset tietojohtamista kohtaan selvitettiin haastattelemalla yrityksen avainhenkilöitä. Haastatteluiden perusteella järjestelmän tuli tehokkaasti tukea virtuaalisten projektiryhmien työskentelyä, mahdollistaa tehtaiden välinen tietämyksen jakaminen ja tukea järjestelmään syötetyn sisällön hallintaa. Ensiksi järjestelmän käyttöliittymän rakenne ja salaukset muokattiin vastaamaan verkoston tarpeita. Rakenne tarjoaa työalueen työryhmille ja alueet tehtaiden väliseen tietämyksen jakamiseen. Sisällönhallintaa varten järjestelmään kehitettiin kategoria, profiloitu portaali ja valmiiksi määriteltyjä hakuja. Kehitetty malli tehostaa projektiryhmien työskentelyä, mahdollistaa olemassa olevan tietämyksen hyväksikäytön tehdastasolla sekä helpottaa tutkimus ja kehitys aktiviteettien seurantaa. Toimenpide-ehdotuksina esitetään järjestelmän integrointia tehtaiden operatiivisiin ohjausjärjestelmiin ja ohjelmiston käyttöönottoa tehdastason projektinhallinta työkaluksi.Ehdotusten tavoitteena on varmistaa sekä tehokas tietämyksen jakaminen tehtaiden välillä että tehokas tietojohtaminen tehdastasolla.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Työn tavoitteena oli tutkia uuden tuotannonohjausjärjestelmän ja työprosessin käyttöönottoa maantieteellisesti hajautetussa organisaatiossa. Tavoitteena oli myös laatia malli kuinka mittavat järjestelmäkäyttöönotot tulisi viedä läpi hallitusti. Tutkimuksen teoriaosuus on tehty kirjallisuustukimuksena ja asiantuntijahaastatteluiden pohjalta. Teoriaosuudessa käydään läpi mitkä seikat uuden tuotannonohjausjärjestelmän käyttöönotossa ovat tärkeitä onnistumisen kannalta ja kuinka käyttöönottoprojekti tulisi viedä läpi. Työn empiirisessä osuudessa on analysoitu kuinka järjestelmä otettiin käyttöön kohdeyrityksessä. Empiirinen osa on tehty tarkastelemalla käyttöönottoa ja onnistumista on pohdittu suorittamalla käyttäjäkysely. Järjestelmien käyttöönotot epäonnistuvat useassa tapauksessa. Nämä epäonnistumiset johtuvat usein käyttöönotto-organisaation kokemattomuudesta viedä läpi monimutkaisia projekteja, suunnittelun puutteesta, huonosta sitoutumisesta muutokseen tai riittämättömästä resurssien allokoinnista. Ennalta suunnittelu, suunnitelmien pitävyyden tarkastaminen ja mahdollisesti muuttaminen käyttöönoton edetessä ovat avaimia onnistumiseen. Kohdeyrityksessä otetaan erilaisia järjestelmiä käyttöön ajoittain. Nämä käyttöönotot eivät ole kuitenkaan aina sujuneet halutulla tavalla. Tutkimus pyrkii luomaan vaiheittaisen mallin muutokseen valmistautumisesta, suunnittelusta, muutoksen kouluttamisesta, järjestelmän integroimisesta muihin järjestelmiin, muutoksen läpivientiin ja käyttöönoton onnistumisen mittaamisesta. Tutkimuksessa käsitellään uuden projektinhallintajärjestelmän käyttöönoton problematiikan lisäksi uuden työprosessin käyttöönottoa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Työn tarkoituksena oli tutkia yrityksen eri yksiköiden toiminnaohjausjärjestelmiä sekä verrata niiden menestystekijöitä Adelakunin malliin tietojärjestelmien laatuulottuvuuksista. Siinä järjestelmän kokonaislaatu jaetaan liiketoiminnalliseen, tekniseen ja käyttäjän kokemaan laatuun. Tulosten perusteella oli myös tavoitteena kehittää kyseisen toiminnanojausjärjestelmän kehittämistä varten malli onnistumistekijöiden keskinäisestä riippuvuudesta. Tutkittavista järjestelmistä ja niiden käytöstä kerättiin tietoja käyttöönottoprojektien dokumentaatiosta, haastatteluin, kyselylomakkein ja järjestelmäanalyysein. Sekä loppukäyttäjät että yritysjohto olivat kyselyjen ja haastattelujen kohderyhmänä. Saatuja tietoja arvioitiin Adelakunin kolmiulotteisen tietojärjestelmän laatutekijämallin mukaisesti ja keskeisiä menestystekijöitä etsittiin. Tutkituissa tapauksissa tietojärjestelmien menestyksen taustalta löytyi alan kirjallisuuden kanssa yhtäpitäviä tekijöitä. Myös Adelakunin laatu-ulottuvuusmalli osoittautui validiksi tutkituissa tapauksissa. Keskeisten menestystekijöiden välisistä vuorovaikutussuhteista rakennettiin malli, jota voidaan hyödyntää kyseisen järjestelmän jatkokehityksessä.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tutkielman tarkoituksena oli mallintaa varastonhallintajärjestelmä, joka olisi sopiva case yritykselle. Tutkimus aloitettiin case yrityksen varastonhallinan nykytilan kartoituksella, jonka jälkeen tutkittiin varastonhallinnan eri osa-alueisiin. Varastonhallinnan osa-alueista käsiteltiin varastotyyppejä, motiiveja, tavoitteita, kysynnän ennustamista sekä erilaisia varastonhallinnan työkaluja. Sen lisäksi tutkittiin erilaisia varaston täydennysmalleja. Teoriaosuudessa käsiteltiin lisäksi kolmea erilaista tietojärjestelmätyyppiä: toiminnanohjausjärjestelmää, sähköisen kaupankäynnin järjestelmää sekä räätälöityä järjestelmää. Tutkimussuunnitelmassa nämä kolme järjestelmää rajattiin vaihtoehdoiksi, joista jokin valittaisiin case yrityksen varastonhallintajärjestelmäksi. Teorian ja nykytilan pohjalta tehtiin viitekehys, jossa esiteltiin varastonhallintajärjestelmän tieto- ja toiminnallisuusominaisuuksia. Nämä ominaisuudet priorisoitiin neljään eri luokkaan ominaisuuden kriittisyyden mukaan. Järjestelmävaihtoehdot arvioitiin viitekehyksen kriteerien mukaisesti, miten helposti ominaisuudet olisivat toteutettavissa eri vaihtoehdoissa. Tulokset laskettiin näiden arviointien perusteella, jonka jälkeen tulosten analysoinnissa huomattiin, että toiminnanohjausjärjestelmä sopisi parhaiten case yrityksen varastonhallintajärjestelmäksi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Polyphenols are a major class of bioactive phytochemicals whose consumption may play a role in the prevention of a number of chronic diseases such as cardiovascular diseases, type II diabetes and cancers. Phenol-Explorer, launched in 2009, is the only freely available web-based database on the content of polyphenols in food and their in vivo metabolism and pharmacokinetics. Here we report the third release of the database (Phenol-Explorer 3.0), which adds data on the effects of food processing on polyphenol contents in foods. Data on >100 foods, covering 161 polyphenols or groups of polyphenols before and after processing, were collected from 129 peer-reviewed publications and entered into new tables linked to the existing relational design. The effect of processing on polyphenol content is expressed in the form of retention factor coefficients, or the proportion of a given polyphenol retained after processing, adjusted for change in water content. The result is the first database on the effects of food processing on polyphenol content and, following the model initially defined for Phenol-Explorer, all data may be traced back to original sources. The new update will allow polyphenol scientists to more accurately estimate polyphenol exposure from dietary surveys. Database URL: http://www.phenol-explorer.eu

Relevância:

30.00% 30.00%

Publicador:

Resumo:

SAMP8 is a strain of mice with accelerated senescence. These mice have recently been the focus of attention as they show several alterations that have also been described in Alzheimer"s disease (AD) patients. The number of dendritic spines, spine plasticity, and morphology are basic to memory formation. In AD, the density of dendritic spines is severely decreased. We studied memory alterations using the object recognition test. We measured levels of synaptophysin as a marker of neurotransmission and used Golgi staining to quantify and characterize the number and morphology of dendritic spines in SAMP8 mice and in SAMR1 as control animals. While there were no memory differences at 3 months of age, the memory of both 6- and 9-month-old SAMP8 mice was impaired in comparison with age-matched SAMR1 mice or young SAMP8 mice. In addition, synaptophysin levels were not altered in young SAMP8 animals, but SAMP8 aged 6 and 9 months had less synaptophysin than SAMR1 controls and also less than 3-month-old SAMP8 mice. Moreover, while spine density remained stable with age in SAMR1 mice, the number of spines started to decrease in SAMP8 animals at 6 months, only to get worse at 9 months. Our results show that from 6 months onwards SAMP8 mice show impaired memory. This age coincides with that at which the levels of synaptophysin and spine density decrease. Thus, we conclude that together with other studies that describe several alterations at similar ages, SAMP8 mice are a very suitable model for studying AD.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this thesis a model for managing the product data in a product transfer project was created for ABB Machines. This model was then applied for the ongoing product transfer project during its planning phase. Detailed information about the demands and challenges in product transfer projects was acquired by analyzing previous product transfer projects in participating organizations. This analysis and the ABB Gate Model were then used as a base for the creation of the model for managing the product data in a product transfer project. The created model shows the main tasks during each phase in the project, their sub-tasks and relatedness on general level. Furthermore the model emphasizes need for detailed analysis of the situation during the project planning phase. The created model for managing the product data in a product transfer project was applied into ongoing project two main areas; manufacturing instructions and production item data. The results showed that the greatest challenge considering the product transfer project in previously mentioned areas is the current state of the product data. Based on the findings, process and resource proposals for both the ongoing product transfer project and the BU Machines were given. For manufacturing instructions it is necessary to create detailed process instructions in receiving organizations own language for each department so that the manufacturing instructions can be used as a training material during the training in sending organization. For production item data the English version of the bill of materials needs to be fully in English. In addition it needs to be ensured that bill of materials is updated and these changes implemented before the training in sending organization begins.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this study we used market settlement prices of European call options on stock index futures to extract implied probability distribution function (PDF). The method used produces a PDF of returns of an underlying asset at expiration date from implied volatility smile. With this method, the assumption of lognormal distribution (Black-Scholes model) is tested. The market view of the asset price dynamics can then be used for various purposes (hedging, speculation). We used the so called smoothing approach for implied PDF extraction presented by Shimko (1993). In our analysis we obtained implied volatility smiles from index futures markets (S&P 500 and DAX indices) and standardized them. The method introduced by Breeden and Litzenberger (1978) was then used on PDF extraction. The results show significant deviations from the assumption of lognormal returns for S&P500 options while DAX options mostly fit the lognormal distribution. A deviant subjective view of PDF can be used to form a strategy as discussed in the last section.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Current-day web search engines (e.g., Google) do not crawl and index a significant portion of theWeb and, hence, web users relying on search engines only are unable to discover and access a large amount of information from the non-indexable part of the Web. Specifically, dynamic pages generated based on parameters provided by a user via web search forms (or search interfaces) are not indexed by search engines and cannot be found in searchers’ results. Such search interfaces provide web users with an online access to myriads of databases on the Web. In order to obtain some information from a web database of interest, a user issues his/her query by specifying query terms in a search form and receives the query results, a set of dynamic pages that embed required information from a database. At the same time, issuing a query via an arbitrary search interface is an extremely complex task for any kind of automatic agents including web crawlers, which, at least up to the present day, do not even attempt to pass through web forms on a large scale. In this thesis, our primary and key object of study is a huge portion of the Web (hereafter referred as the deep Web) hidden behind web search interfaces. We concentrate on three classes of problems around the deep Web: characterization of deep Web, finding and classifying deep web resources, and querying web databases. Characterizing deep Web: Though the term deep Web was coined in 2000, which is sufficiently long ago for any web-related concept/technology, we still do not know many important characteristics of the deep Web. Another matter of concern is that surveys of the deep Web existing so far are predominantly based on study of deep web sites in English. One can then expect that findings from these surveys may be biased, especially owing to a steady increase in non-English web content. In this way, surveying of national segments of the deep Web is of interest not only to national communities but to the whole web community as well. In this thesis, we propose two new methods for estimating the main parameters of deep Web. We use the suggested methods to estimate the scale of one specific national segment of the Web and report our findings. We also build and make publicly available a dataset describing more than 200 web databases from the national segment of the Web. Finding deep web resources: The deep Web has been growing at a very fast pace. It has been estimated that there are hundred thousands of deep web sites. Due to the huge volume of information in the deep Web, there has been a significant interest to approaches that allow users and computer applications to leverage this information. Most approaches assumed that search interfaces to web databases of interest are already discovered and known to query systems. However, such assumptions do not hold true mostly because of the large scale of the deep Web – indeed, for any given domain of interest there are too many web databases with relevant content. Thus, the ability to locate search interfaces to web databases becomes a key requirement for any application accessing the deep Web. In this thesis, we describe the architecture of the I-Crawler, a system for finding and classifying search interfaces. Specifically, the I-Crawler is intentionally designed to be used in deepWeb characterization studies and for constructing directories of deep web resources. Unlike almost all other approaches to the deep Web existing so far, the I-Crawler is able to recognize and analyze JavaScript-rich and non-HTML searchable forms. Querying web databases: Retrieving information by filling out web search forms is a typical task for a web user. This is all the more so as interfaces of conventional search engines are also web forms. At present, a user needs to manually provide input values to search interfaces and then extract required data from the pages with results. The manual filling out forms is not feasible and cumbersome in cases of complex queries but such kind of queries are essential for many web searches especially in the area of e-commerce. In this way, the automation of querying and retrieving data behind search interfaces is desirable and essential for such tasks as building domain-independent deep web crawlers and automated web agents, searching for domain-specific information (vertical search engines), and for extraction and integration of information from various deep web resources. We present a data model for representing search interfaces and discuss techniques for extracting field labels, client-side scripts and structured data from HTML pages. We also describe a representation of result pages and discuss how to extract and store results of form queries. Besides, we present a user-friendly and expressive form query language that allows one to retrieve information behind search interfaces and extract useful data from the result pages based on specified conditions. We implement a prototype system for querying web databases and describe its architecture and components design.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contact stains recovered at break-in crime scenes are frequently characterized by mixtures of DNA from several persons. Broad knowledge on the relative contribution of DNA left behind by different users overtime is of paramount importance. Such information might help crime investigators to robustly evaluate the possibility of detecting a specific (or known) individual's DNA profile based on the type and history of an object. To address this issue, a contact stain simulation-based protocol was designed. Fourteen volunteers either acting as first or second object's users were recruited. The first user was required to regularly handle/wear 9 different items during an 8-10-day period, whilst the second user for 5, 30 and 120 min, in three independent simulation sessions producing a total of 231 stains. Subsequently, the relative DNA profile contribution of each individual pair was investigated. Preliminary results showed a progressive increase of the percentage contribution of the second user compared to the first. Interestingly, the second user generally became the major DNA contributor when most objects were handled/worn for 120 min, Furthermore, the observation of unexpected additional alleles will then prompt the investigation of indirect DNA transfer events.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The objective of this thesis is to provide a business model framework that connects customer value to firm resources and explains the change logic of the business model. Strategic supply management and especially dynamic value network management as its scope, the dissertation is based on basic economic theories, transaction cost economics and the resource-based view. The main research question is how the changing customer values should be taken into account when planning business in a networked environment. The main question is divided into questions that form the basic research problems for the separate case studies presented in the five Publications. This research adopts the case study strategy, and the constructive research approach within it. The material consists of data from several Delphi panels and expert workshops, software pilot documents, company financial statements and information on investor relations on the companies’ web sites. The cases used in this study are a mobile multi-player game value network, smart phone and “Skype mobile” services, the business models of AOL, eBay, Google, Amazon and a telecom operator, a virtual city portal business system and a multi-play offering. The main contribution of this dissertation is bridging the gap between firm resources and customer value. This has been done by theorizing the business model concept and connecting it to both the resource-based view and customer value. This thesis contributes to the resource-based view, which deals with customer value and firm resources needed to deliver the value but has a gap in explaining how the customer value changes should be connected to the changes in key resources. This dissertation also provides tools and processes for analyzing the customer value preferences of ICT services, constructing and analyzing business models and business concept innovation and conducting resource analysis.