31 resultados para General-purpose computing
em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland
Resumo:
Cloud computing enables on-demand network access to shared resources (e.g., computation, networks, servers, storage, applications, and services) that can be rapidly provisioned and released with minimal management effort. Cloud computing refers to both the applications delivered as services over the Internet and the hardware and system software in the data centers. Software as a service (SaaS) is part of cloud computing. It is one of the cloud service models. SaaS is software deployed as a hosted service and accessed over the Internet. In SaaS, the consumer uses the provider‘s applications running in the cloud. SaaS separates the possession and ownership of software from its use. The applications can be accessed from any device through a thin client interface. A typical SaaS application is used with a web browser based on monthly pricing. In this thesis, the characteristics of cloud computing and SaaS are presented. Also, a few implementation platforms for SaaS are discussed. Then, four different SaaS implementation cases and one transformation case are deliberated. The pros and cons of SaaS are studied. This is done based on literature references and analysis of the SaaS implementations and the transformation case. The analysis is done both from the customer‘s and service provider‘s point of view. In addition, the pros and cons of on-premises software are listed. The purpose of this thesis is to find when SaaS should be utilized and when it is better to choose a traditional on-premises software. The qualities of SaaS bring many benefits both for the customer as well as the provider. A customer should utilize SaaS when it provides cost savings, ease, and scalability over on-premises software. SaaS is reasonable when the customer does not need tailoring, but he only needs a simple, general-purpose service, and the application supports customer‘s core business. A provider should utilize SaaS when it offers cost savings, scalability, faster development, and wider customer base over on-premises software. It is wise to choose SaaS when the application is cheap, aimed at mass market, needs frequent updating, needs high performance computing, needs storing large amounts of data, or there is some other direct value from the cloud infrastructure.
Resumo:
In this work, the feasibility of the floating-gate technology in analog computing platforms in a scaled down general-purpose CMOS technology is considered. When the technology is scaled down the performance of analog circuits tends to get worse because the process parameters are optimized for digital transistors and the scaling involves the reduction of supply voltages. Generally, the challenge in analog circuit design is that all salient design metrics such as power, area, bandwidth and accuracy are interrelated. Furthermore, poor flexibility, i.e. lack of reconfigurability, the reuse of IP etc., can be considered the most severe weakness of analog hardware. On this account, digital calibration schemes are often required for improved performance or yield enhancement, whereas high flexibility/reconfigurability can not be easily achieved. Here, it is discussed whether it is possible to work around these obstacles by using floating-gate transistors (FGTs), and analyze problems associated with the practical implementation. FGT technology is attractive because it is electrically programmable and also features a charge-based built-in non-volatile memory. Apart from being ideal for canceling the circuit non-idealities due to process variations, the FGTs can also be used as computational or adaptive elements in analog circuits. The nominal gate oxide thickness in the deep sub-micron (DSM) processes is too thin to support robust charge retention and consequently the FGT becomes leaky. In principle, non-leaky FGTs can be implemented in a scaled down process without any special masks by using “double”-oxide transistors intended for providing devices that operate with higher supply voltages than general purpose devices. However, in practice the technology scaling poses several challenges which are addressed in this thesis. To provide a sufficiently wide-ranging survey, six prototype chips with varying complexity were implemented in four different DSM process nodes and investigated from this perspective. The focus is on non-leaky FGTs, but the presented autozeroing floating-gate amplifier (AFGA) demonstrates that leaky FGTs may also find a use. The simplest test structures contain only a few transistors, whereas the most complex experimental chip is an implementation of a spiking neural network (SNN) which comprises thousands of active and passive devices. More precisely, it is a fully connected (256 FGT synapses) two-layer spiking neural network (SNN), where the adaptive properties of FGT are taken advantage of. A compact realization of Spike Timing Dependent Plasticity (STDP) within the SNN is one of the key contributions of this thesis. Finally, the considerations in this thesis extend beyond CMOS to emerging nanodevices. To this end, one promising emerging nanoscale circuit element - memristor - is reviewed and its applicability for analog processing is considered. Furthermore, it is discussed how the FGT technology can be used to prototype computation paradigms compatible with these emerging two-terminal nanoscale devices in a mature and widely available CMOS technology.
Resumo:
Internet of Things (IoT) technologies are developing rapidly, and therefore there exist several standards of interconnection protocols and platforms. The existence of heterogeneous protocols and platforms has become a critical challenge for IoT system developers. To mitigate this challenge, few alliances and organizations have taken the initiative to build a framework that helps to integrate application silos. Some of these frameworks focus only on a specific domain like home automation. However, the resource constraints in the large proportion of connected devices make it difficult to build an interoperable system using such frameworks. Therefore, a general purpose, lightweight interoperability framework that can be used for a range of devices is required. To tackle the heterogeneous nature, this work introduces an embedded, distributed and lightweight service bus, Lightweight IoT Service bus Architecture (LISA), which fits inside the network stack of a small real-time operating system for constrained nodes. LISA provides a uniform application programming interface for an IoT system on a range of devices with variable resource constraints. It hides platform and protocol variations underneath it, thus facilitating interoperability in IoT implementations. LISA is inspired by the Network on Terminal Architecture, a service centric open architecture by Nokia Research Center. Unlike many other interoperability frameworks, LISA is designed specifically for resource constrained nodes and it provides essential features of a service bus for easy service oriented architecture implementation. The presented architecture utilizes an intermediate computing layer, a Fog layer, between the small nodes and the cloud, thereby facilitating the federation of constrained nodes into subnetworks. As a result of a modular and distributed design, the part of LISA running in the Fog layer handles the heavy lifting to assist the lightweight portion of LISA inside the resource constrained nodes. Furthermore, LISA introduces a new networking paradigm, Node Centric Networking, to route messages across protocol boundaries to facilitate interoperability. This thesis presents a concept implementation of the architecture and creates a foundation for future extension towards a comprehensive interoperability framework for IoT.
Resumo:
Many-core systems are emerging from the need of more computational power and power efficiency. However there are many issues which still revolve around the many-core systems. These systems need specialized software before they can be fully utilized and the hardware itself may differ from the conventional computational systems. To gain efficiency from many-core system, programs need to be parallelized. In many-core systems the cores are small and less powerful than cores used in traditional computing, so running a conventional program is not an efficient option. Also in Network-on-Chip based processors the network might get congested and the cores might work at different speeds. In this thesis is, a dynamic load balancing method is proposed and tested on Intel 48-core Single-Chip Cloud Computer by parallelizing a fault simulator. The maximum speedup is difficult to obtain due to severe bottlenecks in the system. In order to exploit all the available parallelism of the Single-Chip Cloud Computer, a runtime approach capable of dynamically balancing the load during the fault simulation process is used. The proposed dynamic fault simulation approach on the Single-Chip Cloud Computer shows up to 45X speedup compared to a serial fault simulation approach. Many-core systems can draw enormous amounts of power, and if this power is not controlled properly, the system might get damaged. One way to manage power is to set power budget for the system. But if this power is drawn by just few cores of the many, these few cores get extremely hot and might get damaged. Due to increase in power density multiple thermal sensors are deployed on the chip area to provide realtime temperature feedback for thermal management techniques. Thermal sensor accuracy is extremely prone to intra-die process variation and aging phenomena. These factors lead to a situation where thermal sensor values drift from the nominal values. This necessitates efficient calibration techniques to be applied before the sensor values are used. In addition, in modern many-core systems cores have support for dynamic voltage and frequency scaling. Thermal sensors located on cores are sensitive to the core's current voltage level, meaning that dedicated calibration is needed for each voltage level. In this thesis a general-purpose software-based auto-calibration approach is also proposed for thermal sensors to calibrate thermal sensors on different range of voltages.
Resumo:
Tietokoneiden tallennuskapasiteetin ja sekä tietokoneiden että verkkojen nopeuden kasvaessa myös käyttäjien odotukset kasvavat. Tietoa talletetaan yhä enemmän ja näistä tiedoista laaditaan yhä monimutkaisempia raportteja. Raporttien monimutkaisuuden kasvaessa niiden tarvitseman tiedon keräämiseen kuluva aika ei kuitenkaan saisi oleellisesti kasvaa. Tämän työn tarkoituksena on tutkia ja parantaa kansainvälisen metsäteollisuusyrityksen myynnin ja logistiikan järjestelmän raportointitietokannan tehokkuutta etenkin raporttien tietojen keräämiseen kuluvalla ajalla mitattuna. Työssä keskitytään kartoittamaan nykyisen järjestelmän pullonkauloja ja pyritään parantamaan järjestelmän suorituskykyä. Tulevaisuudessa suorituskykyä tarvitaan kuitenkin lisää, joten työssä tarkastellaan myös nykyisen, yleiskäyttöisen tietokannan, korvaamista erityisesti raportointia varten suunnitellulla tietokannalla. Työn tuloksena järjestelmän raporttien tietojen keräämiseen kuluvaa aikaa pystyttiin pienentämään ja pahimmat pullonkaulat selvittämään. Käyttäjämäärän kasvaessa tietokannan suorituskyvyn rajat tulevat kuitenkin pian vastaan. Tietokanta joudutaan tulevaisuudessa vaihtamaan erityisesti raportointitietokannaksi suunniteltuun.
Resumo:
Diplomityön tavoitteena oli tehostaa venttiilipesien koneistuksessa käytettävän monitoimipystysorvin NC - ohjelmointia CAM - ohjelman käyttöönotolla. Tutkimus on osa laajempaa kokonaisuutta liittyen koneistusalihankinnan kehittämiseen ja yrityksen kilpailukyvyn ylläpitoon ja parantamiseen liiketoiminta-alueella, jolla on tällä hetkellä hyvät kasvunäkymät. Tavoite rajattiin yritykseen jo aiemmin hankitun WinCAM - ohjelman päivittämiseen ja hyödyntämiseen monitoimipystysorvin NC - ohjelmoinnissa. Tutkimuksen käytännön tavoitteena oli selvittää CAM - ohjelmoinnin käyttömahdollisuudet, sekä luoda CAM - ohjelmistoon pohjautuva, räätälöity NC - ohjelmointikonsepti pilottikohteeseen. Tutkimuksen kokeellisen osuuden muodostivat tällöin nykyisen tuotannon ongelmakohtien löytäminen, koneen ohjelmointitarpeiden kartoitus,sekä menetelmäkehitys. Tutkimuksen päämääränä oli tuotannon tasolla käytettävä järjestelmä, jolla koneen ohjelmointi olisi mahdollista myös vähemmällä konekohtaisella kokemuksella. Nykyisen toimintatavan ongelmina olivat yhtenäisen NC - ohjelmointikäytännön puute, niin valmiiden ohjelmien käytössä kuin uusienkin ohjelmien tekemisessä. Tähän olivat syynä NC - ohjauksen heikko käytettävyys erityisesti sorvauksen osalta. Nämä tekijät yhdistettynä monitoimityöstökoneessa tarvittavaan koordinaatiston hallintaan vaikeuttivat ohjelmointia. Työntekijäkohtaiset erot NC - ohjelmien käytössä, sekä laadultaan vaihtelevat valuaihiot aiheuttivat tuotannon läpäisyaikaan merkittävää vaihtelua. Siten myös koneen kuormituksen säätely oli vaikeaa. Uuden ohjelmointikonseptin toteutuksessa pidettiin etusijalla hyvää käytettävyyttä, sekä uuden menetelmän aukotonta liittymistä olemassa oleviin tuotantojärjestelmiin. Ohjelmointikonseptin toteutuksessa, osaperheestä haettiin selkeästi parametroitaviksi soveltuvat työvaiheet, jotka voitiin hallita yleiskäyttöisillä aliohjelmilla. Tuotteiden muidengeometrioiden hallintaan laadittiin geometriakirjasto, jota voitiin käyttää tavanomaisen graafisen ohjelmoinnin pohjana. Vanhaa toimintatapaa ja diplomityön aikana kehitettyä CAM - ohjelmointijärjestelmää vertailtiin perustuen NC - ohjelmien tehokkuuteen, jota tarkasteltiin saman työvaiheen työstöaikaan perustuen. Tämän lisäksi tärkeän tuloksen muodostavat myös kvalitatiivisetseikat, jotka liittyvät ohjelmointiympäristön käytettävyyteen. CAM - ohjelmoinnin kehittäminen ja käyttöönotto pilottikohteessa sujui pääosin hyvin ja laaditunsuunnitelman mukaisesti. Aiemmin hankalasti ohjelmoitavat työvaiheet, kuten erilaisten laippatasopintojen ja reikäpiirien ohjelmointi muutettiin makrokäyttöön soveltuviksi. Sorvauksessa ongelmia aiheuttaneen tiivistelilan koneistukseen sovellettiin graafista ohjelmointia. Koko tuotannon mittakaavassa NC - ohjelmoinninosuus oli kuitenkin vähäinen, mistä johtuen koneen tuottavuuteen ei tutkimuksenajanjaksolla voitu vaikuttaa. Sen sijaan tuotannon sujuvuuteen oleellisesti vaikuttavaa työtekijöiden 'hiljaisen tiedon' määrää voitiin vähentää vakioimalla ohjelmointia ja siirtämällä tehokkaiksi havaitut menetelmät ohjelmointijärjestelmään.
Resumo:
The topic of this thesis is studying how lesions in retina caused by diabetic retinopathy can be detected from color fundus images by using machine vision methods. Methods for equalizing uneven illumination in fundus images, detecting regions of poor image quality due toinadequate illumination, and recognizing abnormal lesions were developed duringthe work. The developed methods exploit mainly the color information and simpleshape features to detect lesions. In addition, a graphical tool for collecting lesion data was developed. The tool was used by an ophthalmologist who marked lesions in the images to help method development and evaluation. The tool is a general purpose one, and thus it is possible to reuse the tool in similar projects.The developed methods were tested with a separate test set of 128 color fundus images. From test results it was calculated how accurately methods classify abnormal funduses as abnormal (sensitivity) and healthy funduses as normal (specificity). The sensitivity values were 92% for hemorrhages, 73% for red small dots (microaneurysms and small hemorrhages), and 77% for exudates (hard and soft exudates). The specificity values were 75% for hemorrhages, 70% for red small dots, and 50% for exudates. Thus, the developed methods detected hemorrhages accurately and microaneurysms and exudates moderately.
Resumo:
Tämän diplomityön tarkoituksena oli tutkia miten kuluttajien kierrättämästä polyeteenitereftalaatista ( PET ) voi valmistaa tyydyttymättömiä polyesterihartseja. Työssä valmistettiin yleiskäyttöön soveltuva laminointihartsi sekä 'gel coat' -hartsi jota käytetään esim. veneiden pintamaalina. Yleishartsin depolymerointiin käytettiin propyleeniglykolia ja 'gel coat' -hartsin valmistamiseen neopentyyliglykolia. Polykondensaatiovaiheessa reaktioon lisättiin maleiinihappoa ja lopuksi hartsit liuotettiin styreeniin. Kirjallisuusosassa esitetään eri menetelmiä PET:n depolymeroimiseksi. Lisäksi esitetään eri vaihtoehtoja glykolien, happojen, katalyyttien ja vinyylimonomeerien valitsemiseksi tyydyttymättömien polyesterihartsien valmistuksessa. Analyysimenetelmiä nestemäisten ja kovetettujen hartsien tutkimiseen ja vertailuun käydään läpi kuten myös erilaisia sovelluksia polyesterihartsien käyttämiseksi. Kokeellinen osa todisti että PET-pullojäte voidaan prosessoida hartsiksiilman uusia investointeja prosessilaitteistoon. PET:n glykolyysi kesti viidestäseitsemään tuntia ja polykondensaatiovaihe kahdesta ja puolesta viiteen tuntiin. Hartsien molekyylipainot ja mekaanisten testien tulokset olivat vertailukelpoisia kaupallisten hartsien antamien tulosten kanssa. Glykolyysivaiheen momomeeri- ja oligomeeripitoisuudet mitattiin geelipermeaatiokromatografialla, jotta nähtiin miten pitkälle depolymerisaatio oli edennyt. Tätä tietoa voidaan hyödyntää uusien hartsireseptin suunnittelussa. Polymeeriketjussa jäljellä olevien C=C kaksoissidosten määrä ja niiden isomeraatioaste maleaattimuodosta fumaraattimuotoon mitattiin 1H-NMR -menetelmällä. Tislevesien koostumus määritettiin kaasukromatografialla, ja tulokset kertoivat katalyytin sisältämän kloorin reagoineen glykolien kanssa, johtaen suureen glykolikulutukseen ja muihin ei-toivottuihin sivureaktioihin. Hartsien sietokykyä auringon valolle mitattiin niiden UV-absorption avulla. Kummastakin hartsista valmistettiin 'gel coat' -maalit jotkalaitettiin sääkoneeseen, joka simuloi auringonpaistetta ja vesisadetta vuorotellen. Näistä 'gel coateista' mitattiin niiden kellastumista. Kummastakin hartsista tehdyt valut asetettiin myös sääkoneeseen ja IR-spektreistä ennen jajälkeen koetta nähtiin että C=O ja C-O esterisidoksia oli hajonnut.
Resumo:
Työssä perehdytään verkkokäyttöliittymien suunnitteluun ja toteutukseen. Erityisen huomion kohteena ovat Java-ohjelmointikieli ja ohjelmistosuunnittelussa suurta huomiota herättäneet suunnittelumallit. Java on kehittynyt lyhyen elinikänsä aikana huomattavasti, ja viimeaikaiset vakioluokkakirjastot ovat mahdollistaneet monipuolisten ja siirrettävien ohjelmistojen toteuttamisen. Vaikka Java ei sovellukaan kaikkiin tarkoituksiin, on se luotettavuutensa, siirrettävyytensä ja luokkakirjastojensa ilmaisuvoiman ansiosta hyvin houkutteleva kieli käyttöliittymien tekemiseen. Suunnittelumallit ovat merkittävä osa ammattimaista oliosuunnittelua. Ne tarjoavat valmiita ratkaisuja yleisiin suunnitteluongelmiin ja säästävät siten aikaa suunnittelu- ja toteutusvaiheissa. Suunnittelumallit voidaan jakaa kolmeen ryhmään: luontimallit, rakennemallit ja toiminnalliset mallit. Käytännön osuudessa tarkastellaan Java-käyttöliittymän toteutusta olemassa olevaan Soneran TradeXpress-tietojärjestelmään. Tässä tehtävässä Java ja suunnittelumallit ovat olleet keskeisellä sijalla. Java-käyttöliittymä, JavaGUI, koostuu kahdesta osasta: asiakasappletista ja Jrls-palvelimesta. Näiden kahden väliseen tiedonsiirtoon käytetään pääasiassa Javan RMI-yhteyskäytäntöä. Jrls-palvelin toimii asiakkaana RLS-palvelimelle erityisen RLS-yhteyskäytännön avulla.
Resumo:
Neljännen sukupolven mobiiliverkot yhdistävät saumattomasti televerkot, Internetin ja niiden palvelut. Alkuperin Internetiä käytettiin vain paikallaan pysyviltä tietokoneilta perinteisten televerkkojen tarjotessa puhelin- ja datapalveluita. Neljännen sukupolven mobiiliverkkojen käyttäjät voivat käyttää sekä Internetiin perustuvia että perinteisten televerkkojen palveluita liikkuessaankin. Tämä diplomityö esittelee neljännen sukupolven mobiiliverkon yleisen arkkitehtuurin. Arkkitehtuurin perusosat kuvaillaan ja arkkitehtuuria verrataan toisen ja kolmannen sukupolven mobiiliverkkoihin. Aiheeseen liittyvät Internet-standardit esitellään ja niiden soveltuvuutta mobiiliverkkoihin pohditaan. Langattomia, lyhyen kantaman nopeita liitäntäverkkotekniikoita esitellään. Neljännen sukupolven mobiiliverkoissa tarvittavia päätelaitteiden ja käyttäjien liikkuvuuden hallintamenetelmiä esitellään. Esitelty arkkitehtuuri perustuu langattomiin, lyhyen kantaman nopeisiin liitäntäverkkotekniikoihin ja Internet-standardeihin. Arkkitehtuuri mahdollistaa yhteydet toisiin käyttäjiin ilman tietoa heidän senhetkisestä päätelaitteesta tai sijainnista. Internetin palveluitavoidaan käyttää missä tahansa neljännen sukupolven mobiiliverkon alueella. Yleiskäytöistä liikkuvuuden hallintamenetelmää yhden verkon alueelle ehdotetaan. Menetelmää voidaan käyttää yhdessä esitellyn arkkitehtuurin kanssa.
Resumo:
Työn tavoitteena oli selvittää kaupallisen dynamiikansimulointiohjelmiston soveltuvuus roottoridynamiikan analysointiin. Työssä keskityttiin erityisesti roottorin dynamiikkaan vaikuttavien epäideaalisuuksien mallintamiseen. Simulointitulosten tarkkuutta selvitettiin mittauksilla. Lisäksi vertailtiin yleiskäyttöisen dynamiikan simulointiohjelmiston ja roottoridynamiikan erikoisohjelmiston teoriaa. Tutkittava roottori oli paperikoneen putkitela. Telan joustavuus kuvattiin elementtimenetelmällä ratkaistujen moodien avulla. Elementtimallissa huomioitiin telan vaipan seinämänpaksuusvaihtelu, joka vaikuttaa telan massa- ja jäykkyysjakaumaan. Dynamiikkaohjelmistossa mallinnettiin telan tuennasta tulevat herätteet. Dynamiikkaohjelmistona käytettiin ADAMS:ia ja FEM-ohjelmana ANSYS:stä. Tuloksista havaittiin käytetyn menetelmän soveltuvan roottoridynamiikan analysointiin ja roottorin epäideaalisuuksien mallintamiseen. Simulointimallilla saatiin esille murtolukukriittiset pyörimisnopeudet ja telan kriittinen pyörimisnopeus vastasi hyvin mittaustuloksia.
Resumo:
Internet on elektronisen postin perusrakenne ja ollut tärkeä tiedonlähde akateemisille käyttäjille jo pitkään. Siitä on tullut merkittävä tietolähde kaupallisille yrityksille niiden pyrkiessä pitämään yhteyttä asiakkaisiinsa ja seuraamaan kilpailijoitansa. WWW:n kasvu sekä määrällisesti että sen moninaisuus on luonut kasvavan kysynnän kehittyneille tiedonhallintapalveluille. Tällaisia palveluja ovet ryhmittely ja luokittelu, tiedon löytäminen ja suodattaminen sekä lähteiden käytön personointi ja seuranta. Vaikka WWW:stä saatavan tieteellisen ja kaupallisesti arvokkaan tiedon määrä on huomattavasti kasvanut viime vuosina sen etsiminen ja löytyminen on edelleen tavanomaisen Internet hakukoneen varassa. Tietojen hakuun kohdistuvien kasvavien ja muuttuvien tarpeiden tyydyttämisestä on tullut monimutkainen tehtävä Internet hakukoneille. Luokittelu ja indeksointi ovat merkittävä osa luotettavan ja täsmällisen tiedon etsimisessä ja löytämisessä. Tämä diplomityö esittelee luokittelussa ja indeksoinnissa käytettävät yleisimmät menetelmät ja niitä käyttäviä sovelluksia ja projekteja, joissa tiedon hakuun liittyvät ongelmat on pyritty ratkaisemaan.
Resumo:
Työssä luodaan yleiskuva Web-palvelut -tekniikasta ja toteutetaan sen avulla kahden tietojärjestelmän integrointi. Web-palvelut on uusi toteutustekniikasta riippumaton lähestymistapa tietojärjestelmien integrointiin, organisaatioiden väliseen sähköiseen liiketoimintaan ja sovelluslogiikan hajautukseen. Työssä keskitytään Web-palveluiden alemman tason perusteknologioiden (SOAP, WSDL ja UDDI) tarkasteluun. Työn teoriaosassa määritellään Web-palvelut ja kuvataan Web-palveluiden arkkitehtuuri sekä arkkitehtuurin toteuttavat standardit. Soveltavassa osassa toteutetaan kahden tietojärjestelmän integrointi Web-palveluiden avulla. Web-palveluiden käyttöä ja luontia helpottamaan toteutettiin yleiskäyttöinen komponentti, jota voidaan käyttää myöhemmin muissa vastaavissa projekteissa. Työssä tarkastellaan Web-palveluiden käytettävyyttä organisaation tietojärjestelmien sisäisessä integroinnissa ja sovelluslogiikan hajautuksessa. Tarkastelun tuloksena todetaan, että Web-palvelut on tällä hetkellä keskeneräinen tekniikka ja soveltuu toistaiseksi vain yksinkertaisten ongelmien ratkaisemiseen. Tulevaisuudessa Web-palveluilla on kuitenkin edellytykset yleistyä sekä integroinnin että sovelluslogiikan hajautuksen perustekniikkana.
Resumo:
Reaaliaikaisten käyttöjärjestelmien käyttö sulautetuissa järjestelmissä on kasvamassa koko ajan. Sulautettuja tietokoneita käytetään yhä useammassa kohteessa kuten sähkökäyttöjen ohjauksessa. Sähkökäyttöjen ohjaus hoidetaan nykyisin yleensä nopealla digitaalisella signaaliprosessorilla (DSP), jolloin ohjelmointi ja päivittäminen on hidasta ja vaikeaa johtuen käytettävästä matalan tason Assembler-kielestä. Ratkaisuna yleiskäyttöisten prosessorien ja reaaliaikakäyttöjärjestelmien käyttö. Kaupalliset reaaliaikakäyttöjärjestelmät ovat kalliita ja lähdekoodin saaminen omaan käyttöön jopa mahdotonta. Linux on ei-kaupallinen avoimen lähdekoodin käyttöjärjestelmä, joten sen käyttö on ilmaista ja sitä voi muokata vapaasti. Linux:iin on saatavana useita laajennuksia, jotka tekevät siitä reaaliaikaisen käyttöjärjestelmän. Vaihtoehtoina joko kova (hard) tai pehmeä (soft) reaaliaikaisuus. Linux:iin on olemassa valmiita kehitysympäristöjä mutta ne kaipaavat parannusta ennen kuin niitä voidaan käyttää suuressa mittakaavassa teollisuudessa. Reaaliaika Linux ei sovellus nopeisiin ohjauslooppeihin (<100 ms) koska nopeus ei riitä vielä mutta nopeus kasvaa samalla kun prosessorit kehittyvät. Linux soveltuu hyvin rajapinnaksi nopean ohjauksen ja käyttäjän välille ja hitaampaan ohjaukseen.
Resumo:
Reusability has become more popular factor in modern software engineering. This is mainly because object-orientation has brought methods that allow reusing more easily. Today more and more application developer thinks how they can reuse already existing applications in their work. If the developer wants to use existing components outside the current project, he can use design patterns, class libraries or frameworks. These provide solution for specific or general problems that has been already encountered. Application frameworks are collection of classes that provides base for the developer. Application frameworks are mostly implementation phase tools, but can also be used in application design. The main purpose of the frameworks is separate domain specific functionalities from the application specific. Usually the frameworks are divided into two categories: black and white box. Difference between those categories is the way the reuse is done. The application frameworks provide properties that can be examined and compared between different frameworks. These properties are: extensibility, reusability, modularity and scalability. These examine how framework will handle different platforms, changes in framework, increasing demand for resources, etc. Generally application frameworks do have these properties in good level. When comparing general purpose framework and more specific purpose framework, the main difference can be located in reusability of frameworks. It is mainly because the framework designed to specific domain can have constraints from external systems and resources. With general purpose framework these are set by the application developed based on the framework.