961 resultados para General-purpose computing on graphics processing units (GPGPU)
Resumo:
This article presents an optimization methodology of batch production processes assembled by shared resources which rely on a mapping of state-events into time-events allowing in this way the straightforward use of a well consolidated scheduling policies developed for manufacturing systems. A technique to generate the timed Petri net representation from a continuous dynamic representation (Differential-Algebraic Equations systems (DAEs)) of the production system is presented together with the main characteristics of a Petri nets-based tool implemented for optimization purposes. This paper describes also how the implemented tool generates the coverability tree and how it can be pruned by a general purpose heuristic. An example of a distillation process with two shared batch resources is used to illustrate the optimization methodology proposed.
Resumo:
Tietokoneiden tallennuskapasiteetin ja sekä tietokoneiden että verkkojen nopeuden kasvaessa myös käyttäjien odotukset kasvavat. Tietoa talletetaan yhä enemmän ja näistä tiedoista laaditaan yhä monimutkaisempia raportteja. Raporttien monimutkaisuuden kasvaessa niiden tarvitseman tiedon keräämiseen kuluva aika ei kuitenkaan saisi oleellisesti kasvaa. Tämän työn tarkoituksena on tutkia ja parantaa kansainvälisen metsäteollisuusyrityksen myynnin ja logistiikan järjestelmän raportointitietokannan tehokkuutta etenkin raporttien tietojen keräämiseen kuluvalla ajalla mitattuna. Työssä keskitytään kartoittamaan nykyisen järjestelmän pullonkauloja ja pyritään parantamaan järjestelmän suorituskykyä. Tulevaisuudessa suorituskykyä tarvitaan kuitenkin lisää, joten työssä tarkastellaan myös nykyisen, yleiskäyttöisen tietokannan, korvaamista erityisesti raportointia varten suunnitellulla tietokannalla. Työn tuloksena järjestelmän raporttien tietojen keräämiseen kuluvaa aikaa pystyttiin pienentämään ja pahimmat pullonkaulat selvittämään. Käyttäjämäärän kasvaessa tietokannan suorituskyvyn rajat tulevat kuitenkin pian vastaan. Tietokanta joudutaan tulevaisuudessa vaihtamaan erityisesti raportointitietokannaksi suunniteltuun.
Resumo:
Diplomityön tavoitteena oli tehostaa venttiilipesien koneistuksessa käytettävän monitoimipystysorvin NC - ohjelmointia CAM - ohjelman käyttöönotolla. Tutkimus on osa laajempaa kokonaisuutta liittyen koneistusalihankinnan kehittämiseen ja yrityksen kilpailukyvyn ylläpitoon ja parantamiseen liiketoiminta-alueella, jolla on tällä hetkellä hyvät kasvunäkymät. Tavoite rajattiin yritykseen jo aiemmin hankitun WinCAM - ohjelman päivittämiseen ja hyödyntämiseen monitoimipystysorvin NC - ohjelmoinnissa. Tutkimuksen käytännön tavoitteena oli selvittää CAM - ohjelmoinnin käyttömahdollisuudet, sekä luoda CAM - ohjelmistoon pohjautuva, räätälöity NC - ohjelmointikonsepti pilottikohteeseen. Tutkimuksen kokeellisen osuuden muodostivat tällöin nykyisen tuotannon ongelmakohtien löytäminen, koneen ohjelmointitarpeiden kartoitus,sekä menetelmäkehitys. Tutkimuksen päämääränä oli tuotannon tasolla käytettävä järjestelmä, jolla koneen ohjelmointi olisi mahdollista myös vähemmällä konekohtaisella kokemuksella. Nykyisen toimintatavan ongelmina olivat yhtenäisen NC - ohjelmointikäytännön puute, niin valmiiden ohjelmien käytössä kuin uusienkin ohjelmien tekemisessä. Tähän olivat syynä NC - ohjauksen heikko käytettävyys erityisesti sorvauksen osalta. Nämä tekijät yhdistettynä monitoimityöstökoneessa tarvittavaan koordinaatiston hallintaan vaikeuttivat ohjelmointia. Työntekijäkohtaiset erot NC - ohjelmien käytössä, sekä laadultaan vaihtelevat valuaihiot aiheuttivat tuotannon läpäisyaikaan merkittävää vaihtelua. Siten myös koneen kuormituksen säätely oli vaikeaa. Uuden ohjelmointikonseptin toteutuksessa pidettiin etusijalla hyvää käytettävyyttä, sekä uuden menetelmän aukotonta liittymistä olemassa oleviin tuotantojärjestelmiin. Ohjelmointikonseptin toteutuksessa, osaperheestä haettiin selkeästi parametroitaviksi soveltuvat työvaiheet, jotka voitiin hallita yleiskäyttöisillä aliohjelmilla. Tuotteiden muidengeometrioiden hallintaan laadittiin geometriakirjasto, jota voitiin käyttää tavanomaisen graafisen ohjelmoinnin pohjana. Vanhaa toimintatapaa ja diplomityön aikana kehitettyä CAM - ohjelmointijärjestelmää vertailtiin perustuen NC - ohjelmien tehokkuuteen, jota tarkasteltiin saman työvaiheen työstöaikaan perustuen. Tämän lisäksi tärkeän tuloksen muodostavat myös kvalitatiivisetseikat, jotka liittyvät ohjelmointiympäristön käytettävyyteen. CAM - ohjelmoinnin kehittäminen ja käyttöönotto pilottikohteessa sujui pääosin hyvin ja laaditunsuunnitelman mukaisesti. Aiemmin hankalasti ohjelmoitavat työvaiheet, kuten erilaisten laippatasopintojen ja reikäpiirien ohjelmointi muutettiin makrokäyttöön soveltuviksi. Sorvauksessa ongelmia aiheuttaneen tiivistelilan koneistukseen sovellettiin graafista ohjelmointia. Koko tuotannon mittakaavassa NC - ohjelmoinninosuus oli kuitenkin vähäinen, mistä johtuen koneen tuottavuuteen ei tutkimuksenajanjaksolla voitu vaikuttaa. Sen sijaan tuotannon sujuvuuteen oleellisesti vaikuttavaa työtekijöiden 'hiljaisen tiedon' määrää voitiin vähentää vakioimalla ohjelmointia ja siirtämällä tehokkaiksi havaitut menetelmät ohjelmointijärjestelmään.
Resumo:
We study the impact of sampling theorems on the fidelity of sparse image reconstruction on the sphere. We discuss how a reduction in the number of samples required to represent all information content of a band-limited signal acts to improve the fidelity of sparse image reconstruction, through both the dimensionality and sparsity of signals. To demonstrate this result, we consider a simple inpainting problem on the sphere and consider images sparse in the magnitude of their gradient. We develop a framework for total variation inpainting on the sphere, including fast methods to render the inpainting problem computationally feasible at high resolution. Recently a new sampling theorem on the sphere was developed, reducing the required number of samples by a factor of two for equiangular sampling schemes. Through numerical simulations, we verify the enhanced fidelity of sparse image reconstruction due to the more efficient sampling of the sphere provided by the new sampling theorem.
Resumo:
The topic of this thesis is studying how lesions in retina caused by diabetic retinopathy can be detected from color fundus images by using machine vision methods. Methods for equalizing uneven illumination in fundus images, detecting regions of poor image quality due toinadequate illumination, and recognizing abnormal lesions were developed duringthe work. The developed methods exploit mainly the color information and simpleshape features to detect lesions. In addition, a graphical tool for collecting lesion data was developed. The tool was used by an ophthalmologist who marked lesions in the images to help method development and evaluation. The tool is a general purpose one, and thus it is possible to reuse the tool in similar projects.The developed methods were tested with a separate test set of 128 color fundus images. From test results it was calculated how accurately methods classify abnormal funduses as abnormal (sensitivity) and healthy funduses as normal (specificity). The sensitivity values were 92% for hemorrhages, 73% for red small dots (microaneurysms and small hemorrhages), and 77% for exudates (hard and soft exudates). The specificity values were 75% for hemorrhages, 70% for red small dots, and 50% for exudates. Thus, the developed methods detected hemorrhages accurately and microaneurysms and exudates moderately.
Resumo:
Tämän diplomityön tarkoituksena oli tutkia miten kuluttajien kierrättämästä polyeteenitereftalaatista ( PET ) voi valmistaa tyydyttymättömiä polyesterihartseja. Työssä valmistettiin yleiskäyttöön soveltuva laminointihartsi sekä 'gel coat' -hartsi jota käytetään esim. veneiden pintamaalina. Yleishartsin depolymerointiin käytettiin propyleeniglykolia ja 'gel coat' -hartsin valmistamiseen neopentyyliglykolia. Polykondensaatiovaiheessa reaktioon lisättiin maleiinihappoa ja lopuksi hartsit liuotettiin styreeniin. Kirjallisuusosassa esitetään eri menetelmiä PET:n depolymeroimiseksi. Lisäksi esitetään eri vaihtoehtoja glykolien, happojen, katalyyttien ja vinyylimonomeerien valitsemiseksi tyydyttymättömien polyesterihartsien valmistuksessa. Analyysimenetelmiä nestemäisten ja kovetettujen hartsien tutkimiseen ja vertailuun käydään läpi kuten myös erilaisia sovelluksia polyesterihartsien käyttämiseksi. Kokeellinen osa todisti että PET-pullojäte voidaan prosessoida hartsiksiilman uusia investointeja prosessilaitteistoon. PET:n glykolyysi kesti viidestäseitsemään tuntia ja polykondensaatiovaihe kahdesta ja puolesta viiteen tuntiin. Hartsien molekyylipainot ja mekaanisten testien tulokset olivat vertailukelpoisia kaupallisten hartsien antamien tulosten kanssa. Glykolyysivaiheen momomeeri- ja oligomeeripitoisuudet mitattiin geelipermeaatiokromatografialla, jotta nähtiin miten pitkälle depolymerisaatio oli edennyt. Tätä tietoa voidaan hyödyntää uusien hartsireseptin suunnittelussa. Polymeeriketjussa jäljellä olevien C=C kaksoissidosten määrä ja niiden isomeraatioaste maleaattimuodosta fumaraattimuotoon mitattiin 1H-NMR -menetelmällä. Tislevesien koostumus määritettiin kaasukromatografialla, ja tulokset kertoivat katalyytin sisältämän kloorin reagoineen glykolien kanssa, johtaen suureen glykolikulutukseen ja muihin ei-toivottuihin sivureaktioihin. Hartsien sietokykyä auringon valolle mitattiin niiden UV-absorption avulla. Kummastakin hartsista valmistettiin 'gel coat' -maalit jotkalaitettiin sääkoneeseen, joka simuloi auringonpaistetta ja vesisadetta vuorotellen. Näistä 'gel coateista' mitattiin niiden kellastumista. Kummastakin hartsista tehdyt valut asetettiin myös sääkoneeseen ja IR-spektreistä ennen jajälkeen koetta nähtiin että C=O ja C-O esterisidoksia oli hajonnut.
Resumo:
Values and value processes are said to be needed in every organization nowadays, as the world is changing and companies have to have something to "keep it together". Organizational values, which are approvedand used by the personnel, could be the key. Every organization has values. But what is the real value of values? The greatest and most crucial challenge is the feasibility of the value process. The main point in this thesis is tostudy how organizational members at different hierarchical levels perceive values and value processes in their organizations. This includes themes such as how values are disseminated, the targets of value processing, factors that affect the process, problems that occur during the value implementation and improvements that could be made when organizational values are implemented. These subjects are studied from the perspective of organizational members (both managers and employees); individuals in the organizations. The aim is to get the insider-perspective on value processing, from multiple hierarchical levels. In this research I study three different organizations (forest industry, bank and retail cooperative) and their value processes. The data is gathered from companies interviewing personnel in the head office and at the local level. The individuals areseen as members of organizations, and the cultural aspect is topical throughout the whole study. Values and cultures are seen as the 'actuality of reality' of organizations, interpreted by organizational members. The three case companies were chosen because they represented different lines of business and they all implemented value processing differently. Sincethe emphasis in this study is at the local level, the similar size of the local units was also an important factor. Values are in 'fashion' -but what does the fashion tell us about the real corporate practices? In annual reports companies emphasize the importance and power of official values. But what is the real 'point' of values? Values are publicly respected and advertised, but still it seems that the words do not meet the deeds. There is a clear conflict between theoretical, official and substantive organizational values: in the value processing from words to real action. This contradiction in value processing is studied through individual perceptions in this study. I study the kinds of perceptions organizationalmembers have when values are processed from the head office to the local level: the official value process is studied from the individual's perspective. Value management has been studied more during the 1990's. The emphasis has usually been on managers: how they consider the values in organizations and what effects it has on the management. Recent literature has emphasized values as tools for improving company performance. The value implementation as a process has been studied through 'good' and 'bad' examples, as if one successful value process could be copied to all organizations. Each company is different with different cultures and personnel, so no all-powerful way of processing values exists. In this study, the organizational members' perceptions at different hierarchical levels are emphasized. Still, managers are also interviewed; this is done since managerial roles in value dissemination are crucial. Organizational values cannot be well disseminated without management; this has been proved in several earlier studies (e.g. Kunda 1992, Martin 1992, Parker 2000). Recent literature has not sufficiently emphasized the individual's (organizational member's) role in value processing. Organizations consist of differentindividuals with personal values, at all hierarchical levels. The aim in this study is to let the individual take the floor. Very often the value process is described starting from the value definition and ending at dissemination, and the real results are left without attention. I wish to contribute to this area. Values are published officially in annual reports etc. as a 'goal' just like profits. Still, the results/implementationof value processing is rarely followed, at least in official reports. This is a very interesting point: why do companies espouse values, if there is no real control or feedback after the processing? In this study, the personnel in three different companies is asked to give an answer. In the empirical findings, there are several results which bring new aspects to the research area of organizational values. The targets of value processing, factors effecting value processing, the management's roles and the problems in value implementation are presented through the individual's perspective. The individual's perceptions in value processing are a recurring theme throughout the whole study. A comparison between the three companies with diverse value processes makes the research complete
Resumo:
Työssä perehdytään verkkokäyttöliittymien suunnitteluun ja toteutukseen. Erityisen huomion kohteena ovat Java-ohjelmointikieli ja ohjelmistosuunnittelussa suurta huomiota herättäneet suunnittelumallit. Java on kehittynyt lyhyen elinikänsä aikana huomattavasti, ja viimeaikaiset vakioluokkakirjastot ovat mahdollistaneet monipuolisten ja siirrettävien ohjelmistojen toteuttamisen. Vaikka Java ei sovellukaan kaikkiin tarkoituksiin, on se luotettavuutensa, siirrettävyytensä ja luokkakirjastojensa ilmaisuvoiman ansiosta hyvin houkutteleva kieli käyttöliittymien tekemiseen. Suunnittelumallit ovat merkittävä osa ammattimaista oliosuunnittelua. Ne tarjoavat valmiita ratkaisuja yleisiin suunnitteluongelmiin ja säästävät siten aikaa suunnittelu- ja toteutusvaiheissa. Suunnittelumallit voidaan jakaa kolmeen ryhmään: luontimallit, rakennemallit ja toiminnalliset mallit. Käytännön osuudessa tarkastellaan Java-käyttöliittymän toteutusta olemassa olevaan Soneran TradeXpress-tietojärjestelmään. Tässä tehtävässä Java ja suunnittelumallit ovat olleet keskeisellä sijalla. Java-käyttöliittymä, JavaGUI, koostuu kahdesta osasta: asiakasappletista ja Jrls-palvelimesta. Näiden kahden väliseen tiedonsiirtoon käytetään pääasiassa Javan RMI-yhteyskäytäntöä. Jrls-palvelin toimii asiakkaana RLS-palvelimelle erityisen RLS-yhteyskäytännön avulla.
Resumo:
Neljännen sukupolven mobiiliverkot yhdistävät saumattomasti televerkot, Internetin ja niiden palvelut. Alkuperin Internetiä käytettiin vain paikallaan pysyviltä tietokoneilta perinteisten televerkkojen tarjotessa puhelin- ja datapalveluita. Neljännen sukupolven mobiiliverkkojen käyttäjät voivat käyttää sekä Internetiin perustuvia että perinteisten televerkkojen palveluita liikkuessaankin. Tämä diplomityö esittelee neljännen sukupolven mobiiliverkon yleisen arkkitehtuurin. Arkkitehtuurin perusosat kuvaillaan ja arkkitehtuuria verrataan toisen ja kolmannen sukupolven mobiiliverkkoihin. Aiheeseen liittyvät Internet-standardit esitellään ja niiden soveltuvuutta mobiiliverkkoihin pohditaan. Langattomia, lyhyen kantaman nopeita liitäntäverkkotekniikoita esitellään. Neljännen sukupolven mobiiliverkoissa tarvittavia päätelaitteiden ja käyttäjien liikkuvuuden hallintamenetelmiä esitellään. Esitelty arkkitehtuuri perustuu langattomiin, lyhyen kantaman nopeisiin liitäntäverkkotekniikoihin ja Internet-standardeihin. Arkkitehtuuri mahdollistaa yhteydet toisiin käyttäjiin ilman tietoa heidän senhetkisestä päätelaitteesta tai sijainnista. Internetin palveluitavoidaan käyttää missä tahansa neljännen sukupolven mobiiliverkon alueella. Yleiskäytöistä liikkuvuuden hallintamenetelmää yhden verkon alueelle ehdotetaan. Menetelmää voidaan käyttää yhdessä esitellyn arkkitehtuurin kanssa.
Resumo:
Työn tavoitteena oli selvittää kaupallisen dynamiikansimulointiohjelmiston soveltuvuus roottoridynamiikan analysointiin. Työssä keskityttiin erityisesti roottorin dynamiikkaan vaikuttavien epäideaalisuuksien mallintamiseen. Simulointitulosten tarkkuutta selvitettiin mittauksilla. Lisäksi vertailtiin yleiskäyttöisen dynamiikan simulointiohjelmiston ja roottoridynamiikan erikoisohjelmiston teoriaa. Tutkittava roottori oli paperikoneen putkitela. Telan joustavuus kuvattiin elementtimenetelmällä ratkaistujen moodien avulla. Elementtimallissa huomioitiin telan vaipan seinämänpaksuusvaihtelu, joka vaikuttaa telan massa- ja jäykkyysjakaumaan. Dynamiikkaohjelmistossa mallinnettiin telan tuennasta tulevat herätteet. Dynamiikkaohjelmistona käytettiin ADAMS:ia ja FEM-ohjelmana ANSYS:stä. Tuloksista havaittiin käytetyn menetelmän soveltuvan roottoridynamiikan analysointiin ja roottorin epäideaalisuuksien mallintamiseen. Simulointimallilla saatiin esille murtolukukriittiset pyörimisnopeudet ja telan kriittinen pyörimisnopeus vastasi hyvin mittaustuloksia.
Resumo:
Työn tavoitteena oli selvittää yrityksen käytössä olevaa läpimenoajan laskentakaavaa, sekä löytää keinoja ja toimintamalleja läpimenoajan lyhentämiseen lähinnä puolivalmisteiden osalta. Taustalla on konsernin tavoitteet lyhentää läpimenoaikoja. Työ keskittyi kahteen liiketoimintayksikköön, jotka ovat rakennuslukitus ja laitelukitus. Näillä liiketoimintayksiköillä läpimenoajat ovat selvästi konsernin keskiarvoa korkeammat. Ensin selvitettiin nykytilannetta nimikeanalyysien ja haastattelujen avulla. Läpimenoajan laskentakaavan osatekijät esiteltiin. Seuraavaksi tutkittiin vaikutusmahdollisuuksia laskentakaavan osatekijöihin. Lisäksi laadittiin eräkokojen keskinäisten valmistuserien laskentaan LIMIT-tekniikalla toteutettu laskentataulukko, jota hyödyntämällä varastoissa oleviin nimikkeisiin sitoutunutta pääomaa pystytään minimoimaan. Toimenpide-ehdotuksena esitetään vuosia varastoissa seisseiden nimikkeiden hävittämistä, sekä nimikekohtaisten asetusaikojen selvittämistä ja niiden systemaattista lyhentämistä. Lisäksi ehdotetaan siirtymistä omakustannehinnoittelusta keskivarastohinnoitteluun myös puolivalmisteiden kohdalla. Tällöin laskentakaavaan syntyvät vääristymät saadaan poistettua.
Resumo:
Internet on elektronisen postin perusrakenne ja ollut tärkeä tiedonlähde akateemisille käyttäjille jo pitkään. Siitä on tullut merkittävä tietolähde kaupallisille yrityksille niiden pyrkiessä pitämään yhteyttä asiakkaisiinsa ja seuraamaan kilpailijoitansa. WWW:n kasvu sekä määrällisesti että sen moninaisuus on luonut kasvavan kysynnän kehittyneille tiedonhallintapalveluille. Tällaisia palveluja ovet ryhmittely ja luokittelu, tiedon löytäminen ja suodattaminen sekä lähteiden käytön personointi ja seuranta. Vaikka WWW:stä saatavan tieteellisen ja kaupallisesti arvokkaan tiedon määrä on huomattavasti kasvanut viime vuosina sen etsiminen ja löytyminen on edelleen tavanomaisen Internet hakukoneen varassa. Tietojen hakuun kohdistuvien kasvavien ja muuttuvien tarpeiden tyydyttämisestä on tullut monimutkainen tehtävä Internet hakukoneille. Luokittelu ja indeksointi ovat merkittävä osa luotettavan ja täsmällisen tiedon etsimisessä ja löytämisessä. Tämä diplomityö esittelee luokittelussa ja indeksoinnissa käytettävät yleisimmät menetelmät ja niitä käyttäviä sovelluksia ja projekteja, joissa tiedon hakuun liittyvät ongelmat on pyritty ratkaisemaan.
Resumo:
Työssä luodaan yleiskuva Web-palvelut -tekniikasta ja toteutetaan sen avulla kahden tietojärjestelmän integrointi. Web-palvelut on uusi toteutustekniikasta riippumaton lähestymistapa tietojärjestelmien integrointiin, organisaatioiden väliseen sähköiseen liiketoimintaan ja sovelluslogiikan hajautukseen. Työssä keskitytään Web-palveluiden alemman tason perusteknologioiden (SOAP, WSDL ja UDDI) tarkasteluun. Työn teoriaosassa määritellään Web-palvelut ja kuvataan Web-palveluiden arkkitehtuuri sekä arkkitehtuurin toteuttavat standardit. Soveltavassa osassa toteutetaan kahden tietojärjestelmän integrointi Web-palveluiden avulla. Web-palveluiden käyttöä ja luontia helpottamaan toteutettiin yleiskäyttöinen komponentti, jota voidaan käyttää myöhemmin muissa vastaavissa projekteissa. Työssä tarkastellaan Web-palveluiden käytettävyyttä organisaation tietojärjestelmien sisäisessä integroinnissa ja sovelluslogiikan hajautuksessa. Tarkastelun tuloksena todetaan, että Web-palvelut on tällä hetkellä keskeneräinen tekniikka ja soveltuu toistaiseksi vain yksinkertaisten ongelmien ratkaisemiseen. Tulevaisuudessa Web-palveluilla on kuitenkin edellytykset yleistyä sekä integroinnin että sovelluslogiikan hajautuksen perustekniikkana.
Resumo:
Reaaliaikaisten käyttöjärjestelmien käyttö sulautetuissa järjestelmissä on kasvamassa koko ajan. Sulautettuja tietokoneita käytetään yhä useammassa kohteessa kuten sähkökäyttöjen ohjauksessa. Sähkökäyttöjen ohjaus hoidetaan nykyisin yleensä nopealla digitaalisella signaaliprosessorilla (DSP), jolloin ohjelmointi ja päivittäminen on hidasta ja vaikeaa johtuen käytettävästä matalan tason Assembler-kielestä. Ratkaisuna yleiskäyttöisten prosessorien ja reaaliaikakäyttöjärjestelmien käyttö. Kaupalliset reaaliaikakäyttöjärjestelmät ovat kalliita ja lähdekoodin saaminen omaan käyttöön jopa mahdotonta. Linux on ei-kaupallinen avoimen lähdekoodin käyttöjärjestelmä, joten sen käyttö on ilmaista ja sitä voi muokata vapaasti. Linux:iin on saatavana useita laajennuksia, jotka tekevät siitä reaaliaikaisen käyttöjärjestelmän. Vaihtoehtoina joko kova (hard) tai pehmeä (soft) reaaliaikaisuus. Linux:iin on olemassa valmiita kehitysympäristöjä mutta ne kaipaavat parannusta ennen kuin niitä voidaan käyttää suuressa mittakaavassa teollisuudessa. Reaaliaika Linux ei sovellus nopeisiin ohjauslooppeihin (<100 ms) koska nopeus ei riitä vielä mutta nopeus kasvaa samalla kun prosessorit kehittyvät. Linux soveltuu hyvin rajapinnaksi nopean ohjauksen ja käyttäjän välille ja hitaampaan ohjaukseen.
Resumo:
Reusability has become more popular factor in modern software engineering. This is mainly because object-orientation has brought methods that allow reusing more easily. Today more and more application developer thinks how they can reuse already existing applications in their work. If the developer wants to use existing components outside the current project, he can use design patterns, class libraries or frameworks. These provide solution for specific or general problems that has been already encountered. Application frameworks are collection of classes that provides base for the developer. Application frameworks are mostly implementation phase tools, but can also be used in application design. The main purpose of the frameworks is separate domain specific functionalities from the application specific. Usually the frameworks are divided into two categories: black and white box. Difference between those categories is the way the reuse is done. The application frameworks provide properties that can be examined and compared between different frameworks. These properties are: extensibility, reusability, modularity and scalability. These examine how framework will handle different platforms, changes in framework, increasing demand for resources, etc. Generally application frameworks do have these properties in good level. When comparing general purpose framework and more specific purpose framework, the main difference can be located in reusability of frameworks. It is mainly because the framework designed to specific domain can have constraints from external systems and resources. With general purpose framework these are set by the application developed based on the framework.