995 resultados para software components
Resumo:
The Free Open Source Software (FOSS) seem far from the military field but in some cases, some technologies normally used for civilian purposes may have military applications. These products and technologies are called dual-use. Can we manage to combine FOSS and dual-use products? On one hand, we have to admit that this kind of association exists - dual-use software can be FOSS and many examples demonstrate this duality - but on the other hand, dual-use software available under free licenses lead us to ask many questions. For example, the dual-use export control laws aimed at stemming the proliferation of weapons of mass destruction. Dual-use export in United States (ITAR) and Europe (regulation 428/2009) implies as a consequence the prohibition or regulation of software exportation, involving the closing of source code. Therefore, the issues of exported softwares released under free licenses arises. If software are dual-use goods and serve for military purposes, they may represent a danger. By the rights granted to licenses to run, study, redistribute and distribute modified versions of the software, anyone can access the free dual-use software. So, the licenses themselves are not at the origin of the risk, it is actually linked to the facilitated access to source codes. Seen from this point of view, it goes against the dual-use regulation which allows states to control these technologies exportation. For this analysis, we will discuss about various legal questions and draft answers from either licenses or public policies in this respect.
Resumo:
Today, most software development teams use free and open source software (FOSS) components, because it increases the speed and the quality of the development. Many open source components are the de facto standard of their category. However, FOSS has licensing restrictions, and corporate organizations usually maintain a list of allowed and forbidden licenses. But how do you enforce this policy? How can you make sure that ALL files in your source depot, either belong to you, or fit your licensing policy? A first, preventive approach is to train and increase the awareness of the development team to these licensing issues. Depending on the size of the team, it may be costly but necessary. However, this does not ensure that a single individual will not commit a forbidden icon or library, and jeopardize the legal status of the whole release... if not the company, since software is becoming more and more a critical asset. Another approach is to verify what is included in the source repository, and check whether it belongs to the open-source world. This can be done on-the-fly, whenever a new file is added into the source depot. It can also be part of the release process, as a verification step before publishing the release. In both cases, there are some tools and databases to automate the detection process. We will present the various options regarding FOSS detection, how this process can be integrated in the "software factory", and how the results can be displayed in a usable and efficient way.
Resumo:
We describe a series of experiments in which we start with English to French and English to Japanese versions of an Open Source rule-based speech translation system for a medical domain, and bootstrap correspondign statistical systems. Comparative evaluation reveals that the rule-based systems are still significantly better than the statistical ones, despite the fact that considerable effort has been invested in tuning both the recognition and translation components; also, a hybrid system only marginally improved recall at the cost of a los in precision. The result suggests that rule-based architectures may still be preferable to statistical ones for safety-critical speech translation tasks.
Resumo:
The application of adaptive antenna techniques to fixed-architecture base stations has been shown to offer wide-ranging benefits, including interference rejection capabilities or increased coverage and spectral efficiency.Unfortunately, the actual implementation ofthese techniques to mobile communication scenarios has traditionally been set back by two fundamental reasons. On one hand, the lack of flexibility of current transceiver architectures does not allow for the introduction of advanced add-on functionalities. On the other hand, theoften oversimplified models for the spatiotemporal characteristics of the radio communications channel generally give rise toperformance predictions that are, in practice, too optimistic. The advent of software radio architectures represents a big step toward theintroduction of advanced receive/transmitcapabilities. Thanks to their inherent flexibilityand robustness, software radio architecturesare the appropriate enabling technology for theimplementation of array processing techniques.Moreover, given the exponential progression ofcommunication standards in coexistence andtheir constant evolution, software reconfigurabilitywill probably soon become the only costefficientalternative for the transceiverupgrade. This article analyzes the requirementsfor the introduction of software radio techniquesand array processing architectures inmultistandard scenarios. It basically summarizesthe conclusions and results obtained withinthe ACTS project SUNBEAM,1 proposingalgorithms and analyzing the feasibility ofimplementation of innovative and softwarereconfigurablearray processing architectures inmultistandard settings.
Resumo:
The software development industry is constantly evolving. The rise of the agile methodologies in the late 1990s, and new development tools and technologies require growing attention for everybody working within this industry. The organizations have, however, had a mixture of various processes and different process languages since a standard software development process language has not been available. A promising process meta-model called Software & Systems Process Engineering Meta- Model (SPEM) 2.0 has been released recently. This is applied by tools such as Eclipse Process Framework Composer, which is designed for implementing and maintaining processes and method content. Its aim is to support a broad variety of project types and development styles. This thesis presents the concepts of software processes, models, traditional and agile approaches, method engineering, and software process improvement. Some of the most well-known methodologies (RUP, OpenUP, OpenMethod, XP and Scrum) are also introduced with a comparison provided between them. The main focus is on the Eclipse Process Framework and SPEM 2.0, their capabilities, usage and modeling. As a proof of concept, I present a case study of modeling OpenMethod with EPF Composer and SPEM 2.0. The results show that the new meta-model and tool have made it possible to easily manage method content, publish versions with customized content, and connect project tools (such as MS Project) with the process content. The software process modeling also acts as a process improvement activity.
Resumo:
Työn tavoitteena oli selvittää ja varmistaa uuden pakkauskoneen riittävä käyttövarmuus. Käyttövarmuuden selvittämistä varten tutustuttiin käyttövarmuuden käsitteisiin jatunnuslukuihin, sekä selvitettiin kunnossapidon merkitystä käyttövarmuuteen. Pakkauskoneen käyttövarmuutta analysoitiin vikapuumallin avulla. Analysointia varten laadittu vikapuumalli koostuu 391 perustapahtumasta ja yhteensä 629 tapahtumasta. Käyttövarmuusanalyysi suoritettiin kvalitatiivisesti ja kvantitatiivisesti. Analysointi painottuu kuitenkin kvantitatiiviseen simulointiin. Käyttövarmuusanalysoinnin apuna käytettiin simulointiohjelmaa. Käyttövarmuusvaatimukseksi asetettiin 99 % käytettävyys vuoden käyttöjakson aikana. Vikapuuanalyysin tuloksena saatiin arvio pakkauskoneen kokonaiskäytettävyydestä. Kokonaiskäytettävyydeksi muodostui 96,44 %, joka ei täytä käyttövarmuusvaatimusta. Yksittäisistä komponenttityypeistä epäluotettavimpia olivat liimalaitteiston ja paineilmajärjestelmän komponentit. Analysointityökalun avulla voitiin osoittaa käyttövarmuutta parantavien osatekijöiden vaikutukset saatuun kokonaiskäytettävyyteen. Käyttövarmuuteen voitiin vaikuttaa kunnossapidon avulla, lyhentämällä korjausaikaa ja varmentamalla komponentteja. Esitettyjen keinojen avulla käytettävyyttä on mahdollista nostaa n. 2,18 prosenttiyksikköä. Toimenpidesuositukset esitettiin saatujen tulosten ja työssä havainnoitujen asioiden perusteella. Käytettävyyden parantamiseksi ja varmistamiseksi suositetaan oikeanlaisia kunnossapitotoimenpiteitä, tehokkaan vikadiagnostiikan rakentamista sekä antureiden varmentamista. Käyttökunnonvalvonta suositetaan suoritettavaksi määräaikaistarkastuksina. Käyttökuntoa on aloitettava seuraamaan pidemmällä aikavälillä tapahtuvina häiriöraportointeina. Lisäksi tulevaisuudessa on vaadittava käyttövarmuustakuut toimittajilta laitehankintojen yhteydessä.
Resumo:
Diplomityössä on tutkittu sähköisellä potkurijärjestelmällä varustetun laivan voimalaitoksen ja jännitevälipiirillisen propulsiokäytön vuorovaikutusta laivan hätäpysäytyksen aikana. Työssä on kehitetty simulointimalleja jännitevälipiirillisten sähkökäyttöjen simuloimiseksi Saber -simulontiohjelmistolla.Työn alkuosassa esitetään lyhyt yhteenveto laivan sähköisestä potkurijärjestelmästä komponentteineen, käsitellään laivan hätäpysäytyksen teoriaa sekä simuloinneissa huomioonotettavia laivan ja potkurin hydrodynaamisia ominaisuuksia. Työssä käytettävän simulointiohjelmiston toimintaa selvitetään lyhyesti. Jännitevälipiirillisellä propulsiokäytöllä varustetun laivan hätäpysäytyksen simulointimalli esitellään kokonaisuudessaan ja käsitellään simulointimallin sisältämien osakokonaisuuksien teoriaa ja toimintaa. Kehitetyn simulointimallin toimintaa on tarkasteltu vertaamalla tuloksia vastaavansyklokonvertterikäytöllä varustetun laivan simulointituloksiin sekä vertaamallasimulointituloksia laivan merikoeajon yhteydessä tehtyihin mittauksiin. Simulointitulokset vastasivat teoriaa sekä mittaustuloksia varsin hyvin. Voimalaitoksenosalta ei mittaustuloksia ollut käytettävissä, mutta simulointitulokset ovat teorian mukaisia.
Resumo:
Diplomityössä tutkitaan keinoja brändätä ja varioida S60-ohjelmistoja dynaamisesti ja ajonaikaisesti. S60 on kehitysalusta, jota käyttävät useat puhelinvalmistajat ja heidän puhelimiaan käyttävät lukuisat eri operaattorit. Operaattorit haluavat puhelimiensa tai osan puhelimen sovelluksista erottuvan kilpailijoista heidän omalla brändillään ja tämän takia täytyy olla keinot joko koko puhelimen, tai valittujen sovellusten brändäykselle. Osa sovelluksista saatetaan haluta vaihtavan käytettyä brändiä sen käyttämien resurssien, kuten verkkopalvelimen, mukaan. Variointidataa tulee myös pystyä jakamaan eri sovellusten tai sovellusten osien kesken. Työssä esitellään Symbian käyttöjärjestelmä ja S60 kehitysympäristö, sekä pohditaan Symbianin turvallisuuskäytäntöjen tuomia haasteita variointidatan jakamiseen eri sovellusten välillä. Olemassaolevia variointitapoja tutkitaan työn mahdolliseksi pohjaksi. Työ sisältää esittelyn projektista, jossa kehitettiin erään S60 sovelluksen dynaaminen brändäystoteutus, joka myös mahdollistaa variointidatan jakamisen eri sovellusten kanssa.
Resumo:
Tietokonejärjestelmän osien ja ohjelmistojen suorituskykymittauksista saadaan tietoa,jota voidaan käyttää suorituskyvyn parantamiseen ja laitteistohankintojen päätöksen tukena. Tässä työssä tutustutaan suorituskyvyn mittaamiseen ja mittausohjelmiin eli ns. benchmark-ohjelmistoihin. Työssä etsittiin ja arvioitiin eri tyyppisiä vapaasti saatavilla olevia benchmark-ohjelmia, jotka soveltuvat Linux-laskentaklusterin suorituskyvynanalysointiin. Benchmarkit ryhmiteltiin ja arvioitiin testaamalla niiden ominaisuuksia Linux-klusterissa. Työssä käsitellään myös mittausten tekemisen ja rinnakkaislaskennan haasteita. Benchmarkkeja löytyi moneen tarkoitukseen ja ne osoittautuivat laadultaan ja laajuudeltaan vaihteleviksi. Niitä on myös koottu ohjelmistopaketeiksi, jotta laitteiston suorituskyvystä saisi laajemman kuvan kuin mitä yhdellä ohjelmalla on mahdollista saada. Olennaista on ymmärtää nopeus, jolla dataa saadaan siirretyä prosessorille keskusmuistista, levyjärjestelmistä ja toisista laskentasolmuista. Tyypillinen benchmark-ohjelma sisältää paljon laskentaa tarvitsevan matemaattisen algoritmin, jota käytetään tieteellisissä ohjelmistoissa. Benchmarkista riippuen tulosten ymmärtäminen ja hyödyntäminen voi olla haasteellista.
Resumo:
Due to the large number of characteristics, there is a need to extract the most relevant characteristicsfrom the input data, so that the amount of information lost in this way is minimal, and the classification realized with the projected data set is relevant with respect to the original data. In order to achieve this feature extraction, different statistical techniques, as well as the principal components analysis (PCA) may be used. This thesis describes an extension of principal components analysis (PCA) allowing the extraction ofa finite number of relevant features from high-dimensional fuzzy data and noisy data. PCA finds linear combinations of the original measurement variables that describe the significant variation in the data. The comparisonof the two proposed methods was produced by using postoperative patient data. Experiment results demonstrate the ability of using the proposed two methods in complex data. Fuzzy PCA was used in the classificationproblem. The classification was applied by using the similarity classifier algorithm where total similarity measures weights are optimized with differential evolution algorithm. This thesis presents the comparison of the classification results based on the obtained data from the fuzzy PCA.
Resumo:
Reproductive division of labor and the coexistence of distinct castes are hallmarks of insect societies. In social insect species with multiple queens per colony, the fitness of nestmate queens directly depends on the process of caste allocation (i.e., the relative investment in queen, sterile worker and male production). The aim of this study is to investigate the genetic components to the process of caste allocation in a multiple-queen ant species. We conducted controlled crosses in the Argentine ant Linepithema humile and established single-queen colonies to identify maternal and paternal family effects on the relative production of new queens, workers, and males. There were significant effects of parental genetic backgrounds on various aspects of caste allocation: the paternal lineage affected the proportion of queens and workers produced whereas the proportions of queens and males, and females and males were influenced by the interaction between parental lineages. In addition to revealing nonadditive genetic effects on female caste determination in a multiple-queen ant species, this study reveals strong genetic compatibility effects between parental genomes on caste allocation components.
Resumo:
Työn päätavoitteena oli tuoda esiin tärkeimmät julkistamisprosessin tehokkuuteen vaikuttavat tekijät. Tutkimuksessa tarkasteltiin aihetta julkistamisprojektien vetäjän näkökulmasta. Kirjallinen selvitys kattaa keskeisimmät ohjelmistoprosessin, palvelun laadun sekä projektihallinnan teoriat. Kokeellisena aineistona käytettiin asiakkailta ja myynnin sekä käyttöönoton organisaatioilta tullutta palautetta ja asiantuntijahaastatteluita. Case-tuotteena tarkasteltiin suuren kansainvälisen yrityksen jälleenmyymää leikkaussalihallinnan ohjelmistoa. Tärkeimpiä julkistamisprosessin tehokkuuteen vaikuttavia tekijöitä ovat tiekartan ja julkistamispakettien sisällön hallinta, projektin aikataulujen pitäminen, rehellinen ja nopea kommunikaatio myyntikanavaan ja asiakkaille, sekä hyvin toteutettu testaus. Työssä käydään läpi esimerkkistrategioita kehittymiseen näillä alueilla.
Resumo:
Globalization of software today is making many companies in the industrialized nations to outsource their work to low-wage countries. This thesis aims at obtaining an initial general overview of offshore software development in Africa. It seeks to explore the state of offshore software outsourcing in Africa with a focus on the factors contributing to the successes and challenges of offshore software development practicesin Africa. The thesis made use of electronic questionnaires and voice interviews to collect the data. Identified African vendors were interviewed, and the data was analyzed qualitatively. The study found that theAfrican software outsourcing industry is still at its infancy. It is expected that the industry will grow. However, a lot needs to be done, and African governments are called upon to actively implement supportive infrastructures that will promote the growth of the local and export software industries. Further research is recommended to cover the wide context ofthe topic.
Resumo:
Tässä diplomityössä tutkitaan automatisoitua testausta ja käyttöliittymätestauksen tekemistä helpommaksi Symbian-käyttöjärjestelmässä. Työssä esitellään Symbian ja Symbian-sovelluskehityksessä kohdattavia haasteita. Lisäksi kerrotaan testausstrategioista ja -tavoista sekä automatisoidusta testaamisesta. Lopuksi esitetään työkalu, jolla testitapausten luominen toiminnalisuus- ja järjestelmätestaukseen tehdään helpommaksi. Graafiset käyttöliittymättuovat ainutlaatuisia haasteita ohjelmiston testaamiseen. Ne tehdään usein monimutkaisista komponenteista ja niitä suunnitellaan jatkuvasti uusiksi ohjelmistokehityksen aikana. Graafisten käyttöliittymien testaukseen käytetään usein kaappaus- ja toistotyökaluja. Käyttöliittymätestauksen testitapausten suunnittelu ja toteutus vaatii paljon panostusta. Koska graafiset käyttöliittymät muodostavat suuren osan koodista, voitaisiin säästää paljon resursseja tekemällä testitapausten luomisesta helpompaa. Käytännön osuudessa toteutettu projekti pyrkii tähän tekemällä testiskriptien luomisesta visuaalista. Näin ollen itse testien skriptikieltä ei tarvitse ymmärtää ja testien hahmottaminen on myös helpompaa.