947 resultados para Factory of software
Resumo:
Tässä kandidaatintyössä tutkitaan MIG/MAG-hitsauksessa käytettävien ohjelmistoratkaisujen kuumakaarihitsaukseen tuomia etuja perinteisiin menetelmiin verrattuna. Pääpaino on hitsausnopeuden, tunkeuman ja laadun tarkastelussa. Hitsauskokeissa käytettävät menetelmät ovat perinteinen 1-MIG-kuumakaarihitsaus ja 1-MIG-kuumakaarihitsaus Kemppi WiseFusion toiminnolla.
Resumo:
The goal of this study was to explore and understand the definition of technical debt. Technical debt refers to situation in a software development, where shortcuts or workarounds are taken in technical decision. However, the original definition has been applied to other parts of software development and it is currently difficult to define technical debt. We used mapping study process as a research methodology to collect literature related to the research topic. We collected 159 papers that referred to original definition of technical debt, which were retrieved from scientific literature databases to conduct the search process. We retrieved 107 definitions that were split into keywords. The keyword map is one of the main results of this work. Apart from that, resulting synonyms and different types of technical debt were analyzed and added to the map as branches. Overall, 33 keywords or phrases, 6 synonyms and 17 types of technical debt were distinguished.
Resumo:
Ohjelmistotestauksen merkitys on kasvanut sen mukaan mitä enemmän ohjelmisto-tuotteet vaikuttavat jokapäiväisesseen elämämme. Tämän vuoksi yritysten investointien ja laadunvarmentamisen yhteys on ilmeinen. Organisaatiot panostavat yhä enemmän ei–funktionaaliseen testaukseen, kuten turvallisuuden, suorituskyvyn ja käytettävyyden testaamiseen. Tämän työn tarkoituksena on tutkia ohjelmistotestauksen nykytilannetta Suomessa. Syy tähän on uudistaa ja parantaa ohjelmistotestauksen kurssitarjontaa Turun yliopistossa vastaamaan parhaalla mahdollisella tavalla yritysten tarvetta. Opinnäyte on toteutettu replikaatio-tutkimuksena. Pääosa kyselystä sisältää kysymyksiä ohjelmistotestauksen menetelmistä ja työkaluista testausprosessin toimintojen aikana. Lisäksi on yleisiä kysymyksiä yrityksistä ja niiden ohjelmistotestausympäristöistä. Kyselyssä otetaan myös kantaa yritysten käyttämiin monenlaisiin testaus-tasoihin, -tyyppeihin ja testauksessa kohdattuihin haasteisiin. Tämä opinnäyte perustuu testausprosessistandardeihin. Ohjelmistotestausstandardit ovat keskeisessä asemassa tässä työssä, vaikka ne ovat olleet viime aikoina vahvan kritiikin kohteena. Epäilys standardien välttämättömyyteen on syntynyt muutoksista ohjelmistokehityksessä. Tämä työ esittelee tulokset ohjelmistotestauksen käytännöistä. Tuloksia on verrattu aiheeseen liittyvän aiemman kyselyn (Lee, Kang, & Lee, 2011) tuloksiin. Ajanpuutteen havaitaan olevan suuri haaste ohjelmistotestauksessa. Ketterä ohjelmistokehitys on saavuttanut suosiota kaikissa vastaajien yrityksissä. Testauksen menetelmät ja työkalut testauksen arviointiin, suunnitteluun ja raportointiin ovat hyvin vähäisessä käytössä. Toisaalta testauksen menetelmien ja työkalujen käyttö automaattiseen testauksen toteuttamiseen ja virheiden hallintaan on lisääntynyt. Järjestelmä-, hyväksyntä-, yksikkö- ja integraatiotestaus ovat käytössä kaikkien vastaajien edustamissa yrityksissä. Kaikkien vastaajien mielestä regressio- sekä tutkiva- ja ei-funktionaalinen testaus ovat tärkeitä tekniikoita.
Resumo:
Tämän työn tarkoituksena oli kehittää suorituskykymittariston rakentamisen malli, jossa otetaan huomioon PK-yrityksen sekä ohjelmistokehitystyön erityispiirteet. Työssä käytiin ensin läpi teoriaa aiheesta, jonka jälkeen rakennettiin mittaristo kohdeyritykseen. Näiden pohjalta rakennettiin malli, jonka avulla PK-ohjelmistoyrityksen tuotekehitysorganisaatiolle voidaan rakentaa toimiva suorituskyvyn mittaristo. Tutkimusote on konstruktiivinen. Työssä tarkasteltiin suorituskyvyn määritelmän ja mittaamisen kehitystä. Käytiin läpi erilaisia olemassa olevia tasapainotettuja malleja sekä hyvien mittareiden ominaisuuksia. Teoriassa tutustuttiin myös PK-yritysten mittaamiseen, asiantuntijoiden mittaamisen erityispiirteisiin sekä ohjelmistotyön erityispiirteisiin. Tuloksena syntyi malli, jossa tasapaino syntyi eri näkökulmien kautta, mutta myös subjektiivisten ja objektiivisten mittareiden kautta. Mallin mukaan syntyneillä objektiivisilla ja subjektiivisilla mittareilla on eri käyttötarkoitukset. Kuten teoriassakin havaittiin, subjektiiviset mittarit sopivat paremmin johtoryhmän raportointiin, kun taas objektiiviset mittarit ovat toimivampia asiantuntijoiden mittaamisessa.
Resumo:
Tavoite on selvittää hinnoittelupäätöksien noudattamista ohjelmistoliiketoimintaa harjoittavassa yrityksessä. Lisäksi syitä noudattamiseen ja noudattamatta jättämiseen sekä asiakkaiden hinnoittelutoiveisiin selvitettiin. Teoriassa esitellään kolmea hinnoittelumallia, kuinka näitä malleja käytetään käytännössä? Teoriaosuudessa käsitellään hintaa, hinnoittelua, hinnoittelumalleja ja ohjelmistoliiketoiminnan piirteitä. Empiirisessä osassa tehdään laadullista tutkimusta henkilökohtaisilla puolistrukturoiduilla haastatteluilla, joista kerätään tarjousten kanssa tutkimuksen aineisto. Tutkimusmateriaalin pohjalta vastataan tutkimuskysymyksiin. Vaikka käytännöt olisivat valideja, mutta mikäli hintoja ei nähdä järkevinä, käytännöistä on joustettava. Kohdetuotteilla pitäisi myös olla yhtäläiset hinnoittelumallit. Pääsyyksi käytännöistä joustamiseen nähtiin kohdeasiakkaan olevan avainasiakas tai kilpailijan tarjouksen voittaminen.
Resumo:
Tämä diplomityö tehtiin Sampo-Rosenlewin Porin tehtaan toimeksiannosta. Työn tavoitteena oli kehittää ympäristö- ja turvallisuustoimintaa tehtaalla. Ympäristö- ja turvallisuustoimintaa kehitettiin luomalla toimintajärjestelmä sekä valitsemalla riskienhallintamenetelmä POA. Uusien työkalujen tuonti mukaan toimintakulttuuriin todettiin haastavaksi, sillä turvallisuus- ja ympäristökulttuuri on vielä matalalla tasolla. Ympäristö- ja turvallisuustoiminnan tasoa ja hallintakeinoja tutkittiin benchmarkkaamalla kolmea saman kokoluokan teollisuusyritystä ja keräämällä hyväksi todettuja metodeja toimintajärjestelmään. Sampo-Rosenlew on Porissa sijaitseva konepaja, joka valmistaa leikkuupuimureita ja metsäkoneita. Sampo-Rosenlew käyttää konepajana paljon kemikaaleja johtuen kolmesta maalaamostaan. Työn tavoitteena oli parantaa Sampo-Rosenlewin ympäristö- ja turvallisuusasioiden nykyistä tilaa erilaisten työkalujen avulla, joita yritykselle luotiin. Työssä kehitettiin Sampo-Rosenlewille toimintajärjestelmä ISO 14001 ympäristöjärjestelmästandardia ja OHSAS 18001 TTT- järjestelmästandardia mukaillen. Luotu toimintajärjestelmä on tulevaisuudessa tavoitteena sertifioida. Valittua riskianalyysimenetelmä POA:aa tullaan pilottivaiheessa testaamaan aluksi yrityksen maalaamoissa. Toimintajärjestelmä ja riskienhallintamenetelmä pyrittiin luomaan mahdollisimman yksinkertaiseksi, selkeäksi ja helpoksi kehittää. Näiden menetelmien käyttöönoton onnistumiseen vaikuttavat nykyinen toimintakulttuuri ja ylimmän johdon sitoutuminen asiaan. Järjestelmän käyttöönoton myötä on tavoitteena Sampo-Rosenlewin dokumentoinnin tason parantaminen ja kilpailukyvyn tehostaminen.
Resumo:
Formal verification of software can be an enormous task. This fact brought some software engineers to claim that formal verification is not feasible in practice. One possible method of supporting the verification process is a programming language that provides powerful abstraction mechanisms combined with intensive reuse of code. In this thesis we present a strongly typed functional object-oriented programming language. This language features type operators of arbitrary kind corresponding to so-called type protocols. Sub classing and inheritance is based on higher-order matching, i.e., utilizes type protocols as basic tool for reuse of code. We define the operational and axiomatic semantics of this language formally. The latter is the basis of the interactive proof assistant VOOP (Verified Object-Oriented Programs) that allows the user to prove equational properties of programs interactively.
Resumo:
Les auteurs présentent un survol des logiciels de portails de bibliothèque. La notion de portail de bibliothèque est d’abord définie, puis les principales fonctionnalités de ce type de produit (métarecherche, personnalisation, authentification) sont présentées et expliquées. Un aperçu du marché des logiciels de portail est ensuite donné. Des questions reliées à la fiabilité des résultats et à la formation des utilisateurs sont également soulevées. // The authors present a brief review of software for library portals. The concept of library portals is defined and their main functionalities subsequently presented and explained (meta search engines, personalization, authentication). A general survey of the market for portal software is given before addressing certain questions about the reliability of their results and user training.
Resumo:
Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maîtrise en droit (L.LM.)
Resumo:
Le présent mémoire a pour ambition d'analyser la nature juridique et les particularismes du contrat de progiciel. Dans une première partie, nous examinerons les obligations mises à la charge des parties puis nous tenterons de qualifier le contrat de progiciel au regard du droit civil. Dans une seconde partie, nous examinerons la formation du contrat de progiciel dans un environnement traditionnel puis dans les environnements électroniques. Nous aborderons plus particulièrement deux nouveaux modes de formation des contrats, que sont les mécanismes du «shrink-wrap» et du «click-wrap». Nous analyserons ensuite les clauses limitatives ou exonératoire de garantie et de responsabilité, la clause d'élection de for et les clauses relatives à la propriété intellectuelle.
Resumo:
La méthode ChIP-seq est une technologie combinant la technique de chromatine immunoprecipitation avec le séquençage haut-débit et permettant l’analyse in vivo des facteurs de transcription à grande échelle. Le traitement des grandes quantités de données ainsi générées nécessite des moyens informatiques performants et de nombreux outils ont vu le jour récemment. Reste cependant que cette multiplication des logiciels réalisant chacun une étape de l’analyse engendre des problèmes de compatibilité et complique les analyses. Il existe ainsi un besoin important pour une suite de logiciels performante et flexible permettant l’identification des motifs. Nous proposons ici un ensemble complet d’analyse de données ChIP-seq disponible librement dans R et composé de trois modules PICS, rGADEM et MotIV. A travers l’analyse de quatre jeux de données des facteurs de transcription CTCF, STAT1, FOXA1 et ER nous avons démontré l’efficacité de notre ensemble d’analyse et mis en avant les fonctionnalités novatrices de celui-ci, notamment concernant le traitement des résultats par MotIV conduisant à la découverte de motifs non détectés par les autres algorithmes.
Resumo:
La compréhension de la structure d’un logiciel est une première étape importante dans la résolution de tâches d’analyse et de maintenance sur celui-ci. En plus des liens définis par la hiérarchie, il existe un autre type de liens entre les éléments du logiciel que nous appelons liens d’adjacence. Une compréhension complète d’un logiciel doit donc tenir compte de tous ces types de liens. Les outils de visualisation sont en général efficaces pour aider un développeur dans sa compréhension d’un logiciel en lui présentant l’information sous forme claire et concise. Cependant, la visualisation simultanée des liens hiérarchiques et d’adjacence peut donner lieu à beaucoup d’encombrement visuel, rendant ainsi ces visualisations peu efficaces pour fournir de l’information utile sur ces liens. Nous proposons dans ce mémoire un outil de visualisation 3D qui permet de représenter à la fois la structure hiérarchique d’un logiciel et les liens d’adjacence existant entre ses éléments. Notre outil utilise trois types de placements différents pour représenter la hiérarchie. Chacun peut supporter l’affichage des liens d’adjacence de manière efficace. Pour représenter les liens d’adjacence, nous proposons une version 3D de la méthode des Hierarchical Edge Bundles. Nous utilisons également un algorithme métaheuristique pour améliorer le placement afin de réduire davantage l’encombrement visuel dans les liens d’adjacence. D’autre part, notre outil offre un ensemble de possibilités d’interaction permettant à un usager de naviguer à travers l’information offerte par notre visualisation. Nos contributions ont été évaluées avec succès sur des systèmes logiciels de grande taille.
Resumo:
La plupart des travaux portant sur l’usage du français en milieu de travail tendent à adopter une perspective métrologique qui vise à cerner les déterminants de l’utilisation du français en milieu de travail. Dans ce mémoire, nous cherchons à changer d’optique en envisageant non pas d’expliquer les déterminants de l’usage principal du français en milieu de travail, mais à connaitre les principaux contextes auxquels les personnes se réfèrent pour déclarer le français comme langue principale de travail. Nous faisons en effet l’hypothèse que le fait de déclarer le français comme langue principale de travail est le résultat d’une synthèse de pratiques linguistiques contextuelles distinctes. Pour répondre à cet objectif de recherche, nous mobilisons les données d’une enquête de l’Office québécois de la langue française réalisée en 2007. Au sein de l’ensemble des contextes de travail pris en compte dans cette enquête, nous avons choisi cinq contextes : la réunion de travail, la lecture de documents produits par l’entreprise, le fait de communiquer avec l’extérieur, le fait de communiquer avec le ou les supérieurs immédiats et l’utilisation des technologies de l’information. Ainsi, nous nous sommes limités d’abord à l’étude d’un certain nombre de contextes qui touchent presqu’à l’ensemble des travailleurs particulièrement ceux qui ont à communiquer avec des supérieurs, à lire des documents produits par leur entreprise, à participer régulièrement à des réunions de travail, puis nous abordons des contextes plus spécifiques et qui touchent à un nombre plus faible de travailleurs tels : ceux qui ont à utiliser des logiciels et enfin à communiquer avec l’extérieur. Notre analyse révèle que, au-delà des caractéristiques individuelles et du contexte général du milieu de travail, ces usages contextuels des langues en milieu de travail prédisent mieux la déclaration de la langue de travail des travailleurs. Quand il s’agit de déclarer la langue principale de travail, les travailleurs semblent principalement faire référence à la langue qu’ils utilisent dans les réunions de travail, dans la langue de lecture des documents produits par l’entreprise, dans les communications avec les supérieurs immédiats ainsi qu’aux versions linguistiques des logiciels utilisés et des communications avec des clients et fournisseurs de l’extérieur du Québec.
Resumo:
One of the fastest expanding areas of computer exploitation is in embedded systems, whose prime function is not that of computing, but which nevertheless require information processing in order to carry out their prime function. Advances in hardware technology have made multi microprocessor systems a viable alternative to uniprocessor systems in many embedded application areas. This thesis reports the results of investigations carried out on multi microprocessors oriented towards embedded applications, with a view to enhancing throughput and reliability. An ideal controller for multiprocessor operation is developed which would smoothen sharing of routines and enable more powerful and efficient code I data interchange. Results of performance evaluation are appended.A typical application scenario is presented, which calls for classifying tasks based on characteristic features that were identified. The different classes are introduced along with a partitioned storage scheme. Theoretical analysis is also given. A review of schemes available for reducing disc access time is carried out and a new scheme presented. This is found to speed up data base transactions in embedded systems. The significance of software maintenance and adaptation in such applications is highlighted. A novel scheme of prov1d1ng a maintenance folio to system firmware is presented, alongwith experimental results. Processing reliability can be enhanced if facility exists to check if a particular instruction in a stream is appropriate. Likelihood of occurrence of a particular instruction would be more prudent if number of instructions in the set is less. A new organisation is derived to form the basement for further work. Some early results that would help steer the course of the work are presented.
Resumo:
Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.This dissertation contributes to an architecture oriented code validation, error localization and optimization technique assisting the embedded system designer in software debugging, to make it more effective at early detection of software bugs that are otherwise hard to detect, using the static analysis of machine codes. The focus of this work is to develop methods that automatically localize faults as well as optimize the code and thus improve the debugging process as well as quality of the code.Validation is done with the help of rules of inferences formulated for the target processor. The rules govern the occurrence of illegitimate/out of place instructions and code sequences for executing the computational and integrated peripheral functions. The stipulated rules are encoded in propositional logic formulae and their compliance is tested individually in all possible execution paths of the application programs. An incorrect sequence of machine code pattern is identified using slicing techniques on the control flow graph generated from the machine code.An algorithm to assist the compiler to eliminate the redundant bank switching codes and decide on optimum data allocation to banked memory resulting in minimum number of bank switching codes in embedded system software is proposed. A relation matrix and a state transition diagram formed for the active memory bank state transition corresponding to each bank selection instruction is used for the detection of redundant codes. Instances of code redundancy based on the stipulated rules for the target processor are identified.This validation and optimization tool can be integrated to the system development environment. It is a novel approach independent of compiler/assembler, applicable to a wide range of processors once appropriate rules are formulated. Program states are identified mainly with machine code pattern, which drastically reduces the state space creation contributing to an improved state-of-the-art model checking. Though the technique described is general, the implementation is architecture oriented, and hence the feasibility study is conducted on PIC16F87X microcontrollers. The proposed tool will be very useful in steering novices towards correct use of difficult microcontroller features in developing embedded systems.