953 resultados para Reverse engineering processes
Resumo:
When combined at particular molar fractions, sugars, aminoacids or organic acids a present a high melting point depression, becoming liquids at room temperature. These are called Natural Deep Eutectic Solvents – NADES and are envisaged to play a major role on the chemical engineering processes of the future. Nonetheless, there is a significant lack of knowledge of its fundamental and basic properties, which is hindering their industrial applications. For this reason it is important to extend the knowledge on these systems, boosting their application development [1]. In this work, we have developed and characterized NADES based on choline chloride, organic acids, amino acids and sugars. Their density, thermal behavior, conductivity and polarity were assessed for different compositions. The conductivity was measured from 0 to 40 °C and the temperature effect was well described by the Vogel-Fulcher-Tammann equation. The morphological characterization of the crystallizable materials was done by polarized optical microscopy that provided also evidence of homogeneity/phase separation. Additionally, the rheological and thermodynamic properties of the NADES and the effect of water content were also studied. The results show these systems have Newtonian behavior and present significant viscosity decrease with temperature and water content, due to increase on the molecular mobility. The anhydrous systems present viscosities that range from higher than 1000Pa.s at 20°C to less than 1Pa.s at 70°C. DSC characterization confirms that for water content as high as 1:1:1 molar ratio, the mixture retains its single phase behavior. The results obtained demonstrate that the NADES properties can be finely tunned by careful selection of its constituents. NADES present the necessary properties for use as extraction solvents. They can be prepared from inexpensive raw materials and tailored for the selective extraction of target molecules. The data produced in this work is hereafter importance for the selection of the most promising candidates avoiding a time consuming and expensive trial and error phase providing also data for the development of models able to predict their properties and the mechanisms that allow the formation of the deep eutectic mixtures.
Resumo:
Useiden pitkän kehityskaaren ohjelmistojen ylläpitäminen ja kehittäminen on vaikeaa, sillä niiden dokumentaatio on vajaata tai vanhentunutta. Tässä diplomityössä etsitään ratkaisua tällaisen ohjelmiston ja sen taustalla olevan järjestelmän kuvaukseen. Tavoitteina on tukea nykyisen ohjelmiston ylläpitoa ja uuden työvoiman perehdyttämistä. Tavoitteena on myös pohjustaa uuden korvaavan ohjelmiston suunnittelua kuvaamalla nykyiseen järjestelmään sitoutunutta sovellusalueosaamista. Työssä kehitetään kuvausmenetelmä järjestelmän kuvaamiseen hierarkkisesti laitteistotason yleiskuvauksesta ohjelmiston luokkarakenteeseen sekä toiminnallisuuteen asti. Laite- ja luokkarakennekuvaukset ovat rakenteellisia kuvauksia, joiden tehtävänä on selittää järjestelmän ja sen osien kokoonpano. Toiminnallisuudesta kertovat kuvaukset on toteutettu käyttötapauskuvauksina. Työssä keskityttiin erityisesti kohdejärjestelmän keskeisen ohjelmiston ja tietokannan kuvaamiseen. Ohjelmistosta valittiin tärkeimmät ja eniten sovellusalueen tietotaitoa sisältävät osat, joista työssä luotiin esimerkkikuvaukset. Kuvauksia on kehitettyä menetelmää hyödyntäen helppo laajentaa tarpeiden mukaan paitsi ohjelmiston muihin osiin, myös laitteiston ja järjestelmän kuvaamiseen kokonaisuudessaan syvemmin.
Resumo:
The nature of client-server architecture implies that some modules are delivered to customers. These publicly distributed commercial software components are under risk, because users (and simultaneously potential malefactors) have physical access to some components of the distributed system. The problem becomes even worse if interpreted programming languages are used for creation of client side modules. The language Java, which was designed to be compiled into platform independent byte-code is not an exception and runs the additional risk. Along with advantages like verifying the code before execution (to ensure that program does not produce some illegal operations)Java has some disadvantages. On a stage of byte-code a java program still contains comments, line numbers and some other instructions, which can be used for reverse-engineering. This Master's thesis focuses on protection of Java code based client-server applications. I present a mixture of methods to protect software from tortious acts. Then I shall realize all the theoretical assumptions in a practice and examine their efficiency in examples of Java code. One of the criteria's to evaluate the system is that my product is used for specialized area of interactive television.
Resumo:
Ketterillä menetelmillä tarkoitetaan erilaisista hyväksi havaituista ohjelmistotuotannon menetelmistä luotua sekä teoreettista että käytännöllistä viitekehystä. Nykyaikaiset ohjelmistotuotannon menetelmät, ketterät menetelmät ja käytettävyyssuunnittelu, vievät ohjelmistokehitystä kohtiasiakaslähtöisempää lähestymistapaa. Ohjelmien laadun takaamiseksi asiakas osallistuu tiiviisti jo ohjelmiston tuotantovaiheessa, jolloin turhilta ominaisuuksilta ja vääriltä ratkaisuilta vältytään paremmin. Tässä työssä käsitellään tapoja, joilla pk-yritys voisi parantaa toimintaansa ja saavuttaa siten kilpailuetua sovelluskehityksessä. Pk-yritys on suurempia yrityksiä paremmassa asemassa siinä, että se on luontaisesti ketterä ja nopea käännöksissään, mutta siltä puuttuu perinteet ohjelmistokehityksessä ja siksi käytössä voi olla kehittymättömiä ratkaisuja. Yrityksissä ohjelmistotuotannon muuttaminen kohti ketterämpiä menetelmiä ei ole mahdotonta, mutta se vaatii sekä työntekijöiltä että sidosryhmiltä halua ja sitoutumista kehitykseen. Jos edellä mainittuja asioita ei löydy, ei ketteriin menetelmiin siirtyminen ole järkevää, vaan yrityksen kannattaa pitäytyä nykyisissä menetelmissä ja kehittää niitä. Työssä käsitellään myös käytettävyyden suunnittelua ja sen toteutusta hyvin pienin muutoksin perinteisiin työtapoihin. Lähtökohtaisesti voidaan ajatella, etteivät pk-yrityksen voimavarat riitä täysimittaiseen käytettävyyssuunnitteluun, siksi työssä ehdotetaan keveitä ratkaisuja, joilla voidaan kuitenkin huomattavasti parantaa ohjelmiston käyttökokemusta.
Resumo:
The goal of this paper is to describe a complete and extensive prototype design of a fixed electrical attenuator. The paper starts by describing the function and by giving some basic information about the attenuators. After a comprehensive description of the component, the facts of reverse engineering are discussed. The method itself is applied to ease manufacturing and design stages of this component. Information about materials and applied manufacturing technologies are also included in this report. By applying some specified DFMA-aspects the final design turned out to be a potential prototype device to be manufactured and for further analyse.
Resumo:
A company’s capability to map out its cost position compared to other market players is important for competitive decision making. One aspect of cost position is direct product cost that illustrates the cost efficiency of a company’s product designs. If a company can evaluate and compare its own and other market players’ direct product costs, it can implement better decisions in product development and management, manufacturing, sourcing, etc. The main objective of this thesis was to develop a cost evaluation process for competitors’ products. This objective includes a process description and an analysis tool for cost evaluations. Additionally, process implementation is discussed as well. The main result of this thesis was a process description consisting of a sixteen steps process and an Excel based analysis tool. Since literature was quite limited in this field, the solution proposal was combined from many different theoretical concepts. It includes influences from reverse engineering, product cost assessment, benchmarking and cost based decision making. This solution proposal will lead to more systematic and standardized cost position analyses and result in better cost transparency in decision making.
Resumo:
Bone strain plays a major role as the activation signal for the bone (re)modeling process, which is vital for keeping bones healthy. Maintaining high bone mineral density reduces the chances of fracture in the event of an accident. Numerous studies have shown that bones can be strengthened with physical exercise. Several hypotheses have asserted that a stronger osteogenic (bone producing) effect results from dynamic exercise than from static exercise. These previous studies are based on short-term empirical research, which provide the motivation for justifying the experimental results with a solid mathematical background. The computer simulation techniques utilized in this work allow for non-invasive bone strain estimation during physical activity at any bone site within the human skeleton. All models presented in the study are threedimensional and actuated by muscle models to replicate the real conditions accurately. The objective of this work is to determine and present loading-induced bone strain values resulting from physical activity. It includes a comparison of strain resulting from four different gym exercises (knee flexion, knee extension, leg press, and squat) and walking, with the results reported for walking and jogging obtained from in-vivo measurements described in the literature. The objective is realized primarily by carrying out flexible multibody dynamics computer simulations. The dissertation combines the knowledge of finite element analysis and multibody simulations with experimental data and information available from medical field literature. Measured subject-specific motion data was coupled with forward dynamics simulation to provide natural skeletal movement. Bone geometries were defined using a reverse engineering approach based on medical imaging techniques. Both computed tomography and magnetic resonance imaging were utilized to explore modeling differences. The predicted tibia bone strains during walking show good agreement with invivo studies found in the literature. Strain measurements were not available for gym exercises; therefore, the strain results could not be validated. However, the values seem reasonable when compared to available walking and running invivo strain measurements. The results can be used for exercise equipment design aimed at strengthening the bones as well as the muscles during workout. Clinical applications in post fracture recovery exercising programs could also be the target. In addition, the methodology introduced in this study, can be applied to investigate the effect of weightlessness on astronauts, who often suffer bone loss after long time spent in the outer space.
Resumo:
Tässä työssä tutkittiin kuinka eri tavoin rakenteen mallintaminen vaikuttaa laskettuun väsy-misikään. Työssä tutkittavana rakenteena toimi Sandvik Mining and Construction OY:n las-tauskoneen nostovarsi. Nostovarrelle väsytyskokeet suoritettiin Lappeenrannan teknillisen yliopiston teräsrakenteiden laboratoriossa. Työn tavoitteena oli tutkia miten eri digitaalinen valmistuksen tasot vaikuttavat hitsatulle rakenteelle saatuun kestoikään. Työssä tutkittiin myös miten todellista geometriaa voidaan hyödyntää rakenteen kestoiän arvioinnissa. Väsytyskoejärjestely mallinnettiin FE-menetelmällä, ja järjestelystä tehtiin useita malleja käyttäen solidi- ja laattaelementtejä. Malleista laskettiin väsymisiät hot spot- ja tehollisen lovijännityksen menetelmällä, ja saatuja tuloksia vertailtiin toisiinsa ja väsytyskokeen tulok-siin. Väsytyskokeessa vaurioituneista kohdista tarkemman tutkimuksen kohteena oli nosto-varren palstalevyn kärki. Hot spot-menetelmällä saadut kestoiät vaihtelivat paikoin melko paljon eri mallien välillä. Tehollisen lovijännityksen menetelmällä saaduissa tuloksissa erot olivat pienempiä mallien välillä. FE-mallin ja venymäliuskojen jännitykset poikkesivat toisistaan paikoin melko pal-jon. Todellisen hitsatun rakenteen kestoikään vaikuttaa moni asia, ja täten FE-menetelmällä las-kettu kestoikä voi poiketa huomattavasti todellisesta kestoiästä. Varsinkin hot spot-menetel-mällä tulokset voivat poiketa hyvinkin paljon todellisuudesta, mikäli jännitystila tutkitta-vassa kohdassa on moniaksiaalinen. Todellisen geometrian mallintaminen vaatii tarkkuutta, ja alkuperäisdatan tulee olla mahdollisimman tarkkaa ja riittävän suurelta alueelta, jotta malli vastaa tarpeeksi todellista.
Resumo:
Kandidaatintyössä tutustuttiin raakaveden sisältämiin epäpuhtauksiin ja niiden aiheuttamiin ongelmiin höyryvoimalaitoksen vesi-höyrypiirissä. Vedenkäsittelyn teoriassa perehdyttiin esikäsittely-, pehmennys-, ioninvaihto- ja käänteisosmoosimenetelmiin, joista suurinta huomiota sai ioninvaihtomenetelmä. Kandidaatintyötä tehdessä oli tekijällä mahdollisuus perehtyä myös käytännön vedenkäsittelylaitoksen toimintaperiaatteeseen. Perehdytty vedenkäsittelylaitos pitää sisällään esikäsittelylaitoksen ja ioninvaihdolla toteutetun suolanpoiston.
Resumo:
Nous proposons une approche semi-automatique pour la rétro-ingénierie des diagrammes de séquence d’UML. Notre approche commence par un ensemble de traces d'exécution qui sont automatiquement alignées pour déterminer le comportement commun du système. Les diagrammes de séquence sont ensuite extraits avec l’aide d’une visualisation interactive, qui permet la navigation dans les traces d'exécution et la production des opérations d'extraction. Nous fournissons une illustration concrète de notre approche avec une étude de cas, et nous montrons en particulier que nos diagrammes de séquence générés sont plus significatifs et plus compacts que ceux qui sont obtenus par les méthodes automatisées.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Un objectif principal du génie logiciel est de pouvoir produire des logiciels complexes, de grande taille et fiables en un temps raisonnable. La technologie orientée objet (OO) a fourni de bons concepts et des techniques de modélisation et de programmation qui ont permis de développer des applications complexes tant dans le monde académique que dans le monde industriel. Cette expérience a cependant permis de découvrir les faiblesses du paradigme objet (par exemples, la dispersion de code et le problème de traçabilité). La programmation orientée aspect (OA) apporte une solution simple aux limitations de la programmation OO, telle que le problème des préoccupations transversales. Ces préoccupations transversales se traduisent par la dispersion du même code dans plusieurs modules du système ou l’emmêlement de plusieurs morceaux de code dans un même module. Cette nouvelle méthode de programmer permet d’implémenter chaque problématique indépendamment des autres, puis de les assembler selon des règles bien définies. La programmation OA promet donc une meilleure productivité, une meilleure réutilisation du code et une meilleure adaptation du code aux changements. Très vite, cette nouvelle façon de faire s’est vue s’étendre sur tout le processus de développement de logiciel en ayant pour but de préserver la modularité et la traçabilité, qui sont deux propriétés importantes des logiciels de bonne qualité. Cependant, la technologie OA présente de nombreux défis. Le raisonnement, la spécification, et la vérification des programmes OA présentent des difficultés d’autant plus que ces programmes évoluent dans le temps. Par conséquent, le raisonnement modulaire de ces programmes est requis sinon ils nécessiteraient d’être réexaminés au complet chaque fois qu’un composant est changé ou ajouté. Il est cependant bien connu dans la littérature que le raisonnement modulaire sur les programmes OA est difficile vu que les aspects appliqués changent souvent le comportement de leurs composantes de base [47]. Ces mêmes difficultés sont présentes au niveau des phases de spécification et de vérification du processus de développement des logiciels. Au meilleur de nos connaissances, la spécification modulaire et la vérification modulaire sont faiblement couvertes et constituent un champ de recherche très intéressant. De même, les interactions entre aspects est un sérieux problème dans la communauté des aspects. Pour faire face à ces problèmes, nous avons choisi d’utiliser la théorie des catégories et les techniques des spécifications algébriques. Pour apporter une solution aux problèmes ci-dessus cités, nous avons utilisé les travaux de Wiels [110] et d’autres contributions telles que celles décrites dans le livre [25]. Nous supposons que le système en développement est déjà décomposé en aspects et classes. La première contribution de notre thèse est l’extension des techniques des spécifications algébriques à la notion d’aspect. Deuxièmement, nous avons défini une logique, LA , qui est utilisée dans le corps des spécifications pour décrire le comportement de ces composantes. La troisième contribution consiste en la définition de l’opérateur de tissage qui correspond à la relation d’interconnexion entre les modules d’aspect et les modules de classe. La quatrième contribution concerne le développement d’un mécanisme de prévention qui permet de prévenir les interactions indésirables dans les systèmes orientés aspect.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues. Lorsque les logiciels évoluent, leurs architectures ont tendance à se dégrader et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. En effet, les architectures de ces logiciels deviennent plus complexes et plus difficiles à maintenir à cause des nombreuses dépendances entre les artefacts. Par conséquent, les développeurs doivent comprendre les dépendances entre les artefacts des logiciels pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent la dégradation des architectures des logiciels. D'une part, le maintien d'un logiciel sans la compréhension des les dépendances entre ses artefacts peut conduire à l'introduction de défauts. D'autre part, lorsque les développeurs manquent de connaissances sur l'impact de leurs activités de maintenance, ils peuvent introduire des défauts de conception, qui ont un impact négatif sur l'évolution du logiciel. Ainsi, les développeurs ont besoin de mécanismes pour comprendre comment le changement d'un artefact impacte le reste du logiciel. Dans cette thèse, nous proposons trois contributions principales : La spécification de deux nouveaux patrons de changement et leurs utilisations pour fournir aux développeurs des informations utiles concernant les dépendances de co-changement. La spécification de la relation entre les patrons d'évolutions des artefacts et les fautes. La découverte de la relation entre les dépendances des anti-patrons et la prédisposition des différentes composantes d'un logiciel aux fautes.
Resumo:
L’objet de la présente thèse est la lutte contre la pauvreté. Elle cherche à identifier les conditions favorisant la sortie de la pauvreté dans un territoire urbain, ici le quartier de la Petite-Patrie. par une approche territoriale intégrée. S’inscrivant dans la mouvance des multiples initiatives de lutte contre la pauvreté et l’exclusion au Québec, le postulat qui fonde cette recherche est le suivant : la lutte contre la pauvreté par l’approche territoriale intégrée permet : 1) d’instaurer des conditions favorisant la sortie de la pauvreté et 2) de renverser les processus qui mènent à l’appauvrissement des personnes et, du même coup, d’améliorer les conditions et la qualité de vie de celles-ci dans un territoire particulier. Les résultats de cette recherche permettent : 1) de contribuer à la compréhension des dynamiques de lutte contre la pauvreté grâce à une approche considérant les acteurs agissant dans un territoire et, 2) d’éclairer les différents niveaux de conception et de mise en œuvre des politiques et des stratégies d’action, tant au niveau de l’État que de la société civile, sachant que les dispositifs d’intervention intégrés se créent à l’interface des initiatives locales ou régionales et des nouvelles formes de politiques publiques en matière de lutte contre la pauvreté. Les grandes conclusions qui émergent de cette recherche sont au nombre de trois : 1) Si la multidimentionnalité de la pauvreté est acceptée par plusieurs auteurs, on ne peut pas parler d’une seule pauvreté, mais de diverses pauvretés. Les visages de la pauvreté dans le territoire de La Petite-Patrie témoignent de cette diversité des pauvretés, et appellent une variété de stratégies d’action ; 2) Les personnes en situation de pauvreté, en fonction de leurs capacités d’agir, peuvent être appréhendées selon un double profil qui structure de façon importante leur processus de sortie de la pauvreté : le premier groupe rassemble les personnes en situation de pauvreté qui ont des initiatives découlant de leurs capacités d’agir, et le second groupe qui réunit les personnes en situation de pauvreté dont la capacité d’initiative est altérée, apparemment de façon durable, par leurs conditions de vie. Toute stratégie publique de sortie de la pauvreté dans un espace donné devrait alors considérer cette dimension relative aux capacités de rapprochement des individus et des ressources pour soutenir le développement d’une stratégie territoriale intégrée de lutte à la pauvreté plus efficace pour les personnes dont le processus de désaffiliation est plus avancé; 3) Les acteurs de lutte contre la pauvreté dans un territoire, pour réunir les conditions d’une action intégrée et mettre en place des conditions favorables de lutte contre la pauvreté, doivent s’appuyer sur la concertation, les alliances intersectorielles, le leadership inclusif et concerté, les passerelles formelles et fonctionnelles entre acteurs institutionnels, et sur une démarche hybride (emploi et défense des droits) qui constituent des ingrédients fondamentaux pour toute action ou intervention en faveur des personnes en situation de pauvreté vivant dans un cadre territorial défini et accepté par l’ensemble des acteurs locaux. Ce caractère hybride de la démarche permet d’agir de façon différenciée sur les deux groupes de la population. L’intégration est donc avant tout stratégique, c’est-à-dire fondée sur l’articulation d’une pluralité de logique d’action.