943 resultados para Model-driven design


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Työn tavoitteena oli määrittää myyntikonfiguraattorissa käytettävän tuotemallin yleinen rakenne. Ensin selvitettiin tuotemallin luomista ja konseptin suunnittelua kirjallisuuden ja asiantuntijoiden haastattelujen avulla. Asiantuntijoiden haastattelut toteutettiin vapaamuotoisesti kysymyslistaa apuna käyttäen. Tämän lisäksi työssä pohditaan sähköisen liiketoiminnan roolia sekä myyntikonfiguraattorin tulevaisuuden näkymiä. Diplomityössä käsitellään tuotemallia yleisellä tasolla. Toinen näkökulma käsittelee tuotemallia tietoteknisissä sovelluksissa käytettyjen menetelmien pohjalta. Tuotemallin muodostaminen aloitettiin asiakkaalle näkyvästä osasta eli myyntikonfiguraattorin ulkoasusta. Seuraava ongelma oli standardoida tuotetta ja tarjousta kuvaavat dokumentit globaalisti. Tähän ratkaisuun päädyttiin haastattelujen sekä asiantuntijoiden kokoontumisien pohjalta. Loppuosa diplomityöstä käsittelee myyntikonfiguraattorin asemaa kohdeyrityksen sähköisessä liiketoiminnassa sekä esittelee erään näkemyksen myyntikonfiguraattorin yhteenliittymästä asiakashallinta- ja tuotetiedonhallinta järjestelmiin. Diplomityössä saavutettiin asetetut tavoiteet: Myyntikonfigurattori yhtenäistää kohdeyrityksen hinnoittelua globaalisti, nopeuttaa tarjouksentekoprosessia, helpottaa uuden tuotteen lanseerausta ja standardoi tuotemallin globaalisti. Myyntikonfiguraattorin integrointi muihin tietojärjestelmiin tehostaa myynnin toimintoja. Haasteeksi jää loppukäyttäjien kannustaminen tehokkaaseen käyttöön sekä ylläpidon toteuttaminen. Ilman käyttäjiä ja heidän innostustaan voi projekti menettää johdon luottamuksen.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La comunicación presenta un modelo de diseño de recursos educativos abiertos (REA, en inglés OER) para profesores universitarios. El modelo presenta un enfoque que toma en cuenta el REA en su contexto de aplicación. El modelo prevée en este sentido la elaboración de un plan de implementación pedagógica que toma en cuenta a los alumnos y su rol en la complementación del contenido a través de las actividades de aprendizaje.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Työssä selvitetään mallipohjaisen suunnittelun ja simulointimallista tuotetun ohjelmakoodin kelpoisuutta tuotekehityskäytössä. Työtapoja tutkitaan, koska halutaan selvittää parantavatko esitetyt toimintatavat aurinkosähkövaihtosuuntaajien ohjelmistokehitystä. Työssä käydään läpi mallipohjaisen suunnittelun työvaiheet, niiden sisältö ja tarkoitus. Aurinkosähköjärjestelmästä muodostetaan simulointimalli, josta tuotetaan maksimitehopisteseuraajan ohjelmakoodi, jonka toiminta testataan aurinkosähkövaihtosuuntaajan ohjausalustan simulaattorissa. Mallipohjainen suunnittelu mahdollistaa ohjelmistotuotekehityksen nopeuttamisen käyttämällä samaa järjestelmää useassa työvaiheessa. Ohjelmakoodin tuottaminen simulointimallista on mahdollista ja hyödyllistä, jos yrityksessä käytetään simulointitestausta säätö- ja ohjausjärjestelmän toiminnan suunnitteluun ja varmentamiseen.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Pinnankorkeuden tunteminen kiehutusvesireaktorin painesäiliössä on erittäin tärkeää sen turvallisuusvaikutusten takia. Pinnankorkeutta mitataan vesipatsaiden korkeutta havaitsevien paine-eromittausten avulla. Säteilyturvakeskuksen YVL-ohjeiden mukaan turvallisuuteen vaikuttavien mittausten täytyy noudattaa moninkertaistus- ja erilaisuusperiaatteita. Yleensä erilaisuusperiaatetta on toteutettu käyttämällä erityyppisiä paine-eromittareita, mutta erilaisella fysikaalisella toimintaperiaatteella oleva mittaus olisi parempi ja toteuttaisi paremmin erilaisuusperiaatetta. Uimurikytkin olisi tällainen fysikaalisesti eri periaatteeseen perustuva pinnankorkeuden mittauslaite. Ydinvoimalaan tarkoitettu teknologia tulee kelpoistaa riippumattoman tahon toimesta ennen käyttöönottoa. Kelpoistamiskokeita varten Lappeenrannan teknillisen yliopiston Ydinturvallisuuden tutkimusyksikköön rakennettiin vuosina 2011–2013 kaksi koelaitteistoa. Näillä koelaitteistoilla tutkittiin uimurikytkimien toimintaa ja ominaisuuksia erilaisissa kiehutusvesireaktorin käyttötilanteissa. Koelaitteistot tarvitsivat toimiakseen automaatiojärjestelmät, jotka suunniteltiin pääosin noudattamalla suunnittelun elinkaarimallia sekä automaatiosuunnittelun sisältökokonaisuuksia. Automaatiojärjestelmien suunnittelu aloitettiin määrittelemällä koejärjestelyjen asettamat vaatimukset, jonka jälkeen tehtiin teknologiavalinnat. Seuraavaksi suunniteltiin automaatiojärjestelmien logiikkaohjelmistot, joiden kuvaukseen tämä työ pääasiassa keskittyy. Logiikkaohjelmistot toteutettiin graafisella National Instruments LabView -ohjelmointikielellä. Logiikkaohjelmistojen tuli hoitaa tiedonkeruuta, käyttöautomaatiota, turvallisuustehtäviä sekä kokeisiin liittyviä erikoistehtäviä. Ohjelmistot saatiin esikokeiden aikana toimimaan halutusti, ja varsinaiset kokeet voitiin suorittaa ilman merkittäviä ongelmia.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Building Information Modeling – BIM is widely spreading in the Architecture, Engineering, and Construction (AEC) industries. Manufacturers of building elements are also starting to provide more and more objects of their products. The ideal availability and distribution for these models is not yet stabilized. Usual goal of a manufacturer is to get their model into design as early as possible. Finding the ways to satisfy customer needs with a superior service would help to achieve this goal. This study aims to seek what case company’s customers want out of the model and what they think is the ideal way to obtain these models and what are the desired functionalities for this service. This master’s thesis uses a modified version of lead user method to gain understanding of what the needs are in a longer term. In this framework also benchmarking of current solutions and their common model functions is done. Empirical data is collected with survey and interviews. As a result this thesis provides understanding that what is the information customer uses when obtaining a model, what kind of model is expected to be achieved and how is should the process optimally function. Based on these results ideal service is pointed out.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Accelerated life testing (ALT) is widely used to obtain reliability information about a product within a limited time frame. The Cox s proportional hazards (PH) model is often utilized for reliability prediction. My master thesis research focuses on designing accelerated life testing experiments for reliability estimation. We consider multiple step-stress ALT plans with censoring. The optimal stress levels and times of changing the stress levels are investigated. We discuss the optimal designs under three optimality criteria. They are D-, A- and Q-optimal designs. We note that the classical designs are optimal only if the model assumed is correct. Due to the nature of prediction made from ALT experimental data, attained under the stress levels higher than the normal condition, extrapolation is encountered. In such case, the assumed model cannot be tested. Therefore, for possible imprecision in the assumed PH model, the method of construction for robust designs is also explored.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

On présente une nouvelle approche de simulation pour la fonction de densité conjointe du surplus avant la ruine et du déficit au moment de la ruine, pour des modèles de risque déterminés par des subordinateurs de Lévy. Cette approche s'inspire de la décomposition "Ladder height" pour la probabilité de ruine dans le Modèle Classique. Ce modèle, déterminé par un processus de Poisson composé, est un cas particulier du modèle plus général déterminé par un subordinateur, pour lequel la décomposition "Ladder height" de la probabilité de ruine s'applique aussi. La Fonction de Pénalité Escomptée, encore appelée Fonction Gerber-Shiu (Fonction GS), a apporté une approche unificatrice dans l'étude des quantités liées à l'événement de la ruine été introduite. La probabilité de ruine et la fonction de densité conjointe du surplus avant la ruine et du déficit au moment de la ruine sont des cas particuliers de la Fonction GS. On retrouve, dans la littérature, des expressions pour exprimer ces deux quantités, mais elles sont difficilement exploitables de par leurs formes de séries infinies de convolutions sans formes analytiques fermées. Cependant, puisqu'elles sont dérivées de la Fonction GS, les expressions pour les deux quantités partagent une certaine ressemblance qui nous permet de nous inspirer de la décomposition "Ladder height" de la probabilité de ruine pour dériver une approche de simulation pour cette fonction de densité conjointe. On présente une introduction détaillée des modèles de risque que nous étudions dans ce mémoire et pour lesquels il est possible de réaliser la simulation. Afin de motiver ce travail, on introduit brièvement le vaste domaine des mesures de risque, afin d'en calculer quelques unes pour ces modèles de risque. Ce travail contribue à une meilleure compréhension du comportement des modèles de risques déterminés par des subordinateurs face à l'éventualité de la ruine, puisqu'il apporte un point de vue numérique absent de la littérature.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’ingénierie dirigée par les modèles (IDM) est un paradigme d’ingénierie du logiciel bien établi, qui préconise l’utilisation de modèles comme artéfacts de premier ordre dans les activités de développement et de maintenance du logiciel. La manipulation de plusieurs modèles durant le cycle de vie du logiciel motive l’usage de transformations de modèles (TM) afin d’automatiser les opérations de génération et de mise à jour des modèles lorsque cela est possible. L’écriture de transformations de modèles demeure cependant une tâche ardue, qui requiert à la fois beaucoup de connaissances et d’efforts, remettant ainsi en question les avantages apportés par l’IDM. Afin de faire face à cette problématique, de nombreux travaux de recherche se sont intéressés à l’automatisation des TM. L’apprentissage de transformations de modèles par l’exemple (TMPE) constitue, à cet égard, une approche prometteuse. La TMPE a pour objectif d’apprendre des programmes de transformation de modèles à partir d’un ensemble de paires de modèles sources et cibles fournis en guise d’exemples. Dans ce travail, nous proposons un processus d’apprentissage de transformations de modèles par l’exemple. Ce dernier vise à apprendre des transformations de modèles complexes en s’attaquant à trois exigences constatées, à savoir, l’exploration du contexte dans le modèle source, la vérification de valeurs d’attributs sources et la dérivation d’attributs cibles complexes. Nous validons notre approche de manière expérimentale sur 7 cas de transformations de modèles. Trois des sept transformations apprises permettent d’obtenir des modèles cibles parfaits. De plus, une précision et un rappel supérieurs à 90% sont enregistrés au niveau des modèles cibles obtenus par les quatre transformations restantes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Zur Senkung von Kosten werden in vielen Unternehmen Dienstleistungen, die nicht zur Kernkompetenz gehören, an externe Dienstleister ausgelagert. Dieser Prozess wird auch als Outsourcing bezeichnet. Die dadurch entstehenden Abhängigkeiten zu den externen Dienstleistern werden mit Hilfe von Service Level Agreements (SLAs) vertraglich geregelt. Die Aufgabe des Service Level Managements (SLM) ist es, die Einhaltung der vertraglich fixierten Dienstgüteparameter zu überwachen bzw. sicherzustellen. Für eine automatische Bearbeitung ist daher eine formale Spezifikation von SLAs notwendig. Da der Markt eine Vielzahl von unterschiedlichen SLM-Werkzeugen hervorgebracht hat, entstehen in der Praxis Probleme durch proprietäre SLA-Formate und fehlende Spezifikationsmethoden. Daraus resultiert eine Werkzeugabhängigkeit und eine limitierte Wiederverwendbarkeit bereits spezifizierter SLAs. In der vorliegenden Arbeit wird ein Ansatz für ein plattformunabhängiges Service Level Management entwickelt. Ziel ist eine Vereinheitlichung der Modellierung, so dass unterschiedliche Managementansätze integriert und eine Trennung zwischen Problem- und Technologiedomäne erreicht wird. Zudem wird durch die Plattformunabhängigkeit eine hohe zeitliche Stabilität erstellter Modelle erreicht. Weiteres Ziel der Arbeit ist, die Wiederverwendbarkeit modellierter SLAs zu gewährleisten und eine prozessorientierte Modellierungsmethodik bereitzustellen. Eine automatisierte Etablierung modellierter SLAs ist für eine praktische Nutzung von entscheidender Relevanz. Zur Erreichung dieser Ziele werden die Prinzipien der Model Driven Architecture (MDA) auf die Problemdomäne des Service Level Managements angewandt. Zentrale Idee der Arbeit ist die Definition von SLA-Mustern, die konfigurationsunabhängige Abstraktionen von Service Level Agreements darstellen. Diese SLA-Muster entsprechen dem Plattformunabhängigen Modell (PIM) der MDA. Durch eine geeignete Modelltransformation wird aus einem SLA-Muster eine SLA-Instanz generiert, die alle notwendigen Konfigurationsinformationen beinhaltet und bereits im Format der Zielplattform vorliegt. Eine SLA-Instanz entspricht damit dem Plattformspezifischen Modell (PSM) der MDA. Die Etablierung der SLA-Instanzen und die daraus resultierende Konfiguration des Managementsystems entspricht dem Plattformspezifischen Code (PSC) der MDA. Nach diesem Schritt ist das Managementsystem in der Lage, die im SLA vereinbarten Dienstgüteparameter eigenständig zu überwachen. Im Rahmen der Arbeit wurde eine UML-Erweiterung definiert, die eine Modellierung von SLA-Mustern mit Hilfe eines UML-Werkzeugs ermöglicht. Hierbei kann die Modellierung rein graphisch als auch unter Einbeziehung der Object Constraint Language (OCL) erfolgen. Für die praktische Realisierung des Ansatzes wurde eine Managementarchitektur entwickelt, die im Rahmen eines Prototypen realisiert wurde. Der Gesamtansatz wurde anhand einer Fallstudie evaluiert.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A key problem in object recognition is selection, namely, the problem of identifying regions in an image within which to start the recognition process, ideally by isolating regions that are likely to come from a single object. Such a selection mechanism has been found to be crucial in reducing the combinatorial search involved in the matching stage of object recognition. Even though selection is of help in recognition, it has largely remained unsolved because of the difficulty in isolating regions belonging to objects under complex imaging conditions involving occlusions, changing illumination, and object appearances. This thesis presents a novel approach to the selection problem by proposing a computational model of visual attentional selection as a paradigm for selection in recognition. In particular, it proposes two modes of attentional selection, namely, attracted and pay attention modes as being appropriate for data and model-driven selection in recognition. An implementation of this model has led to new ways of extracting color, texture and line group information in images, and their subsequent use in isolating areas of the scene likely to contain the model object. Among the specific results in this thesis are: a method of specifying color by perceptual color categories for fast color region segmentation and color-based localization of objects, and a result showing that the recognition of texture patterns on model objects is possible under changes in orientation and occlusions without detailed segmentation. The thesis also presents an evaluation of the proposed model by integrating with a 3D from 2D object recognition system and recording the improvement in performance. These results indicate that attentional selection can significantly overcome the computational bottleneck in object recognition, both due to a reduction in the number of features, and due to a reduction in the number of matches during recognition using the information derived during selection. Finally, these studies have revealed a surprising use of selection, namely, in the partial solution of the pose of a 3D object.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Coronary heart disease (CHD) is the leading cause of mortality in Western societies, affecting about one third of the population before their seventieth year. Over the past decades modifiable risk factors of CHD have been identified, including smoking and diet. These factors when altered can have a significant impact on an individuals' risk of developing CHD, their overall health and quality of life. There is strong evidence suggesting that dietary intake of plant foods rich in fibre and polyphenolic compounds, effectively lowers the risk of developing CHD. However, the efficacy of these foods often appears to be greater than the sum of their recognised biologically active parts. Here we discuss the hypothesis that beneficial metabolic and vascular effects of dietary fibre and plant polyphenols are due to an up regulation of the colon-systemic metabolic axis by these compounds. Fibres and many polyphenols are converted into biologically active compounds by the colonic microbiota. This microbiota imparts great metabolic versatility and dynamism, with many of their reductive or hydrolytic activities appearing complementary to oxidative or conjugative human metabolism. Understanding these microbial activities is central to determining the role of different dietary components in preventing or beneficially impacting on the impaired lipid metabolism and vascular dysfunction that typifies CHD and type 11 diabetes. This approach lays the foundation for rational selection of health promoting foods, rational target driven design of functional foods, and provides an essential thus-far, overlooked, dynamic to our understanding of how foods recognised as "healthy" impact on the human metabonome.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The development of a set of multi-channel dichroics which includes a 6 channel dichroic operating over the wavelength region from 0.3 to 52µm is described. In order to achieve the optimum performance, the optical constants of PbTe, Ge and CdTe coatings in the strongly absorptive region have been determined by use of a new iterative method using normal incidence reflectance measurement of the multilayer together with initial values of energy gap Eg and infinite refractive index n for the semiconductor model. The design and manufacture of the dichroics is discussed and the final results are presented.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Enhanced release of CO2 to the atmosphere from soil organic carbon as a result of increased temperatures may lead to a positive feedback between climate change and the carbon cycle, resulting in much higher CO2 levels and accelerated lobal warming. However, the magnitude of this effect is uncertain and critically dependent on how the decomposition of soil organic C (heterotrophic respiration) responds to changes in climate. Previous studies with the Hadley Centre’s coupled climate–carbon cycle general circulation model (GCM) (HadCM3LC) used a simple, single-pool soil carbon model to simulate the response. Here we present results from numerical simulations that use the more sophisticated ‘RothC’ multipool soil carbon model, driven with the same climate data. The results show strong similarities in the behaviour of the two models, although RothC tends to simulate slightly smaller changes in global soil carbon stocks for the same forcing. RothC simulates global soil carbon stocks decreasing by 54 GtC by 2100 in a climate change simulation compared with an 80 GtC decrease in HadCM3LC. The multipool carbon dynamics of RothC cause it to exhibit a slower magnitude of transient response to both increased organic carbon inputs and changes in climate. We conclude that the projection of a positive feedback between climate and carbon cycle is robust, but the magnitude of the feedback is dependent on the structure of the soil carbon model.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Purpose – The purpose of this paper is to investigate the effect of choices of model structure and scale in development viability appraisal. The paper addresses two questions concerning the application of development appraisal techniques to viability modelling within the UK planning system. The first relates to the extent to which, given intrinsic input uncertainty, the choice of model structure significantly affects model outputs. The second concerns the extent to which, given intrinsic input uncertainty, the level of model complexity significantly affects model outputs. Design/methodology/approach – Monte Carlo simulation procedures are applied to a hypothetical development scheme in order to measure the effects of model aggregation and structure on model output variance. Findings – It is concluded that, given the particular scheme modelled and unavoidably subjective assumptions of input variance, that simple and simplistic models may produce similar outputs to more robust and disaggregated models. Evidence is found of equifinality in the outputs of a simple, aggregated model of development viability relative to more complex, disaggregated models. Originality/value – Development viability appraisal has become increasingly important in the planning system. Consequently, the theory, application and outputs from development appraisal are under intense scrutiny from a wide range of users. However, there has been very little published evaluation of viability models. This paper contributes to the limited literature in this area.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Models of functional connectivity in cortical cultures on multi-electrodes arrays may aid in understanding how cognitive pathways form and improve techniques that aim to interface with neuronal systems. To enable research on such models, this study uses both data- and model-driven approaches to determine what dependencies are present in and between functional connectivity networks derived from bursts of extracellularly recorded activity. Properties of excitation in bursts were analysed using correlative techniques to assess the degree of linear dependence and then two parallel techniques were used to assess functional connectivity. Three models presenting increasing levels of spatio-temporal dependency were used to capture the dynamics of individual functional connections and their consistencies were verified using surrogate data. By comparing network-wide properties between model generated networks and functional networks from data, complex interdependencies were revealed. This indicates the persistent co-activation of neuronal pathways in spontaneous bursts, as can be found in whole brain structures.