908 resultados para Model Based Development
Resumo:
Jatkuva teknologioiden kehittyminen ja globaalin talousjärjestelmän lainalaisuudet pakottavat yrityksiä kiinnittämään enenevässä määrin huomiota kilpailukykyyn ja kannattavuuteen. Kustannuslaskennan tarkkuus on yksi tärkeimmistä taloushallinnon elementeistä kilpailukyvyn ylläpitämisessä. Virheisiin ei ole varaa, sillä väärin perustein tehdyt kustannuslaskennat ajavat yrityksen nopeasti taloudellisiin vaikeuksiin. Tässä tutkimuksessa oli tavoitteena etsiä teollisen muovialan yrityksen tarpeisiin parhaiten sopiva kustannuslaskentajärjestelmä. Tutkimuksen teoriaosassa tutustuttiin eri kustannuslaskentamenetelmiin, ja tarkemmin toimintolaskennan yksinkertaisempaan muotoon, aikaperusteiseen toimintolaskentaan, sen toimivuuden ja käytettävyyden kannalta. Tutkimus toteutettiin konstruktiivisena case -tutkimuksena, jossa pyrittiin kuvaamaan ja havainnollistamaan uusi laskentamalli eli konstruktio. Tutkimuksen empiirisessä osuudessa suoritettiin esimerkkilaskelmia case yrityksen valmistamalle tuoteryhmälle ja vertailtiin laskelman tuloksia nykyiseen laskentamalliin. Saatujen tietojen pohjalta yritys pystyy muokkaamaan hinnoittelua vastaamaan kannattavuustavoitteita ja parantamaan kilpailukykyään, sillä malli tuottaa tarkempaa tietoa kustannuksista ja asiakaskohtaisista kannattavuuksista.
Resumo:
Diplomityön tavoitteena on ollut kehittää elintarvikeyrityksen palveluruokamarkkinoille uusi innovatiivinen toimintamalli haastattelujen, havainnoinnin ja kirjallisuuden perusteella. Tutkimusongelman päätutkimuskysymys on: Miten yrityksen palveluruoka- eli valmisruokatuotteille suunnitellaan innovatiivinen toimintamalli tuoteperheen ja jakelun suhteen? Tavoitteena on kartoittaa yrityksen palveluruoan nykytilanne ja luoda toimintamalli, joka toisi yritykselle selkeää lisäarvoa ja kilpailuetua. Teoreettisessa osuudessa selvitetään elintarviketeollisuuden, valmisruoan ja elintarvikelogistiikan tilannetta suomalaisesta ja globaalista näkökulmasta. Työssä on tarkasteltu elintarvikepuolen nykytilannetta ja tulevaisuuden suuntauksia tuotteiden, ruokailutottumusten ja logistiikan osalta. Innovaatioiden osalta työ painottuu palveluruokapuolen konseptin ja uuden logistisen yhteistyöhön pohjautuvan mallin kehittämiseen. Työn käytännön osiossa on tehty case-tutkimus ”yrityksen palveluruoan nykytilanne tuotteiden ja logistiikan osalta”. Toimialan markkinatilannetta on kartoitettu, jotta hahmotetaan, missä on potentiaalisimmat markkinat palveluruoalle. Työn tavoitteena on ollut kehittää Hoviruoka Oy:lle palveluruoan segmentointiin ja logistiikkaan liittyvä innovatiivinen toimintamalli. Toimintamallin avulla yritys saa kilpailuetua ja taloudellista hyötyä kilpailijoihin nähden, ja on edelläkävijä kyseisen toimintamallin ansiosta. Työn tuloksissa on käsitelty keskeiset tulokset ja mahdolliset jatkotoimenpiteet. Työssä kehitettiin yritykselle uusi toimintamalli palveluruoka puolelle. Työlle asetetut tavoitteet saavutettiin kaikkien kolmen - tekijän, yliopiston ja yrityksen - kannalta.
Resumo:
It is well accepted that structural studies with model membranes are of considerable value in understanding the structure of biological membranes. Many studies with models of pure phospholipids have been done; but the effects of divalent cations and protein on these models would make these studies more applicable to intact membrane. The present study, performed with above view, is a structural analysis of divalent io~cardio1ipin complexes using the technique of x-ray diffraction. Cardiolipin, precipitated from dilute solution by divalent ionscalcium, magnesium and barium, contains little water and the structure formed is similar to the structure of pure cardiolipin with low water content. The calcium-cardiolipin complex forms a pure hexagonal type II phase that exists from 40 to 400 C. The molar ratio of calcium and cardiolipin in the complex is 1 : 1. Cardiolipin, precipitated with magnesium and barium forms two co-existing phases, lamellar and hexagonal, the relative quantity of the two phases being dependent on temperature. The hexagonal phase type II consisting of water filled channels formed by adding calcium to cardiolipin may have a remarkable permeability property in intact membrane. Pure cardiolipin and insulin at pH 3.0 and 4.0 precipitate but form no organised structure. Lecithin/cardiolipin and insulin precipitated at pH 3.0 give a pure lamellar phase. As the lecithin/cardiolipin molar ratio changes from 93/7 to SO/50, (a) the repeat distance of the lamellar changes from 72.8 X to 68.2 A; (b) the amount of protein bound increases in such a way that cardiolipin/insulin molar ratio in the complex reaches a maximum constant value at lecithin/cardiolipin molar ratio 70/30. A structural model based on these data shows that the molecular arrangement of lipid and protein is a lipid bilayer coated with protein molecules. The lipid-protein interaction is chiefly electrostatic and little, if any, hydrophobic bonding occurs in this particular system. So, the proposed model is essentially the same as Davson-Daniellifs model of biological membrane.
Resumo:
Affiliation: Département de Biochimie, Université de Montréal
Resumo:
La recherche en génie logiciel a depuis longtemps tenté de mieux comprendre le processus de développement logiciel, minimalement, pour en reproduire les bonnes pratiques, et idéalement, pour pouvoir le mécaniser. On peut identifier deux approches majeures pour caractériser le processus. La première approche, dite transformationnelle, perçoit le processus comme une séquence de transformations préservant certaines propriétés des données à l’entrée. Cette idée a été récemment reprise par l’architecture dirigée par les modèles de l’OMG. La deuxième approche consiste à répertorier et à codifier des solutions éprouvées à des problèmes récurrents. Les recherches sur les styles architecturaux, les patrons de conception, ou les cadres d’applications s’inscrivent dans cette approche. Notre travail de recherche reconnaît la complémentarité des deux approches, notamment pour l’étape de conception: dans le cadre du développement dirigé par les modèles, nous percevons l’étape de conception comme l’application de patrons de solutions aux modèles reçus en entrée. Il est coutume de définir l’étape de conception en termes de conception architecturale, et conception détaillée. La conception architecturale se préoccupe d’organiser un logiciel en composants répondant à un ensemble d’exigences non-fonctionnelles, alors que la conception détaillée se préoccupe, en quelque sorte, du contenu de ces composants. La conception architecturale s’appuie sur des styles architecturaux qui sont des principes d’organisation permettant d’optimiser certaines qualités, alors que la conception détaillée s’appuie sur des patrons de conception pour attribuer les responsabilités aux classes. Les styles architecturaux et les patrons de conception sont des artefacts qui codifient des solutions éprouvées à des problèmes récurrents de conception. Alors que ces artefacts sont bien documentés, la décision de les appliquer reste essentiellement manuelle. De plus, les outils proposés n’offrent pas un support adéquat pour les appliquer à des modèles existants. Dans cette thèse, nous nous attaquons à la conception détaillée, et plus particulièrement, à la transformation de modèles par application de patrons de conception, en partie parce que les patrons de conception sont moins complexes, et en partie parce que l’implémentation des styles architecturaux passe souvent par les patrons de conception. Ainsi, nous proposons une approche pour représenter et appliquer les patrons de conception. Notre approche se base sur la représentation explicite des problèmes résolus par ces patrons. En effet, la représentation explicite du problème résolu par un patron permet : (1) de mieux comprendre le patron, (2) de reconnaître l’opportunité d’appliquer le patron en détectant une instance de la représentation du problème dans les modèles du système considéré, et (3) d’automatiser l’application du patron en la représentant, de façon déclarative, par une transformation d’une instance du problème en une instance de la solution. Pour vérifier et valider notre approche, nous l’avons utilisée pour représenter et appliquer différents patrons de conception et nous avons effectué des tests pratiques sur des modèles générés à partir de logiciels libres.
Resumo:
L’objectif premier de notre projet était d’établir un modèle animal de douleur chronique orofaciale, lequel pourrait imiter la sensibilité retrouvée chez les patients souffrant de douleur orofaciale myalgique. Nous avons procédé à des injections intramusculaires de saline acide (2 injections à 2 jours d’intervalle pH 4.0) pour induire une sensibilisation mécanique des mucles massétérins. La réponse nocifensive a été mesurée à l’aide de filaments de von Frey avant et après ces injections dans des rats Sprague-Dawley. Par la suite, le potentiel analgésique de différents antagonistes des récepteurs glutamatergiques fût évalué par l’injection intramusculaire de ces antagonistes à différents moments. Nos résultats suggèrent que deux injections de saline acide, produisent une hypersensibilité mécanique signalée par l’augmentation du nombre de réponses à l’application de filaments de von Frey. Cet effet dure plusieurs semaines et est bilatéral, même lorsque les injections sont unilatérales, indiquant qu’une composante centrale est forcément impliquée. Toutefois, une composante périphérique impliquant les récepteurs glutamatergiques semble présider le tout puisque les antagonistes glutamatergiques, appliqués de façon préventive empêchent le développement de l’hypersensibilité. Cependant, le maintien de cette hypersensibilité doit dépendre de mécanismes centraux puisque l’application d’antagonistes une fois la sensibilisation induite, ne diminue en rien le nombre de réponses obtenues. Ce modèle semble approprié pour reproduire une hypersensibilité musculaire durable de bas niveau. Nos données indiquent que les récepteurs glutamatergiques périphériques participent à l’induction de cette hypersensibilité de longue durée. Nous croyons que ce modèle pourra éventuellement contribuer à une meilleure compréhension des mécanismes à l’origine des myalgies faciales persistantes.
Resumo:
À cause de la nature complexe et non linéaire de leurs opérations, les salles d’urgence (SU) constituent des entités organisationnelles uniques dans le domaine de la santé. Les SU subissent des pressions accrues résultant des dynamiques des sociétés contemporaines et de leurs systèmes de santé, et font face ainsi à des défis uniques comme l’engorgement. Contrairement aux croyances dominantes sur le phénomène, le présent travail de recherche établit que ce problème est en réalité une manifestation de pauvre performance systémique plutôt qu’une faillite opérationnelle. Alors, pour les SU, la performance organisationnelle relève une importance incontestable. En effet, l’étude de la performance organisationnelle est un sujet de recherche qui intéresse de nombreux chercheurs des services de santé. Il s’agit, néanmoins, d’un concept historiquement difficile à définir à cause de son caractère complexe, multidimensionnel et paradoxal. Le modèle EGIPSS, basé sur la théorie de l’action sociale de Parsons, est capable de saisir cette complexité et constitue un cadre conceptuel robuste et exhaustif, pouvant s’adapter à des contextes divers. Ce mémoire adopte le modèle EGIPSS pour présenter un outil global et intégré d’évaluation de la performance organisationnelle de la salle d’urgences de l’Hôpital Général Régional 46 à Guadalajara, au Mexique. Cet instrument est conçu pour prendre en compte spécifiquement les particularités propres des SU, ainsi que les caractéristiques organisationnelles uniques de l'Hôpital Général Régional 46. Enfin, le développement de ce projet de mémoire contribue aux efforts d’amélioration continue de la performance de cet établissement, et enrichit les connaissances sur les urgences en tant qu’unités organisationnelles.
Resumo:
Dans les études sur le transport, les modèles de choix de route décrivent la sélection par un utilisateur d’un chemin, depuis son origine jusqu’à sa destination. Plus précisément, il s’agit de trouver dans un réseau composé d’arcs et de sommets la suite d’arcs reliant deux sommets, suivant des critères donnés. Nous considérons dans le présent travail l’application de la programmation dynamique pour représenter le processus de choix, en considérant le choix d’un chemin comme une séquence de choix d’arcs. De plus, nous mettons en œuvre les techniques d’approximation en programmation dynamique afin de représenter la connaissance imparfaite de l’état réseau, en particulier pour les arcs éloignés du point actuel. Plus précisément, à chaque fois qu’un utilisateur atteint une intersection, il considère l’utilité d’un certain nombre d’arcs futurs, puis une estimation est faite pour le restant du chemin jusqu’à la destination. Le modèle de choix de route est implanté dans le cadre d’un modèle de simulation de trafic par événements discrets. Le modèle ainsi construit est testé sur un modèle de réseau routier réel afin d’étudier sa performance.
Resumo:
Le monde du travail connaît actuellement de grandes transformations. Le modèle nord-américain d’organisation syndicale ne semble plus permettre au mouvement syndical de répondre efficacement à ces transformations, favorisant le développement de plusieurs initiatives de renouveau syndical. Pour évaluer les impacts d’initiatives de renouveau syndical, nous avons développé un modèle basé sur le concept de zone syndicale (Haiven, 2003, 2006). Nous avons dû déterminer les facteurs définissant la zone syndicale, comme la littérature était muette à ce sujet. En utilisant d’abord la théorie des déterminants de la densité syndicale (Schnabel, 2003), nous avons intégré au modèle les éléments de la théorie des ressources du pouvoir syndical (Lévesque et Murray, 2010) pour considérer les facteurs internes aux syndicats qui influencent la zone syndicale. L’intégration de ces trois théories dans un modèle unifié constitue une innovation théorique significative. Le modèle a été appliqué à deux centres de travailleurs : le Vermont Workers Center et le Centre des Travailleurs de St-Rémi. Dans les deux cas, ces initiatives ont permis d’élargir la zone syndicale. Par contre, le Centre du Vermont applique les principes du syndicalisme communautaire, en cherchant à développer du leaderhsip chez ses membres (Cranford et Ladd, 2013), alors que celui de St-Rémi applique un syndicalisme de mobilisation, où le leadership s’exerce par les organisateurs syndicaux (Camfield, 2007). Cette différence et leurs différents mandats font que les impacts des deux cas étudiés diffèrent. D’autres études sont nécessaires pour améliorer le modèle proposé. Ce dernier demeure malgré tout un outil pour les chercheurs ou les syndicats qui veulent évaluer des initiatives ou des pratiques syndicales et permettre, à terme, d’augmenter l’influence du mouvement syndical sur le marché du travail et la société.
Resumo:
Travail dirigé présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maître ès sciences (M.Sc.) en sciences infirmières option formation des sciences infirmières
Resumo:
Software systems are progressively being deployed in many facets of human life. The implication of the failure of such systems, has an assorted impact on its customers. The fundamental aspect that supports a software system, is focus on quality. Reliability describes the ability of the system to function under specified environment for a specified period of time and is used to objectively measure the quality. Evaluation of reliability of a computing system involves computation of hardware and software reliability. Most of the earlier works were given focus on software reliability with no consideration for hardware parts or vice versa. However, a complete estimation of reliability of a computing system requires these two elements to be considered together, and thus demands a combined approach. The present work focuses on this and presents a model for evaluating the reliability of a computing system. The method involves identifying the failure data for hardware components, software components and building a model based on it, to predict the reliability. To develop such a model, focus is given to the systems based on Open Source Software, since there is an increasing trend towards its use and only a few studies were reported on the modeling and measurement of the reliability of such products. The present work includes a thorough study on the role of Free and Open Source Software, evaluation of reliability growth models, and is trying to present an integrated model for the prediction of reliability of a computational system. The developed model has been compared with existing models and its usefulness of is being discussed.
Resumo:
The Kerala model of development mostly bypassed the fishing community, as the fishers form the main miserable groups with respect to many of the socio-economic and quality of life indicators. Modernization drive in the fishing sector paradoxically turns to marginalization drives as far as the traditional fishers in Kerala are concerned. Subsequent management and resource recuperation drives too seemed to be detrimental to the local fishing community. Though SHGs and cooperatives had helped in overcoming many of the maladies in most of the sectors in Kerala in terms of livelihood and employment in the 1980s, the fishing sector by that time had been moving ahead with mechanization and export euphoria and hence it bypassed the fishing sector. Though it has not helped the fishing sector in the initial stages, but because of necessity, it soon has become a vibrant livelihood and employment force in the coastal economy of Kerala. Initial success made it to link this with the governmental cooperative set up and soon SHGs and Cooperatives become reinforcing forces for the inclusive development of the real fishers.The fisheries sector in Kerala has undergone drastic changes with the advent of globalised economy. The traditional fisher folk are one of the most marginalized communities in the state and are left out of the overall development process mainly due to the marginalization of this community both in the sea and in the market due to modernization and mechanization of the sector. Mechanization opened up the sector a great deal as it began to attract people belonging to non-fishing community as moneylenders, boat owners, employers and middle men which often resulted in conflicts between traditional and mechanized fishermen. These factors, together with resource depletion resulted in the backwardness experienced by the traditional fishermen compared to other communities who were reaping the benefits of the overall development scenario.The studies detailing the activities and achievements of fisher folks via Self Help Groups (SHGs) and the cooperative movement in coastal Kerala are scant. The SHGs through cooperatives have been effective in livelihood security, poverty alleviation and inclusive development of the fisher folk (Rajasenan and Rajeev, 2012). The SHGs have a greater role to play as estimated fall in demand for marine products in international markets, which may result in reduction of employment opportunities in fish processing, peeling, etc. Also, technological advancement has made them unskilled to work in this sector making them outliers in the overall development process resulting in poor quality of physical and social infrastructure. Hence, it is all the more important to derive a strategy and best practice methods for the effective functioning of these SHGs so that the
Resumo:
Mit aktiven Magnetlagern ist es möglich, rotierende Körper durch magnetische Felder berührungsfrei zu lagern. Systembedingt sind bei aktiv magnetgelagerten Maschinen wesentliche Signale ohne zusätzlichen Aufwand an Messtechnik für Diagnoseaufgaben verfügbar. In der Arbeit wird ein Konzept entwickelt, das durch Verwendung der systeminhärenten Signale eine Diagnose magnetgelagerter rotierender Maschinen ermöglicht und somit neben einer kontinuierlichen Anlagenüberwachung eine schnelle Bewertung des Anlagenzustandes gestattet. Fehler können rechtzeitig und ursächlich in Art und Größe erkannt und entsprechende Gegenmaßnahmen eingeleitet werden. Anhand der erfassten Signale geschieht die Gewinnung von Merkmalen mit signal- und modellgestützten Verfahren. Für den Magnetlagerregelkreis erfolgen Untersuchungen zum Einsatz modellgestützter Parameteridentifikationsverfahren, deren Verwendbarkeit wird bei der Diagnose am Regler und Leistungsverstärker nachgewiesen. Unter Nutzung von Simulationsmodellen sowie durch Experimente an Versuchsständen werden die Merkmalsverläufe im normalen Referenzzustand und bei auftretenden Fehlern aufgenommen und die Ergebnisse in einer Wissensbasis abgelegt. Diese dient als Grundlage zur Festlegung von Grenzwerten und Regeln für die Überwachung des Systems und zur Erstellung wissensbasierter Diagnosemodelle. Bei der Überwachung werden die Merkmalsausprägungen auf das Überschreiten von Grenzwerten überprüft, Informationen über erkannte Fehler und Betriebszustände gebildet sowie gegebenenfalls Alarmmeldungen ausgegeben. Sich langsam anbahnende Fehler können durch die Berechnung der Merkmalstrends mit Hilfe der Regressionsanalyse erkannt werden. Über die bisher bei aktiven Magnetlagern übliche Überwachung von Grenzwerten hinaus erfolgt bei der Fehlerdiagnose eine Verknüpfung der extrahierten Merkmale zur Identifizierung und Lokalisierung auftretender Fehler. Die Diagnose geschieht mittels regelbasierter Fuzzy-Logik, dies gestattet die Einbeziehung von linguistischen Aussagen in Form von Expertenwissen sowie die Berücksichtigung von Unbestimmtheiten und ermöglicht damit eine Diagnose komplexer Systeme. Für Aktor-, Sensor- und Reglerfehler im Magnetlagerregelkreis sowie Fehler durch externe Kräfte und Unwuchten werden Diagnosemodelle erstellt und verifiziert. Es erfolgt der Nachweis, dass das entwickelte Diagnosekonzept mit beherrschbarem Rechenaufwand korrekte Diagnoseaussagen liefert. Durch Kaskadierung von Fuzzy-Logik-Modulen wird die Transparenz des Regelwerks gewahrt und die Abarbeitung der Regeln optimiert. Endresultat ist ein neuartiges hybrides Diagnosekonzept, welches signal- und modellgestützte Verfahren der Merkmalsgewinnung mit wissensbasierten Methoden der Fehlerdiagnose kombiniert. Das entwickelte Diagnosekonzept ist für die Anpassung an unterschiedliche Anforderungen und Anwendungen bei rotierenden Maschinen konzipiert.
Resumo:
Kern der vorliegenden Arbeit ist die Erforschung von Methoden, Techniken und Werkzeugen zur Fehlersuche in modellbasierten Softwareentwicklungsprozessen. Hierzu wird zuerst ein von mir mitentwickelter, neuartiger und modellbasierter Softwareentwicklungsprozess, der sogenannte Fujaba Process, vorgestellt. Dieser Prozess wird von Usecase Szenarien getrieben, die durch spezielle Kollaborationsdiagramme formalisiert werden. Auch die weiteren Artefakte des Prozess bishin zur fertigen Applikation werden durch UML Diagrammarten modelliert. Es ist keine Programmierung im Quelltext nötig. Werkzeugunterstützung für den vorgestellte Prozess wird von dem Fujaba CASE Tool bereitgestellt. Große Teile der Werkzeugunterstützung für den Fujaba Process, darunter die Toolunterstützung für das Testen und Debuggen, wurden im Rahmen dieser Arbeit entwickelt. Im ersten Teil der Arbeit wird der Fujaba Process im Detail erklärt und unsere Erfahrungen mit dem Einsatz des Prozesses in Industrieprojekten sowie in der Lehre dargestellt. Der zweite Teil beschreibt die im Rahmen dieser Arbeit entwickelte Testgenerierung, die zu einem wichtigen Teil des Fujaba Process geworden ist. Hierbei werden aus den formalisierten Usecase Szenarien ausführbare Testfälle generiert. Es wird das zugrunde liegende Konzept, die konkrete technische Umsetzung und die Erfahrungen aus der Praxis mit der entwickelten Testgenerierung dargestellt. Der letzte Teil beschäftigt sich mit dem Debuggen im Fujaba Process. Es werden verschiedene im Rahmen dieser Arbeit entwickelte Konzepte und Techniken vorgestellt, die die Fehlersuche während der Applikationsentwicklung vereinfachen. Hierbei wurde darauf geachtet, dass das Debuggen, wie alle anderen Schritte im Fujaba Process, ausschließlich auf Modellebene passiert. Unter anderem werden Techniken zur schrittweisen Ausführung von Modellen, ein Objekt Browser und ein Debugger, der die rückwärtige Ausführung von Programmen erlaubt (back-in-time debugging), vorgestellt. Alle beschriebenen Konzepte wurden in dieser Arbeit als Plugins für die Eclipse Version von Fujaba, Fujaba4Eclipse, implementiert und erprobt. Bei der Implementierung der Plugins wurde auf eine enge Integration mit Fujaba zum einen und mit Eclipse auf der anderen Seite geachtet. Zusammenfassend wird also ein Entwicklungsprozess vorgestellt, die Möglichkeit in diesem mit automatischen Tests Fehler zu identifizieren und diese Fehler dann mittels spezieller Debuggingtechniken im Programm zu lokalisieren und schließlich zu beheben. Dabei läuft der komplette Prozess auf Modellebene ab. Für die Test- und Debuggingtechniken wurden in dieser Arbeit Plugins für Fujaba4Eclipse entwickelt, die den Entwickler bestmöglich bei der zugehörigen Tätigkeit unterstützen.
Resumo:
Im Rahmen dieser Arbeit werden Modellbildungsverfahren zur echtzeitfähigen Simulation wichtiger Schadstoffkomponenten im Abgasstrom von Verbrennungsmotoren vorgestellt. Es wird ein ganzheitlicher Entwicklungsablauf dargestellt, dessen einzelne Schritte, beginnend bei der Ver-suchsplanung über die Erstellung einer geeigneten Modellstruktur bis hin zur Modellvalidierung, detailliert beschrieben werden. Diese Methoden werden zur Nachbildung der dynamischen Emissi-onsverläufe relevanter Schadstoffe des Ottomotors angewendet. Die abgeleiteten Emissionsmodelle dienen zusammen mit einer Gesamtmotorsimulation zur Optimierung von Betriebstrategien in Hybridfahrzeugen. Im ersten Abschnitt der Arbeit wird eine systematische Vorgehensweise zur Planung und Erstellung von komplexen, dynamischen und echtzeitfähigen Modellstrukturen aufgezeigt. Es beginnt mit einer physikalisch motivierten Strukturierung, die eine geeignete Unterteilung eines Prozessmodells in einzelne überschaubare Elemente vorsieht. Diese Teilmodelle werden dann, jeweils ausgehend von einem möglichst einfachen nominalen Modellkern, schrittweise erweitert und ermöglichen zum Abschluss eine robuste Nachbildung auch komplexen, dynamischen Verhaltens bei hinreichender Genauigkeit. Da einige Teilmodelle als neuronale Netze realisiert werden, wurde eigens ein Verfah-ren zur sogenannten diskreten evidenten Interpolation (DEI) entwickelt, das beim Training einge-setzt, und bei minimaler Messdatenanzahl ein plausibles, also evidentes Verhalten experimenteller Modelle sicherstellen kann. Zum Abgleich der einzelnen Teilmodelle wurden statistische Versuchs-pläne erstellt, die sowohl mit klassischen DoE-Methoden als auch mittels einer iterativen Versuchs-planung (iDoE ) generiert wurden. Im zweiten Teil der Arbeit werden, nach Ermittlung der wichtigsten Einflussparameter, die Model-strukturen zur Nachbildung dynamischer Emissionsverläufe ausgewählter Abgaskomponenten vor-gestellt, wie unverbrannte Kohlenwasserstoffe (HC), Stickstoffmonoxid (NO) sowie Kohlenmono-xid (CO). Die vorgestellten Simulationsmodelle bilden die Schadstoffkonzentrationen eines Ver-brennungsmotors im Kaltstart sowie in der anschließenden Warmlaufphase in Echtzeit nach. Im Vergleich zur obligatorischen Nachbildung des stationären Verhaltens wird hier auch das dynami-sche Verhalten des Verbrennungsmotors in transienten Betriebsphasen ausreichend korrekt darge-stellt. Eine konsequente Anwendung der im ersten Teil der Arbeit vorgestellten Methodik erlaubt, trotz einer Vielzahl von Prozesseinflussgrößen, auch hier eine hohe Simulationsqualität und Ro-bustheit. Die Modelle der Schadstoffemissionen, eingebettet in das dynamische Gesamtmodell eines Ver-brennungsmotors, werden zur Ableitung einer optimalen Betriebsstrategie im Hybridfahrzeug ein-gesetzt. Zur Lösung solcher Optimierungsaufgaben bieten sich modellbasierte Verfahren in beson-derer Weise an, wobei insbesondere unter Verwendung dynamischer als auch kaltstartfähiger Mo-delle und der damit verbundenen Realitätsnähe eine hohe Ausgabequalität erreicht werden kann.