916 resultados para user-centered development process
Resumo:
Ce projet de recherche vise à explorer le rôle du design dans l’acte d’achat et l’évaluation des produits. L’hypothèse de recherche repose sur le fait que le design est un obstacle à la rationalité dans le choix d’un bien, car ce dernier est rattaché à des singularités qui lui sont propres, le rendant difficilement comparable aux autres biens d’un même marché. Les produits deviennent difficiles à évaluer et à classer parmi les autres biens similaires dans le marché. En soi, la finalité et les vertus du design permettent aux consommateurs d’avoir une plus grande liberté de choix, mais ce rôle dynamique et économique que peut prendre le design peut aussi confondre les consommateurs devenant brouillés par l’abondance de choix. En ce sens, le design serait la clé de la voûte d’une économie des singularités telle que proposée par Lucien Karpik dans L’économie des singularités. Avec une méthodologie ethnologique, cinq projets d’évaluation de produits au sein de deux organismes produisant des dispositifs d’aide à la consommation ont été observés sur une période de deux ans. À la conclusion de cette étude, il a été démontré que certaines améliorations pouvaient être apportées aux processus d’évaluation, plus particulièrement en ce qui concerne les facteurs qui ne sont pas pris en compte dans les dispositifs d’aide à la consommation actuels, comme l’évaluation de produits centrée sur l’usager à l’aide de scénarios d’usages, plutôt que l’évaluation de produits centrée sur l’objet, ainsi que la considération de l’expérience de l’usager dans l’évaluation des biens.
Resumo:
Cette thèse par articles porte sur le processus de constitution de la communauté de mouvement social antiautoritaire au Québec, entre 2000 et 2010. Partant du constat de l’évolution de cet acteur politique d’inspiration anarchiste dans la province au cours de cette période, la thèse interroge les facteurs qui ont favorisé sa construction progressive autour de composantes diversifiées. Telles qu’elles se révèlent au grand jour vers la fin de la décennie, les composantes de cette communauté de mouvement social sont en effet hétérogènes au regard des enjeux qui retiennent leur attention, mais convergent néanmoins dans l’adoption de positions politiques, de stratégies d’action et de modes organisationnels caractéristiques de la perspective antiautoritaire contemporaine. Bien que l’environnement politique général dans lequel intervient la communauté antiautoritaire au Québec ait influencer son développement, la thèse démontre que les dynamiques internes à cette communauté sont celles qui ont assuré la pérennité de cet acteur politique en favorisant l’intégration de la diversité qui s’est exprimée en son sein au cours de la période étudiée. Le fait d’appréhender le mouvement antiautoritaire sous l’angle conceptuel de la communauté de mouvement social permet ainsi d’aborder le développement de cet acteur politique dans la continuité, au-delà des seuls moments publics d’interaction avec les autorités. Ce faisant, cette approche met également en lumière les facteurs endogènes qui ont contribué à son développement. Dans la lignée des travaux sur les mouvements sociaux qui proposent une perspective théorique synthétique liant la considération des aspects structurels et culturels dans l’analyse, l’étude du processus de constitution de la communauté antiautoritaire au Québec fait ressortir le rôle des dimensions organisationnelles et identitaires dans ce phénomène. Cette thèse par articles contribue à cette perspective théorique par l’application de l’approche mécanistique dans l’étude des mouvements sociaux. Celle-ci met en relief, d’une part, l’interaction de ces dimensions organisationnelles et identitaires dans la constitution de la communauté antiautoritaire et documente, d’autre part, les dynamiques qui leur sont inhérentes. Le passage graduel du mouvement antiautoritaire vers la configuration de communauté de mouvement social a ainsi été marqué, d’une part, par un processus de constitution organisationnelle qui a interagi avec le processus de démarcation identitaire en cours au sein du mouvement. D’autre part, la communauté antiautoritaire a pu se développer entre 2000 et 2010 grâce à un processus de conciliation identitaire réalisé par le travail identitaire des militants et des militantes. Ces processus ont favorisé la construction d’une identité collective fondée sur la lutte contre la pluralité des formes d’oppression, exprimée à la fois dans le discours et dans les pratiques des acteurs de la communauté antiautoritaire au Québec. La démonstration analytique proposée dans cette thèse repose sur une approche méthodologique de recherche-action participative combinant observation participante, analyse d’entretiens et étude de sources documentaires. L’interprétation empirique de la communauté antiautoritaire est basée sur un projet réalisé conjointement avec le Collectif de recherche sur l’autonomie collective (CRAC) de l’Université Concordia, à Montréal.
Resumo:
Le système de santé d'aujourd'hui fait appel à de nombreuses technologies de l'information nommées TIS (Technologies de l’Information en Santé). Celles-ci ont donné naissance à de nouvelles formes d’interaction médecin-patient et ont complexifié l'approche thérapeutique dite « centrée sur le patient ». Les TIS promettent une plus grande efficacité et l’augmentation de la satisfaction des patients par le biais d’une meilleure compréhension de la maladie pour le patient. Or, elles peuvent également devenir des sources de conflit pour le professionnel de la santé, étant donné leur utilisation en dehors des rencontres cliniques ainsi que leur tendance à agir comme des barrières communicationnelles lors des consultations. Cette recherche vise a étudier les critères de design nécessaires à la conception d’un TIS pouvant améliorer la relation médecin-patient et donc, faciliter la communication et améliorer l’alliance thérapeutique. L’étude utilise une approche centrée sur l’utilisateur et vise donc à comprendre les besoins et les attentes des médecins et des patients. En étudiant les nouvelles approches en santé et les TIS, il a été possible de comprendre le contexte et les besoins des utilisateurs en terme de communication. Ces derniers sont primordiaux au processus dit centré sur l’utilisateur. Le faible taux de rétention du discours du médecin devient une barrière communicationnelle importante, tout comme le temps pressurisé. La recherche nous montre que l’ajout d’un outil virtuel de vulgarisation peut, à l’aide de média visuels (tel que des modélisations, des animations 3D et des dessins), grandement aider la relation médecin-patient.
Resumo:
Malgré le progrès technologique et nos connaissances pharmaceutiques et médicales croissantes, le développement du médicament demeure un processus difficile, dispendieux, long et très risqué. Ce processus mérite d'être amélioré pour faciliter le développement de nouveaux traitements. À cette fin, cette thèse vise à démontrer l’utilité de principes avancés et d’outils élaborés en pharmacocinétique (PK), actuels et nouveaux. Ces outils serviront à répondre efficacement à des questions importantes lors du développement d’un médicament, sauvant ainsi du temps et des coûts. Le premier volet de la thèse porte sur l’utilisation de la modélisation et des simulations et la création d’un nouveau modèle afin d’établir la bioéquivalence entre deux formulations de complexe de gluconate ferrique de sodium en solution de sucrose pour injection. Comparé aux méthodes courantes, cette nouvelle approche proposée se libère de plusieurs présuppositions, et requiert moins de données. Cette technique bénéficie d’une robustesse scientifique tout en étant associée à des économies de temps et de coûts. Donc, même si développé pour produits génériques, elle pourra également s’avérer utile dans le développement de molécules innovatrices et « biosimilaires ». Le deuxième volet décrit l’emploi de la modélisation pour mieux comprendre et quantifier les facteurs influençant la PK et la pharmacodynamie (PD) d’une nouvelle protéine thérapeutique, la pegloticase. L’analyse a démontré qu’aucun ajustement posologique n’était nécessaire et ces résultats sont inclus dans la monographie officielle du produit. Grâce à la modélisation, on pouvait répondre à des questions importantes concernant le dosage d’un médicament sans passer par des nouvelles études ni d'évaluations supplémentaires sur les patients. Donc, l’utilisation de cet outil a permis de réduire les dépenses sans prolonger le processus de développement. Le modèle développé dans le cadre de cette analyse pourrait servir à mieux comprendre d’autres protéines thérapeutiques, incluant leurs propriétés immunogènes. Le dernier volet démontre l’utilité de la modélisation et des simulations dans le choix des régimes posologiques d’un antibiotique (TP-434) pour une étude de Phase 2. Des données provenant d’études de Phase 1 ont été modélisées au fur et à mesure qu’elles devenaient disponibles, afin de construire un modèle décrivant le profil pharmacocinétique du TP-434. Ce processus de modélisation exemplifiait les cycles exploratoires et confirmatoires décrits par Sheiner. Ainsi, en se basant sur des relations PK/PD d’un antibiotique de classe identique, des simulations ont été effectuées avec le modèle PK final, afin de proposer de nouveaux régimes posologiques susceptibles d’être efficace chez les patients avant même d'effectuer des études. Cette démarche rationnelle a mené à l’utilisation de régimes posologiques avec une possibilité accrue d’efficacité, sans le dosage inutile des patients. Ainsi, on s’est dispensé d’études ou de cohortes supplémentaires coûteuses qui auraient prolongé le processus de développement. Enfin, cette analyse est la première à démontrer l’application de ces techniques dans le choix des doses d’antibiotique pour une étude de Phase 2. En conclusion, cette recherche démontre que des outils de PK avancés comme la modélisation et les simulations ainsi que le développement de nouveaux modèles peuvent répondre efficacement et souvent de manière plus robuste à des questions essentielles lors du processus de développement du médicament, tout en réduisant les coûts et en épargnant du temps.
Resumo:
Le système de santé est aujourd’hui marqué d’une complexité attribuable aux maladies chroniques, dont la hausse anticipée de la prévalence génère l’urgence d’une organisation et d’une approche différentes des services dispensés. Ce réaménagement des soins de santé fait appel à un changement de paradigme basé sur la collaboration interprofessionnelle et l’ouverture à l’incertitude, aptes à favoriser une mise en commun des connaissances. Dans cette perspective, les communautés de pratique (CdeP) semblent un moyen qui favorise le développement de la collaboration interprofessionnelle et le partage des connaissances. Elles apparaissent donc comme une formule qui mérite une investigation, à savoir si elles peuvent favoriser une telle collaboration et faciliter la co-construction de connaissances permettant une pratique évolutive, centrée sur le patient. Notre recherche s’inscrit dans cette optique et s’intéresse aux expériences, rapportées dans la littérature, de collaboration interprofessionnelle au sein de communautés de pratique centrées sur le patient atteint de maladie chronique. Pour ce faire, nous avons d’abord développé un cadre conceptuel visant à identifier les fondements théoriques et conceptuels de la notion de communauté de pratique. Ceci nous a amené à : 1) analyser l’évolution du concept de CdeP dans les principales œuvres de Wenger et de ses collaborateurs; 2) positionner les CdeP eu égard à d’autres formules de travail collaboratif (communauté, communauté d’apprentissage, communauté apprenante, organisation apprenante, communauté épistémique); 3) comparer le concept de collaboration avec d’autres s’en rapprochant (coopération notamment), de même que les notions d’interdisciplinarité et d’interprofessionnalité souvent associées à celle de CdeP; 4) étayer les dimensions cognitive et collaborative inhérentes aux expériences de CdeP; et 5) identifier les avancées et les limites attribuées à la mise en application du concept de CdeP dans le domaine de la santé. La métasynthèse (Beaucher et Jutras, 2007) dans une approche « compréhensive interprétative », s’est imposée comme méthode appropriée à notre intention de mieux saisir les expériences de collaboration interprofessionnelle menées dans le cadre des CdeP dans le domaine de la santé. La métasynthèse nous a ainsi permis d’obtenir une vue d’ensemble de la littérature portant sur les CdeP dans le domaine de la santé et de catégoriser les 194 articles rassemblés, pour ensuite retenir 13 articles traitant d’une réelle expérience de CdeP. Ainsi, dans une perspective contributoire, basée sur notre cadre conceptuel, l’analyse des principaux résultats de la métasynthèse, nous a permis 1) d’identifier les flous conceptuels liés aux expériences de CdeP rapportées, ainsi que 2) de dégager les retombées et les difficultés de leur mise en application dans le domaine de la santé et, enfin, 3) de démontrer la nécessité de mener des recherches visant l’étude du processus de développement de CdeP sur le terrain de la pratique de soins, notamment mais non exclusivement, lorsqu’il s’agit de maladies chroniques.
Resumo:
Cette recherche porte un regard critique sur les interfaces de spatialisation sonore et positionne la composition de musique spatiale, un champ d’étude en musique, à l’avant plan d’une recherche en design. Il détaille l’approche de recherche qui est centrée sur le processus de composition de musique spatiale et les modèles mentaux de compositeurs électroacoustiques afin de livrer des recommandations de design pour le développement d’une interface de spatialisation musicale nommée Centor. Cette recherche montre qu’un processus de design mené à l’intersection du design d’interface, du design d’interaction et de la théorie musicale peut mener à une proposition pertinente et innovatrice pour chacun des domaines d’étude. Nous présentons la recherche et le développement du concept de spatialisation additive, une méthode de spatialisation sonore par patrons qui applique le vocabulaire spectromorphologique de Denis Smalley. C’est un concept d’outil de spatialisation pour le studio qui complémente les interfaces de composition actuelles et ouvre un nouveau champ de possibilités pour l’exploration spatiale en musique électroacoustique. La démarche de recherche présentée ici se veut une contribution au domaine du design d’interfaces musicales, spécifiquement les interfaces de spatialisation, mais propose aussi un processus de design pour la création d’interfaces numériques d’expression artistique.
Resumo:
L’« appropriation » par les pays en développement (PED) de leurs processus de développement forme la clef de voûte de la nouvelle approche de l’aide et de la coopération au développement telle que promue par la Déclaration de Paris (2005). Si ce passage vers l’« appropriation » vise à installer les PED « dans le siège du conducteur », il reste tout de même inscrit dans une relation d’aide. Or, la Déclaration de Paris pose cette « appropriation » comme le résultat d’un consensus et comme un principe devant être mis en oeuvre sur un terrain vierge via une série de mesures techniques préoccupées par une efficacité ou plutôt une efficience de l’aide. En s’intéressant à la perspective d’acteurs sociaux nationaux quant à cette question de l’ « appropriation » à partir d’une étude de cas c’est-à-dire d’un contexte précis, ici celui du Rwanda, cette thèse vise à démontrer que l’agenda et les politiques en matière de développement, dont la question de l’ « appropriation », ne peuvent être saisis dans un vide contextuel. En effet, ce que met en évidence la perspective des acteurs sociaux nationaux au Rwanda quant à cette question de l’ « appropriation », c’est leur réinscription de cette question dans le contexte du Rwanda post-génocide et dépendant de l’aide, et leur appréhension de celle-ci à partir de ce contexte. Ce contexte informe le récit de ces acteurs qui met en sens et en forme cette « appropriation ». Leur saisie de l’ « appropriation » se bâtit autour d’un double impératif dans le contexte du Rwanda post-génocide, un impératif d’une part de reconstruction socio-économique et d’autre part d’édification d’une nation, et ce, à la lumière des tensions ‘ethniques’ qui traversent et structurent historiquement l’espace politique et social rwandais et qui ont donné lieu au génocide de 1994.
Resumo:
Les politiques de confidentialité définissent comment les services en ligne collectent, utilisent et partagent les données des utilisateurs. Bien qu’étant le principal moyen pour informer les usagers de l’utilisation de leurs données privées, les politiques de confidentialité sont en général ignorées par ces derniers. Pour cause, les utilisateurs les trouvent trop longues et trop vagues, elles utilisent un vocabulaire souvent difficile et n’ont pas de format standard. Les politiques de confidentialité confrontent également les utilisateurs à un dilemme : celui d’accepter obligatoirement tout le contenu en vue d’utiliser le service ou refuser le contenu sous peine de ne pas y avoir accès. Aucune autre option n’est accordée à l’utilisateur. Les données collectées des utilisateurs permettent aux services en ligne de leur fournir un service, mais aussi de les exploiter à des fins économiques (publicités ciblées, revente, etc). Selon diverses études, permettre aux utilisateurs de bénéficier de cette économie de la vie privée pourrait restaurer leur confiance et faciliter une continuité des échanges sur Internet. Dans ce mémoire, nous proposons un modèle de politique de confidentialité, inspiré du P3P (une recommandation du W3C, World Wide Web Consortium), en élargissant ses fonctionnalités et en réduisant sa complexité. Ce modèle suit un format bien défini permettant aux utilisateurs et aux services en ligne de définir leurs préférences et besoins. Les utilisateurs ont la possibilité de décider de l’usage spécifique et des conditions de partage de chacune de leurs données privées. Une phase de négociation permettra une analyse des besoins du service en ligne et des préférences de l’utilisateur afin d’établir un contrat de confidentialité. La valeur des données personnelles est un aspect important de notre étude. Alors que les compagnies disposent de moyens leur permettant d’évaluer cette valeur, nous appliquons dans ce mémoire, une méthode hiérarchique multicritères. Cette méthode va permettre également à chaque utilisateur de donner une valeur à ses données personnelles en fonction de l’importance qu’il y accorde. Dans ce modèle, nous intégrons également une autorité de régulation en charge de mener les négociations entre utilisateurs et services en ligne, et de générer des recommandations aux usagers en fonction de leur profil et des tendances.
Resumo:
Analog-to digital Converters (ADC) have an important impact on the overall performance of signal processing system. This research is to explore efficient techniques for the design of sigma-delta ADC,specially for multi-standard wireless tranceivers. In particular, the aim is to develop novel models and algorithms to address this problem and to implement software tools which are avle to assist the designer's decisions in the system-level exploration phase. To this end, this thesis presents a framework of techniques to design sigma-delta analog to digital converters.A2-2-2 reconfigurable sigma-delta modulator is proposed which can meet the design specifications of the three wireless communication standards namely GSM,WCDMA and WLAN. A sigma-delta modulator design tool is developed using the Graphical User Interface Development Environment (GUIDE) In MATLAB.Genetic Algorithm(GA) based search method is introduced to find the optimum value of the scaling coefficients and to maximize the dynamic range in a sigma-delta modulator.
Resumo:
Code clones are portions of source code which are similar to the original program code. The presence of code clones is considered as a bad feature of software as the maintenance of software becomes difficult due to the presence of code clones. Methods for code clone detection have gained immense significance in the last few years as they play a significant role in engineering applications such as analysis of program code, program understanding, plagiarism detection, error detection, code compaction and many more similar tasks. Despite of all these facts, several features of code clones if properly utilized can make software development process easier. In this work, we have pointed out such a feature of code clones which highlight the relevance of code clones in test sequence identification. Here program slicing is used in code clone detection. In addition, a classification of code clones is presented and the benefit of using program slicing in code clone detection is also mentioned in this work.
Resumo:
Non-governmental Organisations (NGOs) have not only gained more and more relevance in the development process of Near Eastern developing societies, but they have also raised an increasing scholarly interest. The traditional civil society in the Middle East, which used to be in charge of the tribe or large families, has been altered by new groups, which are organized around new social structures, interests and goals. The number of NGOs has experienced a swift increase in number and size, and the extent of some renders them important players in the social welfare sector, both at the national and global levels. The expansion and the increasing role of NGOs worldwide since the end of the 1970s as actors in socio-economic development and in the formulation of public policies has had great influence around the globe. However, this new function is not automatically the outcome of independent activity; but rather the result of ramified relationships between the national and international environment.
Resumo:
Distributed systems are one of the most vital components of the economy. The most prominent example is probably the internet, a constituent element of our knowledge society. During the recent years, the number of novel network types has steadily increased. Amongst others, sensor networks, distributed systems composed of tiny computational devices with scarce resources, have emerged. The further development and heterogeneous connection of such systems imposes new requirements on the software development process. Mobile and wireless networks, for instance, have to organize themselves autonomously and must be able to react to changes in the environment and to failing nodes alike. Researching new approaches for the design of distributed algorithms may lead to methods with which these requirements can be met efficiently. In this thesis, one such method is developed, tested, and discussed in respect of its practical utility. Our new design approach for distributed algorithms is based on Genetic Programming, a member of the family of evolutionary algorithms. Evolutionary algorithms are metaheuristic optimization methods which copy principles from natural evolution. They use a population of solution candidates which they try to refine step by step in order to attain optimal values for predefined objective functions. The synthesis of an algorithm with our approach starts with an analysis step in which the wanted global behavior of the distributed system is specified. From this specification, objective functions are derived which steer a Genetic Programming process where the solution candidates are distributed programs. The objective functions rate how close these programs approximate the goal behavior in multiple randomized network simulations. The evolutionary process step by step selects the most promising solution candidates and modifies and combines them with mutation and crossover operators. This way, a description of the global behavior of a distributed system is translated automatically to programs which, if executed locally on the nodes of the system, exhibit this behavior. In our work, we test six different ways for representing distributed programs, comprising adaptations and extensions of well-known Genetic Programming methods (SGP, eSGP, and LGP), one bio-inspired approach (Fraglets), and two new program representations called Rule-based Genetic Programming (RBGP, eRBGP) designed by us. We breed programs in these representations for three well-known example problems in distributed systems: election algorithms, the distributed mutual exclusion at a critical section, and the distributed computation of the greatest common divisor of a set of numbers. Synthesizing distributed programs the evolutionary way does not necessarily lead to the envisaged results. In a detailed analysis, we discuss the problematic features which make this form of Genetic Programming particularly hard. The two Rule-based Genetic Programming approaches have been developed especially in order to mitigate these difficulties. In our experiments, at least one of them (eRBGP) turned out to be a very efficient approach and in most cases, was superior to the other representations.
Resumo:
Kern der vorliegenden Arbeit ist die Erforschung von Methoden, Techniken und Werkzeugen zur Fehlersuche in modellbasierten Softwareentwicklungsprozessen. Hierzu wird zuerst ein von mir mitentwickelter, neuartiger und modellbasierter Softwareentwicklungsprozess, der sogenannte Fujaba Process, vorgestellt. Dieser Prozess wird von Usecase Szenarien getrieben, die durch spezielle Kollaborationsdiagramme formalisiert werden. Auch die weiteren Artefakte des Prozess bishin zur fertigen Applikation werden durch UML Diagrammarten modelliert. Es ist keine Programmierung im Quelltext nötig. Werkzeugunterstützung für den vorgestellte Prozess wird von dem Fujaba CASE Tool bereitgestellt. Große Teile der Werkzeugunterstützung für den Fujaba Process, darunter die Toolunterstützung für das Testen und Debuggen, wurden im Rahmen dieser Arbeit entwickelt. Im ersten Teil der Arbeit wird der Fujaba Process im Detail erklärt und unsere Erfahrungen mit dem Einsatz des Prozesses in Industrieprojekten sowie in der Lehre dargestellt. Der zweite Teil beschreibt die im Rahmen dieser Arbeit entwickelte Testgenerierung, die zu einem wichtigen Teil des Fujaba Process geworden ist. Hierbei werden aus den formalisierten Usecase Szenarien ausführbare Testfälle generiert. Es wird das zugrunde liegende Konzept, die konkrete technische Umsetzung und die Erfahrungen aus der Praxis mit der entwickelten Testgenerierung dargestellt. Der letzte Teil beschäftigt sich mit dem Debuggen im Fujaba Process. Es werden verschiedene im Rahmen dieser Arbeit entwickelte Konzepte und Techniken vorgestellt, die die Fehlersuche während der Applikationsentwicklung vereinfachen. Hierbei wurde darauf geachtet, dass das Debuggen, wie alle anderen Schritte im Fujaba Process, ausschließlich auf Modellebene passiert. Unter anderem werden Techniken zur schrittweisen Ausführung von Modellen, ein Objekt Browser und ein Debugger, der die rückwärtige Ausführung von Programmen erlaubt (back-in-time debugging), vorgestellt. Alle beschriebenen Konzepte wurden in dieser Arbeit als Plugins für die Eclipse Version von Fujaba, Fujaba4Eclipse, implementiert und erprobt. Bei der Implementierung der Plugins wurde auf eine enge Integration mit Fujaba zum einen und mit Eclipse auf der anderen Seite geachtet. Zusammenfassend wird also ein Entwicklungsprozess vorgestellt, die Möglichkeit in diesem mit automatischen Tests Fehler zu identifizieren und diese Fehler dann mittels spezieller Debuggingtechniken im Programm zu lokalisieren und schließlich zu beheben. Dabei läuft der komplette Prozess auf Modellebene ab. Für die Test- und Debuggingtechniken wurden in dieser Arbeit Plugins für Fujaba4Eclipse entwickelt, die den Entwickler bestmöglich bei der zugehörigen Tätigkeit unterstützen.
Resumo:
Das Ziel der Dissertation war die Untersuchung des Computereinsatzes zur Lern- und Betreuungsunterstützung beim selbstgesteuerten Lernen in der Weiterbildung. In einem bisher konventionell durchgeführten Selbstlernkurs eines berufsbegleitenden Studiengangs, der an das Datenmanagement der Bürodatenverarbeitung heranführt, wurden die Kursunterlagen digitalisiert, die Betreuung auf eine online-basierte Lernbegleitung umgestellt und ein auf die neuen Lernmedien abgestimmtes Lernkonzept entwickelt. Dieses neue Lernkonzept wurde hinsichtlich der Motivation und der Akzeptanz von digitalen Lernmedien evaluiert. Die Evaluation bestand aus zwei Teilen: 1. eine formative, den Entwicklungsprozess begleitende Evaluation zur Optimierung der entwickelten Lernsoftware und des eingeführten Lernkonzeptes, 2. eine sowohl qualitative wie quantitative summative Evaluation der Entwicklungen. Ein zentraler Aspekt der Untersuchung war die freie Wahl der Lernmedien (multimediale Lernsoftware oder konventionelles Begleitbuch) und der Kommunikationsmedien (online-basierte Lernplattform oder die bisher genutzten Kommunikationskanäle: E-Mail, Telefon und Präsenztreffen). Diese Zweigleisigkeit erlaubte eine differenzierte Gegenüberstellung von konventionellen und innovativen Lernarrangements. Die Verbindung von qualitativen und quantitativen Vorgehensweisen, auf Grund derer die subjektiven Einstellungen der Probanden in das Zentrum der Betrachtung rückten, ließen einen Blickwinkel auf den Nutzen und die Wirkung der Neuen Medien in Lernprozessen zu, der es erlaubte einige in der Literatur als gängig angesehene Interpretationen in Frage zu stellen und neu zu diskutieren. So konnten durch eine Kategorisierung des Teilnehmerverhaltens nach online-typisch und nicht online-typisch die Ursache-Wirkungs-Beziehungen der in vielen Untersuchungen angeführten Störungen in Online-Seminaren verdeutlicht werden. In den untersuchten Kursen zeigte sich beispielsweise keine Abhängigkeit der Drop-out-Quote von den Lern- und Betreuungsformen und dass diese Quote mit dem neuen Lernkonzept nur geringfügig beeinflusst werden konnte. Die freie Wahl der Lernmedien führte zu einer gezielten Nutzung der multimedialen Lernsoftware, wodurch die Akzeptanz dieses Lernmedium stieg. Dagegen war die Akzeptanz der Lernenden gegenüber der Lernbegleitung mittels einer Online-Lernplattform von hoch bis sehr niedrig breit gestreut. Unabhängig davon reichte in allen Kursdurchgängen die Online-Betreuung nicht aus, so dass Präsenztreffen erbeten wurde. Hinsichtlich der Motivation war die Wirkung der digitalen Medien niedriger als erwartet. Insgesamt bieten die Ergebnisse Empfehlungen für die Planung und Durchführung von computerunterstützten, online-begleiteten Kursen.
Resumo:
Im Rahmen dieser Arbeit werden Modellbildungsverfahren zur echtzeitfähigen Simulation wichtiger Schadstoffkomponenten im Abgasstrom von Verbrennungsmotoren vorgestellt. Es wird ein ganzheitlicher Entwicklungsablauf dargestellt, dessen einzelne Schritte, beginnend bei der Ver-suchsplanung über die Erstellung einer geeigneten Modellstruktur bis hin zur Modellvalidierung, detailliert beschrieben werden. Diese Methoden werden zur Nachbildung der dynamischen Emissi-onsverläufe relevanter Schadstoffe des Ottomotors angewendet. Die abgeleiteten Emissionsmodelle dienen zusammen mit einer Gesamtmotorsimulation zur Optimierung von Betriebstrategien in Hybridfahrzeugen. Im ersten Abschnitt der Arbeit wird eine systematische Vorgehensweise zur Planung und Erstellung von komplexen, dynamischen und echtzeitfähigen Modellstrukturen aufgezeigt. Es beginnt mit einer physikalisch motivierten Strukturierung, die eine geeignete Unterteilung eines Prozessmodells in einzelne überschaubare Elemente vorsieht. Diese Teilmodelle werden dann, jeweils ausgehend von einem möglichst einfachen nominalen Modellkern, schrittweise erweitert und ermöglichen zum Abschluss eine robuste Nachbildung auch komplexen, dynamischen Verhaltens bei hinreichender Genauigkeit. Da einige Teilmodelle als neuronale Netze realisiert werden, wurde eigens ein Verfah-ren zur sogenannten diskreten evidenten Interpolation (DEI) entwickelt, das beim Training einge-setzt, und bei minimaler Messdatenanzahl ein plausibles, also evidentes Verhalten experimenteller Modelle sicherstellen kann. Zum Abgleich der einzelnen Teilmodelle wurden statistische Versuchs-pläne erstellt, die sowohl mit klassischen DoE-Methoden als auch mittels einer iterativen Versuchs-planung (iDoE ) generiert wurden. Im zweiten Teil der Arbeit werden, nach Ermittlung der wichtigsten Einflussparameter, die Model-strukturen zur Nachbildung dynamischer Emissionsverläufe ausgewählter Abgaskomponenten vor-gestellt, wie unverbrannte Kohlenwasserstoffe (HC), Stickstoffmonoxid (NO) sowie Kohlenmono-xid (CO). Die vorgestellten Simulationsmodelle bilden die Schadstoffkonzentrationen eines Ver-brennungsmotors im Kaltstart sowie in der anschließenden Warmlaufphase in Echtzeit nach. Im Vergleich zur obligatorischen Nachbildung des stationären Verhaltens wird hier auch das dynami-sche Verhalten des Verbrennungsmotors in transienten Betriebsphasen ausreichend korrekt darge-stellt. Eine konsequente Anwendung der im ersten Teil der Arbeit vorgestellten Methodik erlaubt, trotz einer Vielzahl von Prozesseinflussgrößen, auch hier eine hohe Simulationsqualität und Ro-bustheit. Die Modelle der Schadstoffemissionen, eingebettet in das dynamische Gesamtmodell eines Ver-brennungsmotors, werden zur Ableitung einer optimalen Betriebsstrategie im Hybridfahrzeug ein-gesetzt. Zur Lösung solcher Optimierungsaufgaben bieten sich modellbasierte Verfahren in beson-derer Weise an, wobei insbesondere unter Verwendung dynamischer als auch kaltstartfähiger Mo-delle und der damit verbundenen Realitätsnähe eine hohe Ausgabequalität erreicht werden kann.