908 resultados para service development process


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Combiner le respect du milieu et le bien-être des personnes qui vivent de l’exploitation des ressources naturelles en Amazonie est une préoccupation qui est appelée à transformer les politiques d’exploitation du territoire. Je montre dans cette étude que les gains du développement économique, la protection de l’environnement et l’amélioration du niveau de vie des populations locales sont des objectifs compatibles. Toutefois, des tensions entre les trois piliers du développement durable subsistent et nécessitent une forme de négociation pour arriver à un équilibre des coûts et bénéfices du développement. En Amazonie, cette négociation prend la forme d’un encadrement du développement par les législations gouvernementales. Ces lois clarifient les droits de propriété et établissent un système de gestion de l’exploitation des ressources forestières tant sur les terres publiques que sur les terres privées. En analysant deux cas d’exploitation de ressources issues de la forêt, soit le bois d’œuvre et la baie d’açaí, j’explique les raisons pour lesquelles les populations locales vivant de l’exploitation des diverses ressources forestières sont peu intégrées dans le processus de développement. La régulation publique s’appliquant à l’exploitation du bois tend à criminaliser les activités pratiquées par les populations locales sans apporter d’alternative autre que les plans de gestion forestière. Dans le cas de la baie d’açaí, la coexistence de la culture et de la cueillette comme systèmes de production permet aux populations locales de continuer leurs activités traditionnelles et une répartition des coûts et bénéfices du développement plus équitable entre les acteurs.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

"Herbert Burket trace l’évolution des concepts reliés au ""droit de l’Internet"" dans le cadre du droit de l’Union Européenne. Initialement, ce domaine du droit était perçu comme une nouvelle discipline normative. Or, l’auteur soutient que le ""droit de l’Internet"" n’est pas un domaine normatif distinct, mais correspond aux domaines traditionnels auxquels il a été progressivement intégré. Le ""droit de l’Internet"" a amélioré notre compréhension du processus général d’évolution du droit. L’auteur souligne, entre autres, comment le législateur européen a réagi par diverses législations aux nouveaux impératifs technologiques. De plus, ce domaine offre une nouvelle perspective pour l’analyse de l’évolution des normes face aux innovations technologiques. Les tribunaux, les législateurs et les parties privées sont autant d’acteurs qui interviennent à différents moments et sur différents aspects du processus d’évolution du droit. Enfin, on s’attendait à ce que le droit de l’Internet conduise à la mondialisation des normes, à l’autorégulation des acteurs et à une architecture structurelle normative ouverte. L’auteur constate que la mondialisation des normes ne semble pas s’être réalisée. L’autorégulation, dans le domaine de l’Internet, fait référence aux normes de comportement établies par des acteurs privés et mixtes. Enfin, le concept d’architecture structurelle normative réfère au fait que les créateurs d’un système technologique imposent involontairement certaines règles aux utilisateurs, en dépit de l’affirmation qu’un tel système technologique est normativement neutre. L’auteur soutient que ces attentes, bien qu’elles soient toujours présentes au sein de l’activité normative, n’ont plus la même signification qu’au moment de leur formulation originale. Les concepts traditionnels de période normative, de juridiction, d’acteurs et de procédure ont aussi évolué parallèlement au développement du ""droit de l’Internet"", autant dans le cadre de l’environnement normatif de l’Union Européenne que dans celui du droit international en général. L’évolution de ces concepts modifie le processus de création du droit, ainsi que le rôle et les fonctions des intervenants impliqués dans ce processus.L’auteur conclut en soulignant que le concept même de droit a évolué en perdant ses représentations symboliques traditionnelles grâce au développement de l’accès généralisé à l’information, à l’évolution des technologies de l’information et à leur impact culturel."

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette thèse par articles porte sur le processus de constitution de la communauté de mouvement social antiautoritaire au Québec, entre 2000 et 2010. Partant du constat de l’évolution de cet acteur politique d’inspiration anarchiste dans la province au cours de cette période, la thèse interroge les facteurs qui ont favorisé sa construction progressive autour de composantes diversifiées. Telles qu’elles se révèlent au grand jour vers la fin de la décennie, les composantes de cette communauté de mouvement social sont en effet hétérogènes au regard des enjeux qui retiennent leur attention, mais convergent néanmoins dans l’adoption de positions politiques, de stratégies d’action et de modes organisationnels caractéristiques de la perspective antiautoritaire contemporaine. Bien que l’environnement politique général dans lequel intervient la communauté antiautoritaire au Québec ait influencer son développement, la thèse démontre que les dynamiques internes à cette communauté sont celles qui ont assuré la pérennité de cet acteur politique en favorisant l’intégration de la diversité qui s’est exprimée en son sein au cours de la période étudiée. Le fait d’appréhender le mouvement antiautoritaire sous l’angle conceptuel de la communauté de mouvement social permet ainsi d’aborder le développement de cet acteur politique dans la continuité, au-delà des seuls moments publics d’interaction avec les autorités. Ce faisant, cette approche met également en lumière les facteurs endogènes qui ont contribué à son développement. Dans la lignée des travaux sur les mouvements sociaux qui proposent une perspective théorique synthétique liant la considération des aspects structurels et culturels dans l’analyse, l’étude du processus de constitution de la communauté antiautoritaire au Québec fait ressortir le rôle des dimensions organisationnelles et identitaires dans ce phénomène. Cette thèse par articles contribue à cette perspective théorique par l’application de l’approche mécanistique dans l’étude des mouvements sociaux. Celle-ci met en relief, d’une part, l’interaction de ces dimensions organisationnelles et identitaires dans la constitution de la communauté antiautoritaire et documente, d’autre part, les dynamiques qui leur sont inhérentes. Le passage graduel du mouvement antiautoritaire vers la configuration de communauté de mouvement social a ainsi été marqué, d’une part, par un processus de constitution organisationnelle qui a interagi avec le processus de démarcation identitaire en cours au sein du mouvement. D’autre part, la communauté antiautoritaire a pu se développer entre 2000 et 2010 grâce à un processus de conciliation identitaire réalisé par le travail identitaire des militants et des militantes. Ces processus ont favorisé la construction d’une identité collective fondée sur la lutte contre la pluralité des formes d’oppression, exprimée à la fois dans le discours et dans les pratiques des acteurs de la communauté antiautoritaire au Québec. La démonstration analytique proposée dans cette thèse repose sur une approche méthodologique de recherche-action participative combinant observation participante, analyse d’entretiens et étude de sources documentaires. L’interprétation empirique de la communauté antiautoritaire est basée sur un projet réalisé conjointement avec le Collectif de recherche sur l’autonomie collective (CRAC) de l’Université Concordia, à Montréal.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Malgré le progrès technologique et nos connaissances pharmaceutiques et médicales croissantes, le développement du médicament demeure un processus difficile, dispendieux, long et très risqué. Ce processus mérite d'être amélioré pour faciliter le développement de nouveaux traitements. À cette fin, cette thèse vise à démontrer l’utilité de principes avancés et d’outils élaborés en pharmacocinétique (PK), actuels et nouveaux. Ces outils serviront à répondre efficacement à des questions importantes lors du développement d’un médicament, sauvant ainsi du temps et des coûts. Le premier volet de la thèse porte sur l’utilisation de la modélisation et des simulations et la création d’un nouveau modèle afin d’établir la bioéquivalence entre deux formulations de complexe de gluconate ferrique de sodium en solution de sucrose pour injection. Comparé aux méthodes courantes, cette nouvelle approche proposée se libère de plusieurs présuppositions, et requiert moins de données. Cette technique bénéficie d’une robustesse scientifique tout en étant associée à des économies de temps et de coûts. Donc, même si développé pour produits génériques, elle pourra également s’avérer utile dans le développement de molécules innovatrices et « biosimilaires ». Le deuxième volet décrit l’emploi de la modélisation pour mieux comprendre et quantifier les facteurs influençant la PK et la pharmacodynamie (PD) d’une nouvelle protéine thérapeutique, la pegloticase. L’analyse a démontré qu’aucun ajustement posologique n’était nécessaire et ces résultats sont inclus dans la monographie officielle du produit. Grâce à la modélisation, on pouvait répondre à des questions importantes concernant le dosage d’un médicament sans passer par des nouvelles études ni d'évaluations supplémentaires sur les patients. Donc, l’utilisation de cet outil a permis de réduire les dépenses sans prolonger le processus de développement. Le modèle développé dans le cadre de cette analyse pourrait servir à mieux comprendre d’autres protéines thérapeutiques, incluant leurs propriétés immunogènes. Le dernier volet démontre l’utilité de la modélisation et des simulations dans le choix des régimes posologiques d’un antibiotique (TP-434) pour une étude de Phase 2. Des données provenant d’études de Phase 1 ont été modélisées au fur et à mesure qu’elles devenaient disponibles, afin de construire un modèle décrivant le profil pharmacocinétique du TP-434. Ce processus de modélisation exemplifiait les cycles exploratoires et confirmatoires décrits par Sheiner. Ainsi, en se basant sur des relations PK/PD d’un antibiotique de classe identique, des simulations ont été effectuées avec le modèle PK final, afin de proposer de nouveaux régimes posologiques susceptibles d’être efficace chez les patients avant même d'effectuer des études. Cette démarche rationnelle a mené à l’utilisation de régimes posologiques avec une possibilité accrue d’efficacité, sans le dosage inutile des patients. Ainsi, on s’est dispensé d’études ou de cohortes supplémentaires coûteuses qui auraient prolongé le processus de développement. Enfin, cette analyse est la première à démontrer l’application de ces techniques dans le choix des doses d’antibiotique pour une étude de Phase 2. En conclusion, cette recherche démontre que des outils de PK avancés comme la modélisation et les simulations ainsi que le développement de nouveaux modèles peuvent répondre efficacement et souvent de manière plus robuste à des questions essentielles lors du processus de développement du médicament, tout en réduisant les coûts et en épargnant du temps.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le système de santé est aujourd’hui marqué d’une complexité attribuable aux maladies chroniques, dont la hausse anticipée de la prévalence génère l’urgence d’une organisation et d’une approche différentes des services dispensés. Ce réaménagement des soins de santé fait appel à un changement de paradigme basé sur la collaboration interprofessionnelle et l’ouverture à l’incertitude, aptes à favoriser une mise en commun des connaissances. Dans cette perspective, les communautés de pratique (CdeP) semblent un moyen qui favorise le développement de la collaboration interprofessionnelle et le partage des connaissances. Elles apparaissent donc comme une formule qui mérite une investigation, à savoir si elles peuvent favoriser une telle collaboration et faciliter la co-construction de connaissances permettant une pratique évolutive, centrée sur le patient. Notre recherche s’inscrit dans cette optique et s’intéresse aux expériences, rapportées dans la littérature, de collaboration interprofessionnelle au sein de communautés de pratique centrées sur le patient atteint de maladie chronique. Pour ce faire, nous avons d’abord développé un cadre conceptuel visant à identifier les fondements théoriques et conceptuels de la notion de communauté de pratique. Ceci nous a amené à : 1) analyser l’évolution du concept de CdeP dans les principales œuvres de Wenger et de ses collaborateurs; 2) positionner les CdeP eu égard à d’autres formules de travail collaboratif (communauté, communauté d’apprentissage, communauté apprenante, organisation apprenante, communauté épistémique); 3) comparer le concept de collaboration avec d’autres s’en rapprochant (coopération notamment), de même que les notions d’interdisciplinarité et d’interprofessionnalité souvent associées à celle de CdeP; 4) étayer les dimensions cognitive et collaborative inhérentes aux expériences de CdeP; et 5) identifier les avancées et les limites attribuées à la mise en application du concept de CdeP dans le domaine de la santé. La métasynthèse (Beaucher et Jutras, 2007) dans une approche « compréhensive interprétative », s’est imposée comme méthode appropriée à notre intention de mieux saisir les expériences de collaboration interprofessionnelle menées dans le cadre des CdeP dans le domaine de la santé. La métasynthèse nous a ainsi permis d’obtenir une vue d’ensemble de la littérature portant sur les CdeP dans le domaine de la santé et de catégoriser les 194 articles rassemblés, pour ensuite retenir 13 articles traitant d’une réelle expérience de CdeP. Ainsi, dans une perspective contributoire, basée sur notre cadre conceptuel, l’analyse des principaux résultats de la métasynthèse, nous a permis 1) d’identifier les flous conceptuels liés aux expériences de CdeP rapportées, ainsi que 2) de dégager les retombées et les difficultés de leur mise en application dans le domaine de la santé et, enfin, 3) de démontrer la nécessité de mener des recherches visant l’étude du processus de développement de CdeP sur le terrain de la pratique de soins, notamment mais non exclusivement, lorsqu’il s’agit de maladies chroniques.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette recherche porte un regard critique sur les interfaces de spatialisation sonore et positionne la composition de musique spatiale, un champ d’étude en musique, à l’avant plan d’une recherche en design. Il détaille l’approche de recherche qui est centrée sur le processus de composition de musique spatiale et les modèles mentaux de compositeurs électroacoustiques afin de livrer des recommandations de design pour le développement d’une interface de spatialisation musicale nommée Centor. Cette recherche montre qu’un processus de design mené à l’intersection du design d’interface, du design d’interaction et de la théorie musicale peut mener à une proposition pertinente et innovatrice pour chacun des domaines d’étude. Nous présentons la recherche et le développement du concept de spatialisation additive, une méthode de spatialisation sonore par patrons qui applique le vocabulaire spectromorphologique de Denis Smalley. C’est un concept d’outil de spatialisation pour le studio qui complémente les interfaces de composition actuelles et ouvre un nouveau champ de possibilités pour l’exploration spatiale en musique électroacoustique. La démarche de recherche présentée ici se veut une contribution au domaine du design d’interfaces musicales, spécifiquement les interfaces de spatialisation, mais propose aussi un processus de design pour la création d’interfaces numériques d’expression artistique.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’« appropriation » par les pays en développement (PED) de leurs processus de développement forme la clef de voûte de la nouvelle approche de l’aide et de la coopération au développement telle que promue par la Déclaration de Paris (2005). Si ce passage vers l’« appropriation » vise à installer les PED « dans le siège du conducteur », il reste tout de même inscrit dans une relation d’aide. Or, la Déclaration de Paris pose cette « appropriation » comme le résultat d’un consensus et comme un principe devant être mis en oeuvre sur un terrain vierge via une série de mesures techniques préoccupées par une efficacité ou plutôt une efficience de l’aide. En s’intéressant à la perspective d’acteurs sociaux nationaux quant à cette question de l’ « appropriation » à partir d’une étude de cas c’est-à-dire d’un contexte précis, ici celui du Rwanda, cette thèse vise à démontrer que l’agenda et les politiques en matière de développement, dont la question de l’ « appropriation », ne peuvent être saisis dans un vide contextuel. En effet, ce que met en évidence la perspective des acteurs sociaux nationaux au Rwanda quant à cette question de l’ « appropriation », c’est leur réinscription de cette question dans le contexte du Rwanda post-génocide et dépendant de l’aide, et leur appréhension de celle-ci à partir de ce contexte. Ce contexte informe le récit de ces acteurs qui met en sens et en forme cette « appropriation ». Leur saisie de l’ « appropriation » se bâtit autour d’un double impératif dans le contexte du Rwanda post-génocide, un impératif d’une part de reconstruction socio-économique et d’autre part d’édification d’une nation, et ce, à la lumière des tensions ‘ethniques’ qui traversent et structurent historiquement l’espace politique et social rwandais et qui ont donné lieu au génocide de 1994.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Code clones are portions of source code which are similar to the original program code. The presence of code clones is considered as a bad feature of software as the maintenance of software becomes difficult due to the presence of code clones. Methods for code clone detection have gained immense significance in the last few years as they play a significant role in engineering applications such as analysis of program code, program understanding, plagiarism detection, error detection, code compaction and many more similar tasks. Despite of all these facts, several features of code clones if properly utilized can make software development process easier. In this work, we have pointed out such a feature of code clones which highlight the relevance of code clones in test sequence identification. Here program slicing is used in code clone detection. In addition, a classification of code clones is presented and the benefit of using program slicing in code clone detection is also mentioned in this work.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Non-governmental Organisations (NGOs) have not only gained more and more relevance in the development process of Near Eastern developing societies, but they have also raised an increasing scholarly interest. The traditional civil society in the Middle East, which used to be in charge of the tribe or large families, has been altered by new groups, which are organized around new social structures, interests and goals. The number of NGOs has experienced a swift increase in number and size, and the extent of some renders them important players in the social welfare sector, both at the national and global levels. The expansion and the increasing role of NGOs worldwide since the end of the 1970s as actors in socio-economic development and in the formulation of public policies has had great influence around the globe. However, this new function is not automatically the outcome of independent activity; but rather the result of ramified relationships between the national and international environment.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Distributed systems are one of the most vital components of the economy. The most prominent example is probably the internet, a constituent element of our knowledge society. During the recent years, the number of novel network types has steadily increased. Amongst others, sensor networks, distributed systems composed of tiny computational devices with scarce resources, have emerged. The further development and heterogeneous connection of such systems imposes new requirements on the software development process. Mobile and wireless networks, for instance, have to organize themselves autonomously and must be able to react to changes in the environment and to failing nodes alike. Researching new approaches for the design of distributed algorithms may lead to methods with which these requirements can be met efficiently. In this thesis, one such method is developed, tested, and discussed in respect of its practical utility. Our new design approach for distributed algorithms is based on Genetic Programming, a member of the family of evolutionary algorithms. Evolutionary algorithms are metaheuristic optimization methods which copy principles from natural evolution. They use a population of solution candidates which they try to refine step by step in order to attain optimal values for predefined objective functions. The synthesis of an algorithm with our approach starts with an analysis step in which the wanted global behavior of the distributed system is specified. From this specification, objective functions are derived which steer a Genetic Programming process where the solution candidates are distributed programs. The objective functions rate how close these programs approximate the goal behavior in multiple randomized network simulations. The evolutionary process step by step selects the most promising solution candidates and modifies and combines them with mutation and crossover operators. This way, a description of the global behavior of a distributed system is translated automatically to programs which, if executed locally on the nodes of the system, exhibit this behavior. In our work, we test six different ways for representing distributed programs, comprising adaptations and extensions of well-known Genetic Programming methods (SGP, eSGP, and LGP), one bio-inspired approach (Fraglets), and two new program representations called Rule-based Genetic Programming (RBGP, eRBGP) designed by us. We breed programs in these representations for three well-known example problems in distributed systems: election algorithms, the distributed mutual exclusion at a critical section, and the distributed computation of the greatest common divisor of a set of numbers. Synthesizing distributed programs the evolutionary way does not necessarily lead to the envisaged results. In a detailed analysis, we discuss the problematic features which make this form of Genetic Programming particularly hard. The two Rule-based Genetic Programming approaches have been developed especially in order to mitigate these difficulties. In our experiments, at least one of them (eRBGP) turned out to be a very efficient approach and in most cases, was superior to the other representations.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Kern der vorliegenden Arbeit ist die Erforschung von Methoden, Techniken und Werkzeugen zur Fehlersuche in modellbasierten Softwareentwicklungsprozessen. Hierzu wird zuerst ein von mir mitentwickelter, neuartiger und modellbasierter Softwareentwicklungsprozess, der sogenannte Fujaba Process, vorgestellt. Dieser Prozess wird von Usecase Szenarien getrieben, die durch spezielle Kollaborationsdiagramme formalisiert werden. Auch die weiteren Artefakte des Prozess bishin zur fertigen Applikation werden durch UML Diagrammarten modelliert. Es ist keine Programmierung im Quelltext nötig. Werkzeugunterstützung für den vorgestellte Prozess wird von dem Fujaba CASE Tool bereitgestellt. Große Teile der Werkzeugunterstützung für den Fujaba Process, darunter die Toolunterstützung für das Testen und Debuggen, wurden im Rahmen dieser Arbeit entwickelt. Im ersten Teil der Arbeit wird der Fujaba Process im Detail erklärt und unsere Erfahrungen mit dem Einsatz des Prozesses in Industrieprojekten sowie in der Lehre dargestellt. Der zweite Teil beschreibt die im Rahmen dieser Arbeit entwickelte Testgenerierung, die zu einem wichtigen Teil des Fujaba Process geworden ist. Hierbei werden aus den formalisierten Usecase Szenarien ausführbare Testfälle generiert. Es wird das zugrunde liegende Konzept, die konkrete technische Umsetzung und die Erfahrungen aus der Praxis mit der entwickelten Testgenerierung dargestellt. Der letzte Teil beschäftigt sich mit dem Debuggen im Fujaba Process. Es werden verschiedene im Rahmen dieser Arbeit entwickelte Konzepte und Techniken vorgestellt, die die Fehlersuche während der Applikationsentwicklung vereinfachen. Hierbei wurde darauf geachtet, dass das Debuggen, wie alle anderen Schritte im Fujaba Process, ausschließlich auf Modellebene passiert. Unter anderem werden Techniken zur schrittweisen Ausführung von Modellen, ein Objekt Browser und ein Debugger, der die rückwärtige Ausführung von Programmen erlaubt (back-in-time debugging), vorgestellt. Alle beschriebenen Konzepte wurden in dieser Arbeit als Plugins für die Eclipse Version von Fujaba, Fujaba4Eclipse, implementiert und erprobt. Bei der Implementierung der Plugins wurde auf eine enge Integration mit Fujaba zum einen und mit Eclipse auf der anderen Seite geachtet. Zusammenfassend wird also ein Entwicklungsprozess vorgestellt, die Möglichkeit in diesem mit automatischen Tests Fehler zu identifizieren und diese Fehler dann mittels spezieller Debuggingtechniken im Programm zu lokalisieren und schließlich zu beheben. Dabei läuft der komplette Prozess auf Modellebene ab. Für die Test- und Debuggingtechniken wurden in dieser Arbeit Plugins für Fujaba4Eclipse entwickelt, die den Entwickler bestmöglich bei der zugehörigen Tätigkeit unterstützen.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Das Ziel der Dissertation war die Untersuchung des Computereinsatzes zur Lern- und Betreuungsunterstützung beim selbstgesteuerten Lernen in der Weiterbildung. In einem bisher konventionell durchgeführten Selbstlernkurs eines berufsbegleitenden Studiengangs, der an das Datenmanagement der Bürodatenverarbeitung heranführt, wurden die Kursunterlagen digitalisiert, die Betreuung auf eine online-basierte Lernbegleitung umgestellt und ein auf die neuen Lernmedien abgestimmtes Lernkonzept entwickelt. Dieses neue Lernkonzept wurde hinsichtlich der Motivation und der Akzeptanz von digitalen Lernmedien evaluiert. Die Evaluation bestand aus zwei Teilen: 1. eine formative, den Entwicklungsprozess begleitende Evaluation zur Optimierung der entwickelten Lernsoftware und des eingeführten Lernkonzeptes, 2. eine sowohl qualitative wie quantitative summative Evaluation der Entwicklungen. Ein zentraler Aspekt der Untersuchung war die freie Wahl der Lernmedien (multimediale Lernsoftware oder konventionelles Begleitbuch) und der Kommunikationsmedien (online-basierte Lernplattform oder die bisher genutzten Kommunikationskanäle: E-Mail, Telefon und Präsenztreffen). Diese Zweigleisigkeit erlaubte eine differenzierte Gegenüberstellung von konventionellen und innovativen Lernarrangements. Die Verbindung von qualitativen und quantitativen Vorgehensweisen, auf Grund derer die subjektiven Einstellungen der Probanden in das Zentrum der Betrachtung rückten, ließen einen Blickwinkel auf den Nutzen und die Wirkung der Neuen Medien in Lernprozessen zu, der es erlaubte einige in der Literatur als gängig angesehene Interpretationen in Frage zu stellen und neu zu diskutieren. So konnten durch eine Kategorisierung des Teilnehmerverhaltens nach online-typisch und nicht online-typisch die Ursache-Wirkungs-Beziehungen der in vielen Untersuchungen angeführten Störungen in Online-Seminaren verdeutlicht werden. In den untersuchten Kursen zeigte sich beispielsweise keine Abhängigkeit der Drop-out-Quote von den Lern- und Betreuungsformen und dass diese Quote mit dem neuen Lernkonzept nur geringfügig beeinflusst werden konnte. Die freie Wahl der Lernmedien führte zu einer gezielten Nutzung der multimedialen Lernsoftware, wodurch die Akzeptanz dieses Lernmedium stieg. Dagegen war die Akzeptanz der Lernenden gegenüber der Lernbegleitung mittels einer Online-Lernplattform von hoch bis sehr niedrig breit gestreut. Unabhängig davon reichte in allen Kursdurchgängen die Online-Betreuung nicht aus, so dass Präsenztreffen erbeten wurde. Hinsichtlich der Motivation war die Wirkung der digitalen Medien niedriger als erwartet. Insgesamt bieten die Ergebnisse Empfehlungen für die Planung und Durchführung von computerunterstützten, online-begleiteten Kursen.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit werden Modellbildungsverfahren zur echtzeitfähigen Simulation wichtiger Schadstoffkomponenten im Abgasstrom von Verbrennungsmotoren vorgestellt. Es wird ein ganzheitlicher Entwicklungsablauf dargestellt, dessen einzelne Schritte, beginnend bei der Ver-suchsplanung über die Erstellung einer geeigneten Modellstruktur bis hin zur Modellvalidierung, detailliert beschrieben werden. Diese Methoden werden zur Nachbildung der dynamischen Emissi-onsverläufe relevanter Schadstoffe des Ottomotors angewendet. Die abgeleiteten Emissionsmodelle dienen zusammen mit einer Gesamtmotorsimulation zur Optimierung von Betriebstrategien in Hybridfahrzeugen. Im ersten Abschnitt der Arbeit wird eine systematische Vorgehensweise zur Planung und Erstellung von komplexen, dynamischen und echtzeitfähigen Modellstrukturen aufgezeigt. Es beginnt mit einer physikalisch motivierten Strukturierung, die eine geeignete Unterteilung eines Prozessmodells in einzelne überschaubare Elemente vorsieht. Diese Teilmodelle werden dann, jeweils ausgehend von einem möglichst einfachen nominalen Modellkern, schrittweise erweitert und ermöglichen zum Abschluss eine robuste Nachbildung auch komplexen, dynamischen Verhaltens bei hinreichender Genauigkeit. Da einige Teilmodelle als neuronale Netze realisiert werden, wurde eigens ein Verfah-ren zur sogenannten diskreten evidenten Interpolation (DEI) entwickelt, das beim Training einge-setzt, und bei minimaler Messdatenanzahl ein plausibles, also evidentes Verhalten experimenteller Modelle sicherstellen kann. Zum Abgleich der einzelnen Teilmodelle wurden statistische Versuchs-pläne erstellt, die sowohl mit klassischen DoE-Methoden als auch mittels einer iterativen Versuchs-planung (iDoE ) generiert wurden. Im zweiten Teil der Arbeit werden, nach Ermittlung der wichtigsten Einflussparameter, die Model-strukturen zur Nachbildung dynamischer Emissionsverläufe ausgewählter Abgaskomponenten vor-gestellt, wie unverbrannte Kohlenwasserstoffe (HC), Stickstoffmonoxid (NO) sowie Kohlenmono-xid (CO). Die vorgestellten Simulationsmodelle bilden die Schadstoffkonzentrationen eines Ver-brennungsmotors im Kaltstart sowie in der anschließenden Warmlaufphase in Echtzeit nach. Im Vergleich zur obligatorischen Nachbildung des stationären Verhaltens wird hier auch das dynami-sche Verhalten des Verbrennungsmotors in transienten Betriebsphasen ausreichend korrekt darge-stellt. Eine konsequente Anwendung der im ersten Teil der Arbeit vorgestellten Methodik erlaubt, trotz einer Vielzahl von Prozesseinflussgrößen, auch hier eine hohe Simulationsqualität und Ro-bustheit. Die Modelle der Schadstoffemissionen, eingebettet in das dynamische Gesamtmodell eines Ver-brennungsmotors, werden zur Ableitung einer optimalen Betriebsstrategie im Hybridfahrzeug ein-gesetzt. Zur Lösung solcher Optimierungsaufgaben bieten sich modellbasierte Verfahren in beson-derer Weise an, wobei insbesondere unter Verwendung dynamischer als auch kaltstartfähiger Mo-delle und der damit verbundenen Realitätsnähe eine hohe Ausgabequalität erreicht werden kann.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

All intelligence relies on search --- for example, the search for an intelligent agent's next action. Search is only likely to succeed in resource-bounded agents if they have already been biased towards finding the right answer. In artificial agents, the primary source of bias is engineering. This dissertation describes an approach, Behavior-Oriented Design (BOD) for engineering complex agents. A complex agent is one that must arbitrate between potentially conflicting goals or behaviors. Behavior-oriented design builds on work in behavior-based and hybrid architectures for agents, and the object oriented approach to software engineering. The primary contributions of this dissertation are: 1.The BOD architecture: a modular architecture with each module providing specialized representations to facilitate learning. This includes one pre-specified module and representation for action selection or behavior arbitration. The specialized representation underlying BOD action selection is Parallel-rooted, Ordered, Slip-stack Hierarchical (POSH) reactive plans. 2.The BOD development process: an iterative process that alternately scales the agent's capabilities then optimizes the agent for simplicity, exploiting tradeoffs between the component representations. This ongoing process for controlling complexity not only provides bias for the behaving agent, but also facilitates its maintenance and extendibility. The secondary contributions of this dissertation include two implementations of POSH action selection, a procedure for identifying useful idioms in agent architectures and using them to distribute knowledge across agent paradigms, several examples of applying BOD idioms to established architectures, an analysis and comparison of the attributes and design trends of a large number of agent architectures, a comparison of biological (particularly mammalian) intelligence to artificial agent architectures, a novel model of primate transitive inference, and many other examples of BOD agents and BOD development.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Modeling and simulation permeate all areas of business, science and engineering. With the increase in the scale and complexity of simulations, large amounts of computational resources are required, and collaborative model development is needed, as multiple parties could be involved in the development process. The Grid provides a platform for coordinated resource sharing and application development and execution. In this paper, we survey existing technologies in modeling and simulation, and we focus on interoperability and composability of simulation components for both simulation development and execution. We also present our recent work on an HLA-based simulation framework on the Grid, and discuss the issues to achieve composability.