108 resultados para Algebraic Bethe-ansatz
Resumo:
Die Auszeichnungssprache XML dient zur Annotation von Dokumenten und hat sich als Standard-Datenaustauschformat durchgesetzt. Dabei entsteht der Bedarf, XML-Dokumente nicht nur als reine Textdateien zu speichern und zu transferieren, sondern sie auch persistent in besser strukturierter Form abzulegen. Dies kann unter anderem in speziellen XML- oder relationalen Datenbanken geschehen. Relationale Datenbanken setzen dazu bisher auf zwei grundsätzlich verschiedene Verfahren: Die XML-Dokumente werden entweder unverändert als binäre oder Zeichenkettenobjekte gespeichert oder aber aufgespalten, sodass sie in herkömmlichen relationalen Tabellen normalisiert abgelegt werden können (so genanntes „Flachklopfen“ oder „Schreddern“ der hierarchischen Struktur). Diese Dissertation verfolgt einen neuen Ansatz, der einen Mittelweg zwischen den bisherigen Lösungen darstellt und die Möglichkeiten des weiterentwickelten SQL-Standards aufgreift. SQL:2003 definiert komplexe Struktur- und Kollektionstypen (Tupel, Felder, Listen, Mengen, Multimengen), die es erlauben, XML-Dokumente derart auf relationale Strukturen abzubilden, dass der hierarchische Aufbau erhalten bleibt. Dies bietet zwei Vorteile: Einerseits stehen bewährte Technologien, die aus dem Bereich der relationalen Datenbanken stammen, uneingeschränkt zur Verfügung. Andererseits lässt sich mit Hilfe der SQL:2003-Typen die inhärente Baumstruktur der XML-Dokumente bewahren, sodass es nicht erforderlich ist, diese im Bedarfsfall durch aufwendige Joins aus den meist normalisierten und auf mehrere Tabellen verteilten Tupeln zusammenzusetzen. In dieser Arbeit werden zunächst grundsätzliche Fragen zu passenden, effizienten Abbildungsformen von XML-Dokumenten auf SQL:2003-konforme Datentypen geklärt. Darauf aufbauend wird ein geeignetes, umkehrbares Umsetzungsverfahren entwickelt, das im Rahmen einer prototypischen Applikation implementiert und analysiert wird. Beim Entwurf des Abbildungsverfahrens wird besonderer Wert auf die Einsatzmöglichkeit in Verbindung mit einem existierenden, ausgereiften relationalen Datenbankmanagementsystem (DBMS) gelegt. Da die Unterstützung von SQL:2003 in den kommerziellen DBMS bisher nur unvollständig ist, muss untersucht werden, inwieweit sich die einzelnen Systeme für das zu implementierende Abbildungsverfahren eignen. Dabei stellt sich heraus, dass unter den betrachteten Produkten das DBMS IBM Informix die beste Unterstützung für komplexe Struktur- und Kollektionstypen bietet. Um die Leistungsfähigkeit des Verfahrens besser beurteilen zu können, nimmt die Arbeit Untersuchungen des nötigen Zeitbedarfs und des erforderlichen Arbeits- und Datenbankspeichers der Implementierung vor und bewertet die Ergebnisse.
Resumo:
Inhalt dieser Arbeit ist ein Verfahren zur numerischen Lösung der zweidimensionalen Flachwassergleichung, welche das Fließverhalten von Gewässern, deren Oberflächenausdehnung wesentlich größer als deren Tiefe ist, modelliert. Diese Gleichung beschreibt die gravitationsbedingte zeitliche Änderung eines gegebenen Anfangszustandes bei Gewässern mit freier Oberfläche. Diese Klasse beinhaltet Probleme wie das Verhalten von Wellen an flachen Stränden oder die Bewegung einer Flutwelle in einem Fluss. Diese Beispiele zeigen deutlich die Notwendigkeit, den Einfluss von Topographie sowie die Behandlung von Nass/Trockenübergängen im Verfahren zu berücksichtigen. In der vorliegenden Dissertation wird ein, in Gebieten mit hinreichender Wasserhöhe, hochgenaues Finite-Volumen-Verfahren zur numerischen Bestimmung des zeitlichen Verlaufs der Lösung der zweidimensionalen Flachwassergleichung aus gegebenen Anfangs- und Randbedingungen auf einem unstrukturierten Gitter vorgestellt, welches in der Lage ist, den Einfluss topographischer Quellterme auf die Strömung zu berücksichtigen, sowie in sogenannten \glqq lake at rest\grqq-stationären Zuständen diesen Einfluss mit den numerischen Flüssen exakt auszubalancieren. Basis des Verfahrens ist ein Finite-Volumen-Ansatz erster Ordnung, welcher durch eine WENO Rekonstruktion unter Verwendung der Methode der kleinsten Quadrate und eine sogenannte Space Time Expansion erweitert wird mit dem Ziel, ein Verfahren beliebig hoher Ordnung zu erhalten. Die im Verfahren auftretenden Riemannprobleme werden mit dem Riemannlöser von Chinnayya, LeRoux und Seguin von 1999 gelöst, welcher die Einflüsse der Topographie auf den Strömungsverlauf mit berücksichtigt. Es wird in der Arbeit bewiesen, dass die Koeffizienten der durch das WENO-Verfahren berechneten Rekonstruktionspolynome die räumlichen Ableitungen der zu rekonstruierenden Funktion mit einem zur Verfahrensordnung passenden Genauigkeitsgrad approximieren. Ebenso wird bewiesen, dass die Koeffizienten des aus der Space Time Expansion resultierenden Polynoms die räumlichen und zeitlichen Ableitungen der Lösung des Anfangswertproblems approximieren. Darüber hinaus wird die wohlbalanciertheit des Verfahrens für beliebig hohe numerische Ordnung bewiesen. Für die Behandlung von Nass/Trockenübergangen wird eine Methode zur Ordnungsreduktion abhängig von Wasserhöhe und Zellgröße vorgeschlagen. Dies ist notwendig, um in der Rechnung negative Werte für die Wasserhöhe, welche als Folge von Oszillationen des Raum-Zeit-Polynoms auftreten können, zu vermeiden. Numerische Ergebnisse die die theoretische Verfahrensordnung bestätigen werden ebenso präsentiert wie Beispiele, welche die hervorragenden Eigenschaften des Gesamtverfahrens in der Berechnung herausfordernder Probleme demonstrieren.
Resumo:
Spätestens seit der Formulierung der modernen Portfoliotheorie durch Harry Markowitz (1952) wird den aktiven Portfoliomanagementstrategien besondere Aufmerksamkeit in Wissenschaft und Anlagepraxis gewidmet. Diese Arbeit ist im Schnittstellenbereich zwischen neoklassischer Kapitalmarkttheorie und technischer Analyse angesiedelt. Es wird untersucht, inwieweit eine passive Buy&Hold-Strategie, die als einzige im Einklang mit der Effizienzmarkthypothese nach Fama (1970) steht, durch Verwendung von aktiven Strategien geschlagen werden kann. Der Autor präsentiert einen Wavelet-basierten Ansatz für die Analyse der Finanzzeitreihen. Die Wavelet-Transformation wird als ein mathematisches Datenaufbereitungstool herangezogen und ermöglicht eine Multiskalendarstellung einer Datenreihe, durch das Aufspalten dieser in eine Approximationszeitreihe und eine Detailszeitreihe, ohne dass dadurch Informationen verloren gehen. Diese Arbeit beschränkt sich auf die Verwendung der Daubechies Wavelets. Die Multiskalendarstellung dient als Grundlage für die Entwicklung von zwei technischen Indikatoren. Der Wavelet Stochastik Indikator greift auf die Idee des bekannten Stochastik-Indikators zurück und verwendet nicht mehr die Kurszeitreihe, sondern die Approximationszeitreihe als Input. Eine auf diesem Indikator basierende Investmentstrategie wird umfangreicher Sensitivitätsanalyse unterworfen, die aufzeigt, dass eine Buy&Hold-Strategie durchaus outperformt werden kann. Die Idee des Momentum-Indikators wird durch den Wavelet Momentum Indikator aufgegriffen, welcher die Detailszeitreihen als Input heranzieht. Im Rahmen der Sensitivitätsanalyse einer Wavelet Momentum Strategie wird jedoch die Buy&Hold -Strategie nicht immer geschlagen. Ein Wavelet-basiertes Prognosemodell verwendet ähnlich wie die technischen Indikatoren die Multiskalendarstellung. Die Approximationszeitreihen werden dabei durch das Polynom 2. Grades und die Detailszeitreihen durch die Verwendung der Sinusregression extrapoliert. Die anschließende Aggregation der extrapolierten Zeitreihen führt zu prognostizierten Wertpapierkursen. Kombinierte Handelsstrategien zeigen auf, wie Wavelet Stochastik Indikator, Wavelet Momentum Indikator und das Wavelet-basierte Prognosemodell miteinander verknüpft werden können. Durch die Verknüpfung einzelner Strategien gelingt es, die Buy&Hold-Strategie zu schlagen. Der letzte Abschnitt der Arbeit beschäftigt sich mit der Modellierung von Handelssystem-portfolios. Angestrebt wird eine gleichzeitige Diversifikation zwischen Anlagen und Strategien, die einer ständigen Optimierung unterworfen wird. Dieses Verfahren wird als ein systematischer, an bestimmte Optimierungskriterien gebundener Investmentprozess verstanden, mit welchem es gelingt, eine passive Buy&Hold-Strategie zu outperformen. Die Arbeit stellt eine systematische Verknüpfung zwischen der diskreten Wavelet Transformation und technisch quantitativen Investmentstrategien her. Es werden auch die Problemfelder der durchaus viel versprechenden Verwendung der Wavelet Transformation im Rahmen der technischen Analyse beleuchtet.
Resumo:
Als Kräuter werden alle krautigen Pflanzen, die nicht zu den Gehölzen und zu den Gräsern zählen, bezeichnet. Sie erfüllen wichtige Funktionen bei der Förderung von Insekten und der Ästhetik von Landschaften und tragen zur Verbesserung des Grundfutters landwirtschaftlicher Nutztiere bei. Ansaaten von Kräutern in geschlossene Vegetationsdecken und bei Neuanlagen sind durch deren langandauernde Entwicklungsphasen sehr schwierig zu realisieren. Eine innovative Option zur Etablierung in Grünlandbeständen kann die Herstellung von Kräutersoden sein. Ziel dieser Arbeit ist die Untersuchung der Eignung von Kräutern zur Sodenproduktion. Durch unterschiedliche Merkmale von Kräutern und Gräsern können Probleme bei der Entwicklung von Kräutersoden auftreten. In dieser Arbeit sind verschiedene Anbauversuche mit Wurzelkürzungen und Ertragsbestimmungen sowie Sodenverpflanzungen, die Ermittlung eines optimalen Trägermaterials und Untersuchungen zur Entwicklung eines Sodenschneidersystems durchgeführt worden. Wurzelkürzungen an Kräutern ergaben, dass die Bildung der Gesamtwurzelmasse, der Wurzelneubildung und der Masse des Oberbewuchses bei einzelnen Kräutern nur z.T. im Zusammenhang mit der Schnitttiefe stehen und die Entwicklungsstadien der Kräuter keine signifikanten Unterschiede aufzeigen. Hieraus ergibt sich, dass ein Wurzelschnitt generell möglich ist, jedoch verschiedenen Arte von Kräutern unterschiedlich stark auf diesen reagieren. Zu den Entwicklungsstadien, zum Ertrag des Bewuchses und zum Anwurzelungsverhalten von Kräutersoden können in Abhängigkeit vom Vorzuchtsort und im Vergleich zu Fertigrasen keine abschließenden Aussagen getroffen werden. Es besteht daher weiterer Forschungsbedarf. Ein kombinierter Anbau mit Untergräsern eignet sich durch die wuchsverdrängende Wirkung nicht zur Stabilisierung von Kräutersoden. Es konnte aber gezeigt werden, dass Trägermaterial aus Kokosfaser durch die hohe Zugfestigkeit und der Langlebigkeit des Materials geeignet ist. Demzufolge könnte es bei der Produktion von Kräutersoden eine wichtige Rolle spielen. Das Design von Sodenschneidertechnik aus dem Fertigrasenanbau kann nicht auf die Erzeugung von Kräutersoden übertragen werden, da Kräuter andere Wurzelmerkmale als Gräser haben und sich daher spezielle Anforderungen ergeben. Für einen erfolgreichen Schälvorgang von Kräutersoden bedarf es der Entwicklung einer speziell angepassten Technik. Denkbar währe die Verwendung oszillierender Schneideorgane, welche den Schneidevorgang besser ermöglichen könnten. Dadurch, dass ein flacher Wurzelschnitt bei Kräutern erfolgen kann, ist eine Erzeugung von Kräutersoden möglich. Aufgrund von morphologischen Unterschieden zwischen Kräutern und Gräsern unterscheiden sich diese in ihren Anforderungsprofilen, die Techniken der Fertigrasenproduktion können somit nicht direkt auf eine Kräutersodenproduktion übertragen werden. Mit dieser Arbeit fand ein erster Ansatz zur technischen Entwicklung einer Kräutersodenproduktion statt. Die Versuche haben gezeigt, dass noch viele Fragen bei der Entwicklung von Kräutersoden offen sind.
Resumo:
The present thesis is about the inverse problem in differential Galois Theory. Given a differential field, the inverse problem asks which linear algebraic groups can be realized as differential Galois groups of Picard-Vessiot extensions of this field. In this thesis we will concentrate on the realization of the classical groups as differential Galois groups. We introduce a method for a very general realization of these groups. This means that we present for the classical groups of Lie rank $l$ explicit linear differential equations where the coefficients are differential polynomials in $l$ differential indeterminates over an algebraically closed field of constants $C$, i.e. our differential ground field is purely differential transcendental over the constants. For the groups of type $A_l$, $B_l$, $C_l$, $D_l$ and $G_2$ we managed to do these realizations at the same time in terms of Abhyankar's program 'Nice Equations for Nice Groups'. Here the choice of the defining matrix is important. We found out that an educated choice of $l$ negative roots for the parametrization together with the positive simple roots leads to a nice differential equation and at the same time defines a sufficiently general element of the Lie algebra. Unfortunately for the groups of type $F_4$ and $E_6$ the linear differential equations for such elements are of enormous length. Therefore we keep in the case of $F_4$ and $E_6$ the defining matrix differential equation which has also an easy and nice shape. The basic idea for the realization is the application of an upper and lower bound criterion for the differential Galois group to our parameter equations and to show that both bounds coincide. An upper and lower bound criterion can be found in literature. Here we will only use the upper bound, since for the application of the lower bound criterion an important condition has to be satisfied. If the differential ground field is $C_1$, e.g., $C(z)$ with standard derivation, this condition is automatically satisfied. Since our differential ground field is purely differential transcendental over $C$, we have no information whether this condition holds or not. The main part of this thesis is the development of an alternative lower bound criterion and its application. We introduce the specialization bound. It states that the differential Galois group of a specialization of the parameter equation is contained in the differential Galois group of the parameter equation. Thus for its application we need a differential equation over $C(z)$ with given differential Galois group. A modification of a result from Mitschi and Singer yields such an equation over $C(z)$ up to differential conjugation, i.e. up to transformation to the required shape. The transformation of their equation to a specialization of our parameter equation is done for each of the above groups in the respective transformation lemma.
Resumo:
Diese Arbeit befasst sich mit der Modellbildung mechatronischer Systeme mit Reibung. Geeignete dynamische Modelle sind die Grundlage für verschiedenste Aufgabenstellungen. Sind dynamische Prozessmodelle verfügbar, so können leistungsfähige modellbasierte Entwurfsmethoden angewendet werden sowie modellbasierte Anwendungen entwickelt werden. Allerdings ist der Aufwand für die Modellbildung ein beschränkender Faktor für eine weite Verbreitung modellbasierter Applikationen in der Praxis. Eine Automatisierung des Modellbildungsprozesses ist deshalb von großem Interesse. Die vorliegende Arbeit stellt für die Klasse „mechatronischer Systeme mit Reibung“ drei Modellierungsmethoden vor: semi-physikalische Modellierung, Sliding-Mode-Beobachter-basierte Modellierung und empirische Modellierung mit einem stückweise affinen (PWA) Modellansatz. Zum Ersten wird die semi-physikalische Modellierung behandelt. Gegenüber anderen Verfahren, die häufig umfangreiche Vorkenntnisse und aufwändige Experimente erfordern, haben diese neuen Verfahren den Vorteil, dass die Modellierung von Systemen mit Reibung selbst bei begrenzten Vorkenntnissen und minimalem Experimentaufwand automatisiert werden kann. Zum Zweiten wird ein neuer Ansatz zur Reibkraftrekonstruktion und Reibmodellierung mittels Sliding-Mode-Beobachter präsentiert. Durch Verwendung des vorgestellten Sliding-Mode- Beobachters, der basierend auf einem einfachen linearen Zustandsraummodell entworfen wird, lässt sich die Reibung datengetrieben aus den Ein-/Ausgangsmessdaten (im offenen Regelkreis) rekonstruieren und modellieren. Im Vergleich zu anderen Reibmodellierungsmethoden, die häufig umfangreiche Vorkenntnisse und aufwändige Messungen im geschlossenen Regelkreis erfordern, haben diese neuen Verfahren den Vorteil, dass die Modellierung von Systemen mit Reibung selbst bei begrenzten Vorkenntnissen und minimalem Experimentaufwand weitgehend automatisiert werden kann. Zum Dritten wird ein PWA-Modellierungsansatz mit einer clusterungsbasierten Identifikationsmethode für Systeme mit Reibung vorgestellt. In dieser Methode werden die Merkmale in Hinblick auf Reibeffekte ausgewählt. Und zwar wird der klassische c-Means-Algorithmus verwendet, welcher bedienfreundlich, effizient und geeignet für große und reale Datensätze ist. Im Gegensatz zu anderen Methoden sind bei dieser Methode nur wenige Entwurfsparameter einzustellen und sie ist für reale Systeme mit Reibung einfach anwendbar. Eine weitere Neuheit der vorgestellten PWA-Methode liegt darin, dass die Kombination der Clustervaliditätsmaße und Modellprädiktionsfehler zur Festlegung der Anzahl der Teilmodelle benutzt wird. Weiterhin optimiert die vorgestellte Methode die Parameter der lokalen Teilmodelle mit der OE (Output-Fehler)-Schätzmethode. Als Anwendungsbeispiele werden Drosselklappen, Drallklappen und AGR-Ventile (Abgasrückführventil) im Dieselfahrzeug betrachtet und die erzeugten Modelle werden in der industriellen HiL-Simulation eingesetzt. Aufgrund der Effizienz und Effektivität der Modellierungsmethoden sind die vorgestellten Methoden direkt in der automobilen Praxis einsetzbar.
Resumo:
Eine effektive, effiziente und wirkungsorientierte kommunalpolitische Arbeit stellt hohe Anforderungen an Politik und Verwaltung. Trotz zahlreicher erfolgsversprechender Ansätze ist der aktuelle Status quo ernüchternd. Schwerpunkt der Dissertation ist deshalb die Entwicklung eines praxistauglichen Konzeptes zur Integration der strategischen Planung in die Haushaltsplanung einer Kommune mit dem Ziel einer nachhaltigen Verbesserung der strategischen Steuerung. Eine ergänzende ökonomische Funktionsanalyse von beteiligten Rechtsfiguren erweitert dabei die klassisch wirtschaftstheoretische Betrachtungsweise um sozialwissenschaftliche Aspekte, die im Zusammenspiel von Institutionen eine wichtige Rolle spielen. Der konzipierte Ansatz kommt, durch die Fokussierung auf das öffentliche Interesse, einem partizipativen und transparenten Idealbild von Steuerung im kommunalen Bereich auf der Basis der New Public Management Bewegung sehr nahe und könnte helfen der verstärkt festzustellenden Politikverdrossenheit entgegen zu wirken.
Resumo:
In the vision of Mark Weiser on ubiquitous computing, computers are disappearing from the focus of the users and are seamlessly interacting with other computers and users in order to provide information and services. This shift of computers away from direct computer interaction requires another way of applications to interact without bothering the user. Context is the information which can be used to characterize the situation of persons, locations, or other objects relevant for the applications. Context-aware applications are capable of monitoring and exploiting knowledge about external operating conditions. These applications can adapt their behaviour based on the retrieved information and thus to replace (at least a certain amount) the missing user interactions. Context awareness can be assumed to be an important ingredient for applications in ubiquitous computing environments. However, context management in ubiquitous computing environments must reflect the specific characteristics of these environments, for example distribution, mobility, resource-constrained devices, and heterogeneity of context sources. Modern mobile devices are equipped with fast processors, sufficient memory, and with several sensors, like Global Positioning System (GPS) sensor, light sensor, or accelerometer. Since many applications in ubiquitous computing environments can exploit context information for enhancing their service to the user, these devices are highly useful for context-aware applications in ubiquitous computing environments. Additionally, context reasoners and external context providers can be incorporated. It is possible that several context sensors, reasoners and context providers offer the same type of information. However, the information providers can differ in quality levels (e.g. accuracy), representations (e.g. position represented in coordinates and as an address) of the offered information, and costs (like battery consumption) for providing the information. In order to simplify the development of context-aware applications, the developers should be able to transparently access context information without bothering with underlying context accessing techniques and distribution aspects. They should rather be able to express which kind of information they require, which quality criteria this information should fulfil, and how much the provision of this information should cost (not only monetary cost but also energy or performance usage). For this purpose, application developers as well as developers of context providers need a common language and vocabulary to specify which information they require respectively they provide. These descriptions respectively criteria have to be matched. For a matching of these descriptions, it is likely that a transformation of the provided information is needed to fulfil the criteria of the context-aware application. As it is possible that more than one provider fulfils the criteria, a selection process is required. In this process the system has to trade off the provided quality of context and required costs of the context provider against the quality of context requested by the context consumer. This selection allows to turn on context sources only if required. Explicitly selecting context services and thereby dynamically activating and deactivating the local context provider has the advantage that also the resource consumption is reduced as especially unused context sensors are deactivated. One promising solution is a middleware providing appropriate support in consideration of the principles of service-oriented computing like loose coupling, abstraction, reusability, or discoverability of context providers. This allows us to abstract context sensors, context reasoners and also external context providers as context services. In this thesis we present our solution consisting of a context model and ontology, a context offer and query language, a comprehensive matching and mediation process and a selection service. Especially the matching and mediation process and the selection service differ from the existing works. The matching and mediation process allows an autonomous establishment of mediation processes in order to transfer information from an offered representation into a requested representation. In difference to other approaches, the selection service selects not only a service for a service request, it rather selects a set of services in order to fulfil all requests which also facilitates the sharing of services. The approach is extensively reviewed regarding the different requirements and a set of demonstrators shows its usability in real-world scenarios.
Resumo:
Die bereits seit einigen Jahren stark in der wissenschaftlichen Literatur diskutierte RFID-Technologie ermöglicht es, Informationen (echt-)zeitnah, detailliert und mit einer höheren Objektivität bereitzustellen. Der Fokus vieler Arbeiten lag dabei vor allem auf RFID-spezifischen Einsatzmöglichkeiten in den Bereichen des Supply Chain- und des Customer Relationship Managements. Aber auch für ein modernes Controlling bzw. für die Managementunterstützung sind Innovationen in der Informationstechnik – hier die Besonderheiten und Eigenschaften von RFID-Daten – von sehr hoher Bedeutung. Dieses Forschungsfeld hat bisher jedoch kaum Beachtung gefunden. Mit der vorliegenden Dissertationsschrift wird versucht, diese Forschungslücke sowohl konzeptionell als auch empirisch zu schließen. Sie gliedert sich zu diesem Zweck in vier Kapitel. Nach einer Einleitung werden im zweiten Kapitel die konzeptionellen Grundlagen geschaffen. Dazu werden verschiedene Controllingkonzeptionen vorgestellt und anhand ausgewählter Kriterien dahingehend überprüft, ob diese dazu geeignet sind, die RFID-Nutzenpotenziale im Controlling darzustellen. Der kontributionsorientierte Ansatz nach Link erweist sich hierbei als zweckmäßiger Controllingansatz. Im zweiten Grundlagenkapitel werden u. a. die Funktionsweise sowie verschiedene Vorteile der RFID-Technologie vorgestellt. Im Hauptkapitel wird zunächst der Stand der Controllingforschung in Bezug auf RFID sowie dessen Einordnung in das Controlling gezeigt. Im Anschluss daran folgt die Arbeit dem systematischen Aufbau des kontributionsorientierten Ansatzes wie folgt: - Harmonisation: RFID auf der Ebene der Unternehmensleitung - Harmonisationsunterstützung: RFID auf der Ebene des Controlling • RFID-Einfluss auf das Zielsystem: Sachziele, Formalziele und Sozialziele • RFID und Vorsteuerung • Der RFID-Beitrag zur Umsetzung der Controllingprinzipien: Entscheidungsfundierung, Koordinationsentlastung und Entscheidungsreflexion Da mit dem RFID-Beitrag zur Vorsteuerung die „Kernleistung“ eines modernen Controlling behandelt wurde, besitzt dieser Punkt eine besonders hohe Relevanz. Den Abschluss der Dissertationsschrift bildet eine empirische Untersuchung (Kapitel vier) zum Status Quo der Nutzung von RFID-Daten bzw. -Informationen im Controlling. Darüber hinaus wurden mögliche Problemfelder der RFID-Nutzung im Controlling respektive der Managementunterstützung offengelegt. Die Diskrepanz zwischen den im theoretischen Teil der Arbeit herausgearbeiteten vielfältigen Nutzenpotenzialen von RFID im Controlling und der tatsächlichen Nutzung von RFID-Daten im Controlling deutscher Unternehmen ist dabei ein wesentliches Ergebnis. Die Arbeit schließt mit einer Zusammenfassung der Ergebnisse und einem Ausblick auf den weiteren Forschungsbedarf (Kapitel fünf) ab.
Resumo:
Das Beurteilen von Schülerleistungen, das Erfassen ihrer unterschiedlichen Lernvoraussetzungen und das Beobachten und Beurteilen von Schülerlernprozessen stellen wichtige Handlungsroutinen im Alltag von Lehrkräften dar. Dem gegenüber steht die Tatsache, dass sich noch bis vor einigen Jahren nur wenige Arbeiten und Projekte explizit mit der Diagnosekompetenz von angehenden und praktizierenden Lehrkräften beschäftigt haben. Die vorliegende Arbeit, die ein Teilprojekt innerhalb eines größeren interdisziplinären Projektes zur Diagnosekompetenz von Lehramtsstudierenden darstellt, möchte einen Beitrag leisten zur Debatte um die diagnostische Kompetenz. Ihr Hauptaugenmerk richtet sie dabei auf die diagnostische Kompetenz von Biologie-Lehramtsstudierenden im Bereich der naturwissenschaftlichen Erkenntnisgewinnung. Im Zuge der notwenigen theoretischen Konzeptionierung präsentiert die Arbeit einen im Gesamtprojekt erarbeiteten Vorschlag für eine Modellierung der (fachbezogenen) Diagnosekompetenz von Lehramtsstudierenden. Ergänzend dazu findet im Rahmen der Arbeit eine Klärung der in der Forschungsliteratur oftmals uneinheitlich benutzten Begrifflichkeiten zur diagnostischen Kompetenz statt. Weiterhin wird ein Vergleich von verschiedenen in der Literatur verwendeten Konzeptualisierungsansätzen vorgenommen. Da in der Forschungsliteratur keine geeigneten Instrumente zum Erfassen der hier im Speziellen betrachteten diagnostischen Kompetenz vorlagen, mussten diese im Rahmen der Arbeit neu entwickelt werden. Ein wesentlicher Ansatz dabei war eine Unterscheidung von status- und prozessdiagnostischen Kompetenzen und die Entwicklung entsprechend geeigneter Erhebungsinstrumente. Die neu entwickelten Testinstrumente wurden bei zwei Studierenden-Jahrgängen an verschiedenen Zeitpunkten im Verlauf ihres Studiums eingesetzt. Im Test zur Messung ihrer statusdiagnostischen Kompetenzen hatten die Studierenden Schülerlösungen aus dem Bereich der naturwissenschaftlichen Erkenntnisgewinnung zu analysieren und zu beurteilen. Dabei zeigte sich als ein zentraler Befund, dass die Probanden das Leistungsniveau der Schülerlösungen umso schlechter korrekt beurteilen konnten, je höher es war. Weiterhin wurde deutlich, dass die diagnostische Kompetenz der Lehramtsstudierenden für die typischen Teilschritte im Rahmen der Erkenntnisgewinnung unterschiedlich hoch ausgeprägt ist. So fiel es ihnen am leichtesten, die Schülerlösungen zum Teilschritt „Datenanalyse“ zu beurteilen, wohingegen sie deutlich größere Schwierigkeiten hatten, das Leistungsniveau der Schülerlösungen zum Teilschritt „Planen einer Untersuchung“ korrekt einzuschätzen. Im Test zum Erfassen der prozessdiagnostischen Fähigkeiten der Studierenden wurde ihnen ein Experimentierprozess zweier Schüler vorgelegt. Auffällig in Bezug auf ihre diagnostische Kompetenz waren die massiven Schwierigkeiten beim Beurteilen des Schülerumgangs mit den Variablen. Im Vergleich der status- und prozessdiagnostischen Fähigkeiten erwies sich die Prozessdiagnostik als die für die Studierenden schwierigere Tätigkeit. Ein wesentliches Plus in Bezug auf das Gewinnen von Informationen über die diagnostische Kompetenz brachte der Einsatz von Videoanalysen zusätzlich zu den beschriebenen paper-pencil basierten Testinstrumenten. Über eine Analyse der Testbearbeitungsprozesse der Studierenden wurde untersucht, aus welchen Beweggründen und auf Basis welcher Annahmen diese zu ihren diagnostischen Urteilen gekommen waren. Mit Hilfe der auf diese Weise gewonnenen prozessbezogenen Informationen war es möglich, die spezifischen Schwierigkeiten der Studierenden beim Diagnostizieren genauer herauszuarbeiten. Neben den genannten Untersuchungen zu den Ausprägungen von diagnostischer Kompetenz im Bereich Erkenntnisgewinnung wurden im Rahmen der Arbeit auch ihre postulierten Bedingungsfaktoren untersucht: das fachmethodische Vorwissen der Studierenden und ihr Wissenschaftsverständnis. Nur für ersteres konnte ein wenngleich geringer, aber doch signifikanter Zusammenhang festgestellt werden. Ergänzend zum Blick auf die möglichen Bedingungsfaktoren wurden auch Zusammenhänge zwischen der diagnostischen Kompetenz und verschiedenen ausgewählten Personen- und Kontextvariablen untersucht (z.B. die von den Studierenden gewählte Lehramtsform, ihre Fächerkombination, ihr Geschlecht und ihre Abiturnote). Von allen untersuchten Variablen erwies sich die von den Studierenden gewählte Lehramtsform als derjenige Faktor, der den wenngleich ebenfalls nur schwachen, aber doch durchgängig vorhandensten Zusammenhang aufwies. Zusätzlich zu der (objektiven) Erfassung der diagnostischen Kompetenzen mit Hilfe der Messinstrumente präsentiert die Arbeit Ergebnisse zum Verlauf der subjektiven Selbsteinschätzungen der Studierenden hinsichtlich ihres diagnostischen Wissens. Es zeigte sich, dass die Studierenden das Studium für die Ausbildung ihrer diagnostischen Kompetenz als weniger hilfreich empfinden als für den Aufbau der anderen Bereiche ihres Professionswissens. Die Arbeit endet mit einem Fazit zu den Testinstrument-Entwicklungen und den in den verschiedenen Untersuchungen gewonnenen Befunden, verbunden mit einem Ausblick auf mögliche Implikationen für die Lehrerausbildung und sich anschließende Forschungsvorhaben.
Resumo:
Mit der vorliegenden Arbeit soll ein Beitrag zu einer (empirisch) gehaltvollen Mikrofundierung des Innovationsgeschehens im Rahmen einer evolutorischen Perspektive geleistet werden. Der verhaltensbezogene Schwerpunkt ist dabei, in unterschiedlichem Ausmaß, auf das Akteurs- und Innovationsmodell von Herbert Simon bzw. der Carnegie-School ausgerichtet und ergänzt, spezifiziert und erweitert dieses unter anderem um vertiefende Befunde der Kreativitäts- und Kognitionsforschung bzw. der Psychologie und der Vertrauensforschung sowie auch der modernen Innovationsforschung. zudem Bezug auf einen gesellschaftlich und ökonomisch relevanten Gegenstandsbereich der Innovation, die Umweltinnovation. Die Arbeit ist sowohl konzeptionell als auch empirisch ausgerichtet, zudem findet die Methode der Computersimulation in Form zweier Multi-Agentensysteme Anwendung. Als zusammenfassendes Ergebnis lässt sich im Allgemeinen festhalten, dass Innovationen als hochprekäre Prozesse anzusehen sind, welche auf einer Verbindung von spezifischen Akteursmerkmalen, Akteurskonstellationen und Umfeldbedingungen beruhen, Iterationsschleifen unterliegen (u.a. durch Lernen, Rückkoppelungen und Aufbau von Vertrauen) und Teil eines umfassenderen Handlungs- sowie (im Falle von Unternehmen) Organisationskontextes sind. Das Akteurshandeln und die Interaktion von Akteuren sind dabei Ausgangspunkt für Emergenzen auf der Meso- und der Makroebene. Die Ergebnisse der Analysen der in dieser Arbeit enthaltenen fünf Fachbeiträge zeigen im Speziellen, dass der Ansatz von Herbert Simon bzw. der Carnegie-School eine geeignete theoretische Grundlage zur Erfassung einer prozessorientierten Mikrofundierung des Gegenstandsbereichs der Innovation darstellt und – bei geeigneter Ergänzung und Adaption an den jeweiligen Erkenntnisgegenstand – eine differenzierte Betrachtung unterschiedlicher Arten von Innovationsprozessen und deren akteursbasierten Grundlagen sowohl auf der individuellen Ebene als auch auf Ebene von Unternehmen ermöglicht. Zudem wird deutlich, dass der Ansatz von Herbert Simon bzw. der Carnegie-School mit dem Initiationsmodell einen zusätzlichen Aspekt in die Diskussion einbringt, welcher bislang wenig Aufmerksamkeit fand, jedoch konstitutiv für eine ökonomische Perspektive ist: die Analyse der Bestimmungsgrößen (und des Prozesses) der Entscheidung zur Innovation. Denn auch wenn das Verständnis der Prozesse bzw. der Determinanten der Erstellung, Umsetzung und Diffusion von Innovationen von grundlegender Bedeutung ist, ist letztendlich die Frage, warum und unter welchen Umständen Akteure sich für Innovationen entscheiden, ein zentraler Kernbereich einer ökonomischen Betrachtung. Die Ergebnisse der Arbeit sind auch für die praktische Wirtschaftspolitik von Bedeutung, insbesondere mit Blick auf Innovationsprozesse und Umweltwirkungen.
Resumo:
Mit Hilfe der Vorhersage von Kontexten können z. B. Dienste innerhalb einer ubiquitären Umgebung proaktiv an die Bedürfnisse der Nutzer angepasst werden. Aus diesem Grund hat die Kontextvorhersage einen signifikanten Stellenwert innerhalb des ’ubiquitous computing’. Nach unserem besten Wissen, verwenden gängige Ansätze in der Kontextvorhersage ausschließlich die Kontexthistorie des Nutzers als Datenbasis, dessen Kontexte vorhersagt werden sollen. Im Falle, dass ein Nutzer unerwartet seine gewohnte Verhaltensweise ändert, enthält die Kontexthistorie des Nutzers keine geeigneten Informationen, um eine zuverlässige Kontextvorhersage zu gewährleisten. Daraus folgt, dass Vorhersageansätze, die ausschließlich die Kontexthistorie des Nutzers verwenden, dessen Kontexte vorhergesagt werden sollen, fehlschlagen könnten. Um die Lücke der fehlenden Kontextinformationen in der Kontexthistorie des Nutzers zu schließen, führen wir den Ansatz zur kollaborativen Kontextvorhersage (CCP) ein. Dabei nutzt CCP bestehende direkte und indirekte Relationen, die zwischen den Kontexthistorien der verschiedenen Nutzer existieren können, aus. CCP basiert auf der Singulärwertzerlegung höherer Ordnung, die bereits erfolgreich in bestehenden Empfehlungssystemen eingesetzt wurde. Um Aussagen über die Vorhersagegenauigkeit des CCP Ansatzes treffen zu können, wird dieser in drei verschiedenen Experimenten evaluiert. Die erzielten Vorhersagegenauigkeiten werden mit denen von drei bekannten Kontextvorhersageansätzen, dem ’Alignment’ Ansatz, dem ’StatePredictor’ und dem ’ActiveLeZi’ Vorhersageansatz, verglichen. In allen drei Experimenten werden als Evaluationsbasis kollaborative Datensätze verwendet. Anschließend wird der CCP Ansatz auf einen realen kollaborativen Anwendungsfall, den proaktiven Schutz von Fußgängern, angewendet. Dabei werden durch die Verwendung der kollaborativen Kontextvorhersage Fußgänger frühzeitig erkannt, die potentiell Gefahr laufen, mit einem sich nähernden Auto zu kollidieren. Als kollaborative Datenbasis werden reale Bewegungskontexte der Fußgänger verwendet. Die Bewegungskontexte werden mittels Smartphones, welche die Fußgänger in ihrer Hosentasche tragen, gesammelt. Aus dem Grund, dass Kontextvorhersageansätze in erster Linie personenbezogene Kontexte wie z.B. Standortdaten oder Verhaltensmuster der Nutzer als Datenbasis zur Vorhersage verwenden, werden rechtliche Evaluationskriterien aus dem Recht des Nutzers auf informationelle Selbstbestimmung abgeleitet. Basierend auf den abgeleiteten Evaluationskriterien, werden der CCP Ansatz und weitere bekannte kontextvorhersagende Ansätze bezüglich ihrer Rechtsverträglichkeit untersucht. Die Evaluationsergebnisse zeigen die rechtliche Kompatibilität der untersuchten Vorhersageansätze bezüglich des Rechtes des Nutzers auf informationelle Selbstbestimmung auf. Zum Schluss wird in der Dissertation ein Ansatz für die verteilte und kollaborative Vorhersage von Kontexten vorgestellt. Mit Hilfe des Ansatzes wird eine Möglichkeit aufgezeigt, um den identifizierten rechtlichen Probleme, die bei der Vorhersage von Kontexten und besonders bei der kollaborativen Vorhersage von Kontexten, entgegenzuwirken.
Resumo:
Das Ernährungsverhalten einer Bevölkerung hat einen wesentlichen Einfluss auf das Wohlbefinden, die Gesundheit und Leistungsfähigkeit der Menschen. Ernährungsbedingte, chronische Erkrankungen weisen in den westlichen Industrienationen eine hohe Inzidenz und Prävalenz auf. Präventionsmaßnahmen im Setting Schule sollen das Ernährungsverhalten der Kinder- und Jugendlichen positiv beeinflussen. Gerade in diesem Setting können Personen mit unterschiedlichem sozioökonomischem Status, sowie Personen aus diversen Lebensbereichen angesprochen werden. Der Ernährungsführerschein (EFS) ist eine schulbasierte Primärpräventions-maßnahme, der in der 3. Jahrgangsstufe/Grundschule durchgeführt wird. In 6 – 7 Unterrichtseinheiten erfolgt eine praxisnahe Vermittlung von Grundkenntnissen über Ernährung, Lebensmittel und deren Zubereitung. Der EFS möchte eine Verhaltensänderung der Schulkinder bewirken. Sie erlernen Kompetenzen, damit sie in der Lage sind, sich selbst eine gesunde Mahlzeit zubereiten zu können. Aber kann dieses Projekt eine nachhaltige Verhaltensänderung bewirken? Die folgende Studie mit Mixed-Methods-Ansatz im Explanatory-Sequential-Design versucht genau dieser Frage nachzugehen. Auf eine quantitative Prä- und Postbefragung in 16 Klassen an 12 Grundschulen im Landkreis Marburg Biedenkopf und insgesamt 992 Befragungen folgte eine qualitative Studie mit neun problemzentrierten, leitfadengestützten Interviews. Der EFS zeigt keinen signifikanten Einfluss auf die Veränderung des Ernährungsverhaltens. Positiv zu bewerten ist, dass durch den EFS Alltagskompetenzen bei der Nahrungszubereitung gefördert wurden. Dieser positive Einfluss muss jedoch differenziert betrachtet werden, denn die qualitativen Studie zeigt, dass der EFS sehr gut in Familien aufgenommen wird, die sich bereits mit Ernährungsfragen auseinandersetzen und darauf achten, einen ernährungsphysiologisch günstigen Ernährungsstil zu leben oder anzustreben. In Familien der Billig- und Fleischesser konnte der EFS die Türen nicht öffnen. Aber gerade in diesem Segment wäre eine Veränderung des Essverhaltens induziert. Die Untersuchung ergab, dass der EFS für sich alleine nicht den Anspruch erheben kann, die Ernährungssituation der Kinder und Familien zu verbessern. Aber er bietet ein methodisch-didaktisch gut ausgearbeitetes Konzept und könnte als Baustein in die Entwicklung eines praxisnahen, erlebnisorientierten und ganzheitlichen Ernährungsbildungskonzepts unter Berücksichtigung diverser Settings und Lebenswelten der Kinder und Familien einfließen.
Resumo:
Die neotropisch verbreitete Unterfamilie der Pitcairnioideae (Bromeliaceae) besteht aus den Gattungen Dyckia, Deuterocohnia, Encholirium, Fosterella und Pitcairnia. Viele der mehr als 630 Arten dieser Unterfamilie weisen eine beträchtliche morphologische Plastizität auf, was oftmals eine sichere Artbestimmung erschwert. Um den Genfluss zwischen benachbarten Populationen bzw. nah verwandten Arten ermitteln zu können und somit mögliche Hinweise auf Artbildungsprozesse und Artabgrenzung zu erhalten, sind hochsensitive molekulare Marker erforderlich. Die vorliegende Dissertation beschäftigt sich schwerpunktmäßig mit der Entwicklung von Mikrosatellitenmarkern sowie ihre beispielhafte Anwendung für populationsgenetische Fragestellungen innerhalb der Pitcairnioideae. Als Quelle für diese Marker diente zum einen eine öffentliche ’expressed sequence tag’ (EST)-Datenbank von Ananas comosus, zum anderen wurden die drei Bromelienarten Fosterella rusbyi, Dyckia marnier-lapostollei und Deuterocohnia longipetala mittels der 454-Technik partiell sequenziert. Beide Ansätze lieferten insgesamt 164.137 Rohsequenzen, auf deren Basis einige tausend perfekte Mikrosatelliten identifiziert und zahlreiche flankierende PCR-Primerpaare sowohl für das Kern- als auch das Chloroplastengenom abgeleitet wurden. Nach umfangreichen Funktionalitätstests mit Fokus auf interspezifischer Übertragbarkeit sowie intraspezifischer Variabilität der Mikrosatellitenloci in der jeweiligen Zielart wurden schließlich 48 nukleäre und sieben plastidäre Mikrosatellitenmarker etabliert. Das Potenzial der nukleären Mikrosatellitenmarker zur Abgrenzung nah verwandter und morphologisch sehr ähnlicher Arten innerhalb der Pitcairnioideae wurde zum einen in den im Nordosten Brasiliens verbreiteten Arten Dyckia pernambucana, Dy. limae, Dy. dissitiflora und Dy. macedoi durch die Genotypisierung von insgesamt 89 Individuen von neun natürlichen Standorten überprüft. Hierbei konnte basierend auf den Alleldaten an 15 nukleären 454-Mikrosatellitenloci eindeutig zwischen dem Artenkomplex ’Dy. limae/Dy. pernambucana’ auf der einen Seite und Dy. dissitiflora bzw. Dy. macedoi auf der anderen Seite unterschieden werden, eine Abtrennung der Arten Dy. limae und Dy. pernambucana war hingegen mit keiner der verwendeten Auswertemethoden möglich, was darauf hindeutet, dass es sich hierbei nicht um getrennte Arten handelt. Zum anderen wurden 190 Individuen von 28 natürlichen Standorten der in Bolivien bzw. Zentralamerika heimischen und morphologisch sehr ähnlichen Arten Fosterella christophii, F. villosula und F. micrantha untersucht. Unter Verwendung von je vier nukleären EST- und 454-Mikrosatellitenmarkern und verschiedenen Clusteranalysen konnten zwei genetisch voneinander getrennte und geographisch determinierte Gruppen definiert werden. Dabei umfasste die größere der beiden Gruppen alle drei Arten, deren Siedlungsbereich neben einem Areal in den bolivianischen Departamentos Beni, La Paz und Cochabamba auch das gesamte Verbreitungsgebiet von F. micrantha in Zentralamerika beinhaltete. Die zweite, kleinere Gruppe enthielt nur Populationen von F. christophii und F. villosula und war auf eine relativ kleine Region im bolivianischen Departamento Santa Cruz beschränkt. Innerhalb von Bolivien liegt dieser Verteilung möglicherweise eine genetische Barriere im Bereich des Andenknicks zugrunde, infolge welcher alle Populationen südlich und nördlich dieser Region weitgehend unabhängig von ihrer Artzugehörigkeit gruppieren. Eine klare Trennung der drei Arten war nicht möglich, sodass davon ausgegangen werden kann, dass der Artbildungsprozess innerhalb der sog. ’micrantha-Gruppe’ noch keineswegs abgeschlossen ist. In einem dritten Ansatz wurden 15 nukleäre und sieben plastidäre Mikrosatellitenmarker zur Genotypisierung von 253 Individuen aus 30 natürlichen Populationen von Fosterella rusbyi eingesetzt. Damit sollte die Verteilung der genetischen Diversität und der Genfluss zwischen den Populationen dieser in den bolivianischen Anden inselartig verbreiteten Art untersucht werden. Die einzelnen Populationen erwiesen sich als genetisch deutlich voneinander differenziert, wobei nahezu jede Population durch eine individuelle Kombination von Genotypen charakterisiert war. Auf Ebene der Populationen wurde weiterhin ein deutliches Heterozygoten-Defizit über nahezu alle Loci ermittelt, was am ehesten durch Faktoren wie Inzucht und Selbstbestäubung in Kombination mit einer Tendenz zu klonalem Wachstum erklärt werden kann. Mögliche Gründe für den eingeschränkten Genfluss zwischen den Populationen werden diskutiert.
Resumo:
A large class of special functions are solutions of systems of linear difference and differential equations with polynomial coefficients. For a given function, these equations considered as operator polynomials generate a left ideal in a noncommutative algebra called Ore algebra. This ideal with finitely many conditions characterizes the function uniquely so that Gröbner basis techniques can be applied. Many problems related to special functions which can be described by such ideals can be solved by performing elimination of appropriate noncommutative variables in these ideals. In this work, we mainly achieve the following: 1. We give an overview of the theoretical algebraic background as well as the algorithmic aspects of different methods using noncommutative Gröbner elimination techniques in Ore algebras in order to solve problems related to special functions. 2. We describe in detail algorithms which are based on Gröbner elimination techniques and perform the creative telescoping method for sums and integrals of special functions. 3. We investigate and compare these algorithms by illustrative examples which are performed by the computer algebra system Maple. This investigation has the objective to test how far noncommutative Gröbner elimination techniques may be efficiently applied to perform creative telescoping.