998 resultados para Analytische Methoden


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gegenstand der Arbeit ist ein journalistisches Unterrichtsprojekt zur Förderung einer politischen Medienbildung. Das Projekt wurde deutschlandweit in 20 Haupt- und Gesamtschulklassen mit rund 400 Schülern und Schülerinnen durchgeführt und qualitativ untersucht. Im theoretischen Teil werden Konzepte von Medienbildung, medienpädagogische Ansätze und Ergebnisse empirischer Untersuchungen vorgestellt, die für die Arbeit und das Projekt relevant waren. Kapitel 2 thematisiert das Phänomen „TV-Journalismus“ vor dem Hintergrund der Cultural Studies (v. a. Stuart Hall, Margret Lünenborg) und diskutiert es im Hinblick auf medienpädagogische Fragestellungen. Journalismus wird dabei als ein möglicher Weg gesehen, eine politische Bildung mit einer Medienbildung zu verknüpfen. Allerdings führen die Schwerpunkte Journalismus und Politik auch zu Schwierigkeiten bei der Umsetzung, wenn man bedenkt, dass sowohl journalistische Genres als auch Politik in der jugendlichen Lebenswelt keine maßgebliche Rolle spielen, wie aktuelle Jugendstudien zeigen (z. B. JIM- und Deutsche-Shell-Studien). Sinnvoll erscheint hier die Öffnung entsprechender Konzepte hin zu einem weiteren, lebensweltbezogenen Politik- und Journalismusverständnis, um Jugendlichen Bezugspunkte zu ihrer Alltagswelt zu bieten. Kapitel 3 und 4 stellen leitende theoretische Konzepte von Medienbildung/Medienkompetenz (etwa Winfried Marotzki, Manuela Pietraß) sowie medienpädagogische Ansätze (z. B. den handlungsorientierten, themenzentrierten Ansatz von Bernd Schorb) dar. „Medienbildung“ wird in der Arbeit verstanden als Beziehung des Menschen zu sich selbst und zur gegenständlichen und sozialen Welt, wie sie ihm medienvermittelt begegnet. Bildung ist dann das Ergebnis des kritisch-reflexiven Umgangs mit der medial vermittelten Welt. Eine Medienbildung umfasst dabei auch eine Medienkompetenz im Sinne von medienspezifischem Wissen und Fähigkeiten des Umgangs mit Medien. Eine „politische Medienbildung“ wird in Anlehnung an David Buckingham dann zum einen als ein kritisches „Lesen“ medialer Texte definiert, in welchen die soziale Welt vermittelt wird. Zum anderen bedeutet eine „politische Medienbildung“ auch die eigene Gestaltung medialer Texte und die Teilhabe an einer medialen Kultur. Kapitel 5 beschreibt die konkrete forschungsmethodische Herangehensweise: Das medienpädagogische Projekt wurde qualitativ im Hinblick auf eine Medienbildung untersucht. Anders als in bisherigen Medienkompetenz-Studien wurde nicht nach den Wissenszuwächsen und erlernten Fähigkeiten nach Projektende gefragt. Im Zentrum des Interesses standen die im Unterrichtsprojekt beobachteten Situationen und Prozesse einer reflexiven Auseinandersetzung mit journalistisch vermittelten Themen und Darstellungsweisen. Verschiedene Methoden und Datenquellen wurden miteinander kombiniert, um die Unterrichtsrealität angemessen erfassen zu können. Zu den Erhebungsmethoden gehörten etwa die Unterrichtsaufzeichnung, die Gruppendiskussion und das Sammeln von alltagskulturellem Material. Die dabei gewonnenen Daten wurden mit den Auswertungsverfahren der Text- und Bildanalyse untersucht. Die Ergebnisse folgen schließlich in Kapitel 6. Dieses wird im Hinblick auf die konkretisierten Forschungsfragen differenziert in: • Kapitel 6.1: Hier geht es um die Auseinandersetzung der Schüler/innen mit Wissen über Medien. Relevant sind hier Fragen nach einem Vorwissen von Jugendlichen über journalistische Gestaltungsmittel und wie die Schüler/innen ein solches Vorwissen im Kontext des Unterrichts einbrachten. • Kapitel 6.2: Diese Ergebnisse zeigen auf, wie sich die Jugendlichen mithilfe journalistischer Texte mit einem Thema auseinandersetzten, z. B. wie sie diese hinsichtlich ihrer Glaubwürdigkeit oder ihrer Darstellung bewerteten. • Kapitel 6.3: In diesem Kapitel finden sich Ergebnisse aus den Gruppenarbeiten, in welchen die Schüler/innen selbst ein mediales Konzept entwarfen. Die Aufzeichnungen in den Gruppen deckten auf, wie die Schüler/innen an diese Aufgabe herangingen, welche inhaltlichen Schwerpunkte sie setzten, wie sie Sichtweisen in der Gruppe aushandelten und welche formale Darstellungsweise sie planten. Die Kapitel 6.4 und 7 liefern eine Zusammenfassung der wichtigsten Erkenntnisse und eine kritische Diskussion, welche Chancen und Probleme ein journalistisches Projekt im Kontext der Schule und insbesondere für die Zielgruppe einer niedrigen Bildungszugehörigkeit mit sich bringt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Europäische Markt für ökologische Lebensmittel ist seit den 1990er Jahren stark gewachsen. Begünstigt wurde dies durch die Einführung der EU-Richtlinie 2092/91 zur Zertifizierung ökologischer Produkte und durch die Zahlung von Subventionen an umstellungswillige Landwirte. Diese Maßnahmen führten am Ende der 1990er Jahre für einige ökologische Produkte zu einem Überangebot auf europäischer Ebene. Die Verbrauchernachfrage stieg nicht in gleichem Maße wie das Angebot, und die Notwendigkeit für eine Verbesserung des Marktgleichgewichts wurde offensichtlich. Dieser Bedarf wurde im Jahr 2004 von der Europäischen Kommission im ersten „Europäischen Aktionsplan für ökologisch erzeugte Lebensmittel und den ökologischen Landbau“ formuliert. Als Voraussetzung für ein gleichmäßigeres Marktwachstum wird in diesem Aktionsplan die Schaffung eines transparenteren Marktes durch die Erhebung statistischer Daten über Produktion und Verbrauch ökologischer Produkte gefordert. Die Umsetzung dieses Aktionsplans ist jedoch bislang nicht befriedigend, da es auf EU-Ebene noch immer keine einheitliche Datenerfassung für den Öko-Sektor gibt. Ziel dieser Studie ist es, angemessene Methoden für die Erhebung, Verarbeitung und Analyse von Öko-Marktdaten zu finden. Geeignete Datenquellen werden identifiziert und es wird untersucht, wie die erhobenen Daten auf Plausibilität untersucht werden können. Hierzu wird ein umfangreicher Datensatz zum Öko-Markt analysiert, der im Rahmen des EU-Forschungsprojektes „Organic Marketing Initiatives and Rural Development” (OMIaRD) erhoben wurde und alle EU-15-Länder sowie Tschechien, Slowenien, Norwegen und die Schweiz abdeckt. Daten für folgende Öko-Produktgruppen werden untersucht: Getreide, Kartoffeln, Gemüse, Obst, Milch, Rindfleisch, Schaf- und Ziegenfleisch, Schweinefleisch, Geflügelfleisch und Eier. Ein zentraler Ansatz dieser Studie ist das Aufstellen von Öko-Versorgungsbilanzen, die einen zusammenfassenden Überblick von Angebot und Nachfrage der jeweiligen Produktgruppen liefern. Folgende Schlüsselvariablen werden untersucht: Öko-Produktion, Öko-Verkäufe, Öko-Verbrauch, Öko-Außenhandel, Öko-Erzeugerpreise und Öko-Verbraucherpreise. Zudem werden die Öko-Marktdaten in Relation zu den entsprechenden Zahlen für den Gesamtmarkt (öko plus konventionell) gesetzt, um die Bedeutung des Öko-Sektors auf Produkt- und Länderebene beurteilen zu können. Für die Datenerhebung werden Primär- und Sekundärforschung eingesetzt. Als Sekundärquellen werden Publikationen von Marktforschungsinstituten, Öko-Erzeugerverbänden und wissenschaftlichen Instituten ausgewertet. Empirische Daten zum Öko-Markt werden im Rahmen von umfangreichen Interviews mit Marktexperten in allen beteiligten Ländern erhoben. Die Daten werden mit Korrelations- und Regressionsanalysen untersucht, und es werden Hypothesen über vermutete Zusammenhänge zwischen Schlüsselvariablen des Öko-Marktes getestet. Die Datenbasis dieser Studie bezieht sich auf ein einzelnes Jahr und stellt damit einen Schnappschuss der Öko-Marktsituation der EU dar. Um die Marktakteure in die Lage zu versetzen, zukünftige Markttrends voraussagen zu können, wird der Aufbau eines EU-weiten Öko-Marktdaten-Erfassungssystems gefordert. Hierzu wird eine harmonisierte Datenerfassung in allen EU-Ländern gemäß einheitlicher Standards benötigt. Die Zusammenstellung der Marktdaten für den Öko-Sektor sollte kompatibel sein mit den Methoden und Variablen der bereits existierenden Eurostat-Datenbank für den gesamten Agrarmarkt (öko plus konventionell). Eine jährlich aktualisierte Öko-Markt-Datenbank würde die Transparenz des Öko-Marktes erhöhen und die zukünftige Entwicklung des Öko-Sektors erleichtern. ---------------------------

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Seit einigen Jahren erfährt Lateinamerika einen epochalen Umbruch. Das neoliberale Modell ist in einer Krise. Die Politik des „Washington Consensus“ und das Diktum einer politisch nicht kontrollierbaren Globalisierung werden zunehmend hinterfagt. Aus der Linkswende haben sich neue alternative Politikkonzepten entwickelt. In dem vorliegenden Working Paper wird auf die Beziehung von sozialen Bewegungen, Ideologien und Regierungen eingegangen. In ihrer Diagnose arbeitet Maristella Svampa die ambivalenten Charakteristiken des aktuellen Wandels in Lateinamerika heraus. Daran schließt eine analytische Annäherung an die verschiedenen ideologischen Traditionen an, die den Widerstandssektor prägen. Abschließend werden bei der Analyse der vier wichtigsten Tendenzen einige der wichtigsten Daten über die Region präsentiert. Zu diesen Tendenzen gehören der Fortschritt der indigenen Kämpfe, die Konsolidierung neuer Formen des Kampfes, die Reaktivierung der national-populären Tradition, sowie die Rückkehr des „Desarrollismo“. Letztere wird sowohl von progressiven als auch eher konservativ-neoliberalen Regierungen unterstützt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden die sich abzeichnenden zukünftigen Möglichkeiten, Stärken und Schwächen der Kraft-Wärme-Kopplung (KWK) untersucht. Dies geschieht vor dem Hintergrund des Klimawandels, der Integration steigender Anteile Erneuerbarer Energien in die Stromerzeugung und unter Berücksichtigung der sich damit ergebenden Herausforderungen, eine sichere und nachhaltige Stromversorgung zu gestalten. Der Fokus liegt auf der Dieselmotor-KWK und der Nutzung nachwachsender Kraftstoffe. Es wird davon ausgegangen, dass der Übergang zu einer reinen Stromerzeugung aus Erneuerbaren Energiequellen in Deutschland unter erheblicher Einbindung des hohen Potentials der kostengünstigen, umweltfreundlichen, aber in der Leistung extrem fluktuierenden Windenergie erfolgen wird. Als dezentrales Integrationswerkzeug wurde die Kraft-Wärme-Kopplung mit Dieselmotoren untersucht. Sie entspricht aufgrund ihrer großen Flexibilität und ihrer hohen Wirkungsgrade mit vergleichsweise kleinen Leistungen sehr gut den Anforderungen der gleichzeitigen dezentralen Wärmenutzung. In der Dissertation werden die Randbedingungen der Dieselmotor-KWK untersucht und beschrieben. Darauf aufbauend werden unterschiedliche Modelle der Windintegration durch KWK erarbeitet und in diversen Variationen wird der Ausgleich der Stromerzeugung aus Windenergie durch KWK simuliert. Darüber hinaus werden dezentrale KWK-Anlagen hinsichtlich eines koordinierten gemeinsamen Betriebs und hinsichtlich der optimalen Auslegung für den Windenergieausgleich betrachtet. Es wird für den beschriebenen Kontext der Erneuerbaren Energien und der Kraft-Wärme-Kopplung das Thema „Umweltwirkungen“ diskutiert. Es wird dargelegt, dass die heute verwendeten Ansätze zur Bewertung der KWK zu einer Verzerrung der Ergebnisse führen. Demgegenüber wurde mit der so genannten Outputmethode eine Methode der Ökobilanzierung vorgestellt, die, im Gegensatz zu den anderen Methoden, keine verzerrenden Annahmen in die Wirkungsabschätzung aufnimmt und somit eine eindeutige und rein wissenschaftliche Auswertung bleibt. Hiermit ist die Grundlage für die Bewertung der unterschiedlichen Technologien und Szenarien sowie für die Einordnung der KWK in den Kontext der Energieerzeugung gegeben. Mit der Outputmethode wird u.a. rechnerisch bewiesen, dass die gekoppelte Strom- und Wärmeerzeugung in KWK-Anlagen tatsächlich die optimale Nutzung der regenerativen Kraftstoffe „Biogas“ und „Pflanzenöl“ im Hinblick auf Ressourceneinsatz, Treibhausgaseinsparung und Exergieerzeugung ist. Es wurde darüber hinaus die Frage untersucht woher die für die Stromerzeugung durch Dieselmotor-KWK-Anlagen notwendige Bioenergie genommen werden kann. Es ist erwiesen, dass die in Deutschland nutzbare landwirtschaftliche Fläche nur zur Deckung eines Teils der Stromerzeugung ausreichen würde. Einheimisches Biogas und nachhaltiges importiertes Pflanzenöl, das in hohem Maße auf degradierten Böden angebaut werden sollte, können die notwendige Brennstoffenergie liefern. Um im Ausland ausreichend Pflanzenöl herstellen zu können, wird eine landwirtschaftliche Fläche von 6 bis 12 Mio. ha benötigt. Das Ergebnis ist, dass ein voller Ausgleich von Windenergie-Restlast durch KWK mit Erneuerbaren Energieträgern sinnvoll und machbar ist! Dieses Wind-KWK-DSM-System sollte durch ein Stromnetz ergänzt sein, das Wasserkraftstrom für den Großteil der Regelenergieaufgaben nutzt, und das den großräumigen Ausgleich Erneuerbarer Energien in Europa und den Nachbarregionen ermöglicht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ein großer Teil der Schäden wie auch der Verluste an Gesundheit und Leben im Erdbebenfall hat mit dem frühzeitigen Versagen von Mauerwerksbauten zu tun. Unbewehrtes Mauerwerk, wie es in vielen Ländern üblich ist, weist naturgemäß einen begrenzten Erdbebenwiderstand auf, da Zugspannungen und Zugkräfte nicht wie bei Stahlbeton- oder Stahlbauten aufgenommen werden können. Aus diesem Grund wurde bereits mit verschiedenen Methoden versucht, die Tragfähigkeit von Mauerwerk im Erdbebenfall zu verbessern. Modernes Mauerwerk kann auch als bewehrtes oder eingefasstes Mauerwerk hergestellt werden. Bei bewehrtem Mauerwerk kann durch die Bewehrung der Widerstand bei Beanspruchung als Scheibe wie als Platte verbessert werden, während durch Einfassung mit Stahlbetonelementen in erster Linie die Scheibentragfähigkeit sowie die Verbindung zu angrenzenden Bauteilen verbessert wird. Eine andere interessante Möglichkeit ist das Aufbringen textiler Mauerwerksverstärkungen oder von hochfesten Lamellen. In dieser Arbeit wird ein ganz anderer Weg beschritten, indem weiche Fugen Spannungsspitzen reduzieren sowie eine höhere Verformbarkeit gewährleiten. Dies ist im Erdbebenfall sehr hilfreich, da die Widerstandfähigkeit eines Bauwerks oder Bauteils letztlich von der Energieaufnahmefähigkeit, also dem Produkt aus Tragfähigkeit und Verformbarkeit bestimmt wird. Wenn also gleichzeitig durch die weichen Fugen keine Schwächung oder sogar eine Tragfähigkeitserhöhung stattfindet, kann der Erdbebenwiderstand gesteigert werden. Im Kern der Dissertation steht die Entwicklung der Baukonstruktion einer Mauerwerkstruktur mit einer neuartigen Ausbildung der Mauerwerksfugen, nämlich Elastomerlager und Epoxydharzkleber anstatt üblichem Dünnbettmörtel. Das Elastomerlager wird zwischen die Steinschichten einer Mauerwerkswand eingefügt und damit verklebt. Die Auswirkung dieses Ansatzes auf das Verhalten der Mauerwerkstruktur wird unter dynamischer und quasi-statischer Last numerisch und experimentell untersucht und dargestellt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wird untersucht, ob die Effektivität behördlichen Handelns durch organisationales Lernen gesteigert werden kann und welches Potential dem Organisationslernen für die Verwaltungspraxis innewohnt. Das Organisationslernen wird durch die Erhebung des Vorkommens einzelner Methoden des verwaltungspraktischen Handelns erfasst. Zur quantitativen Erfassung der Effektivität der behördlichen Tätigkeit ist eine behördenspezifische Operationalisierung erforderlich. Für die Untersuchung werden die zur Durchführung des SGB II gebildeten Abteilungen der gegenwärtig 63 Optionskreise ausgewählt. Diese betreiben seit 2005 die bis dahin getrennten Hilfesysteme von Arbeitslosen- und Sozialhilfe zusammengefasst als Grundsicherung für Arbeitsuchende in eigener Zuständigkeit (neben den alternativen Organisationsformen der Arbeitsgemeinschaft und der getrennten Aufgabenträgerschaft). Zur Operationalisierung des behördlichen Handlungsergebnisses der Optionskreise wird die Zahl der Bedarfsgemeinschaften gewählt. Es kann folglich die Hypothese formuliert werden, dass umfangreiches Organisationslernen zu einer beschleunigten Reduzierung der Zahl der Bedarfsgemeinschaften führt. Zur Prüfung dieser Hypothese wurde Anfang 2009 eine schriftliche Vollerhebung bei den 63 Optionskreisen durchgeführt. Die Rücklaufquote der Erhebungsbögen betrug 59%. Der Nutzungsgrad der in der Erhebung berücksichtigten Methoden liegt zwischen 85% (Benchmarking) und 4% (Qualitätsmanagement). Die Erhebungsergebnisse werden bepunktet, um den Nutzungsgrad des Organisationslernens zu operationalisieren. Von den erzielbaren 20 Punkten je Optionskreis werden maximal 12 erreicht (Median: 9 Punkte; geringster Wert: 2 Punkte). Im definierten Zeitraum betrug der Median der Entwicklung der Zahl der Bedarfsgemeinschaften bei den an der Erhebung teilnehmenden Optionskreisen – 16,5% (günstigster Wert: – 27,4%; ungünstigster Wert: +0,4 %). Die Anwendung eines Rangkorrelationskoeffizienten offenbart, dass die Rangfolgen „Grad des Organisationslernens“ und „Entwicklung der Zahl der Bedarfsgemeinschaften“ nicht korrelieren. Insoweit kann die Untersuchungsfrage, ob die Effektivität behördlichen Handelns durch die Nutzung des Organisationslernens gesteigert werden kann, noch nicht abschließend beantwortet werden. Eine Analyse des Ergebnisses zeigt allerdings, dass es trotz der nicht korrelierenden Rangfolgen bestimmte Methoden des Organisationslernens gibt, die mit einer überdurchschnittlich hohen Effektivität in Bezug auf die Entwicklung der Zahl der Bedarfsgemeinschaften einhergehen. Zu dem nach dem Ergebnis der Untersuchung empfehlenswerten Methodenset gehören beispielsweise die Implementierung von Controlling- und Berichtspflichten gegenüber der Gesamtverwaltungsleitung, der Einsatz von Monitoringsystemen und die Gewährleistung einer organisationalen Grundstabilität. Darüber hinaus wird erkennbar, dass die Konkurrenzsituation zwischen Optionskommunen, Arbeitsgemeinschaften und getrennten Aufgabenträgerschaften zu einer insgesamt steigenden Effektivität des behördlichen Handelns führt. Hieraus lassen sich Ansatzpunkte für die Theoriebildung und Modellierung eines „Lizenz-Modells“ zur Erhöhung der Effektivität anderer behördlicher Leistungen entwickeln.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sei $N/K$ eine galoissche Zahlkörpererweiterung mit Galoisgruppe $G$, so dass es in $N$ eine Stelle mit voller Zerlegungsgruppe gibt. Die vorliegende Arbeit beschäftigt sich mit Algorithmen, die für das gegebene Fallbeispiel $N/K$, die äquivariante Tamagawazahlvermutung von Burns und Flach für das Paar $(h^0(Spec(N), \mathbb{Z}[G]))$ (numerisch) verifizieren. Grob gesprochen stellt die äquivariante Tamagawazahlvermutung (im Folgenden ETNC) in diesem Spezialfall einen Zusammenhang her zwischen Werten von Artinschen $L$-Reihen zu den absolut irreduziblen Charakteren von $G$ und einer Eulercharakteristik, die man in diesem Fall mit Hilfe einer sogenannten Tatesequenz konstruieren kann. Unter den Voraussetzungen 1. es gibt eine Stelle $v$ von $N$ mit voller Zerlegungsgruppe, 2. jeder irreduzible Charakter $\chi$ von $G$ erfüllt eine der folgenden Bedingungen 2a) $\chi$ ist abelsch, 2b) $\chi(G) \subset \mathbb{Q}$ und $\chi$ ist eine ganzzahlige Linearkombination von induzierten trivialen Charakteren; wird ein Algorithmus entwickelt, der ETNC für jedes Fallbeispiel $N/\mathbb{Q}$ vollständig beweist. Voraussetzung 1. erlaubt es eine Idee von Chinburg ([Chi89]) umzusetzen zur algorithmischen Berechnung von Tatesequenzen. Dabei war es u.a. auch notwendig lokale Fundamentalklassen zu berechnen. Im höchsten zahm verzweigten Fall haben wir hierfür einen Algorithmus entwickelt, der ebenfalls auf den Ideen von Chinburg ([Chi85]) beruht, die auf Arbeiten von Serre [Ser] zurück gehen. Für nicht zahm verzweigte Erweiterungen benutzen wir den von Debeerst ([Deb11]) entwickelten Algorithmus, der ebenfalls auf Serre's Arbeiten beruht. Voraussetzung 2. wird benötigt, um Quotienten aus den $L$-Werten und Regulatoren exakt zu berechnen. Dies gelingt, da wir im Fall von abelschen Charakteren auf die Theorie der zyklotomischen Einheiten zurückgreifen können und im Fall (b) auf die analytische Klassenzahlformel von Zwischenkörpern. Ohne die Voraussetzung 2. liefern die Algorithmen für jedes Fallbeispiel $N/K$ immer noch eine numerische Verifikation bis auf Rechengenauigkeit. Den Algorithmus zur numerischen Verifikation haben wir für $A_4$-Erweiterungen über $\mathbb{Q}$ in das Computeralgebrasystem MAGMA implementiert und für 27 Erweiterungen die äquivariante Tamagawazahlvermutung numerisch verifiziert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Kern der vorliegenden Arbeit ist die Erforschung von Methoden, Techniken und Werkzeugen zur Fehlersuche in modellbasierten Softwareentwicklungsprozessen. Hierzu wird zuerst ein von mir mitentwickelter, neuartiger und modellbasierter Softwareentwicklungsprozess, der sogenannte Fujaba Process, vorgestellt. Dieser Prozess wird von Usecase Szenarien getrieben, die durch spezielle Kollaborationsdiagramme formalisiert werden. Auch die weiteren Artefakte des Prozess bishin zur fertigen Applikation werden durch UML Diagrammarten modelliert. Es ist keine Programmierung im Quelltext nötig. Werkzeugunterstützung für den vorgestellte Prozess wird von dem Fujaba CASE Tool bereitgestellt. Große Teile der Werkzeugunterstützung für den Fujaba Process, darunter die Toolunterstützung für das Testen und Debuggen, wurden im Rahmen dieser Arbeit entwickelt. Im ersten Teil der Arbeit wird der Fujaba Process im Detail erklärt und unsere Erfahrungen mit dem Einsatz des Prozesses in Industrieprojekten sowie in der Lehre dargestellt. Der zweite Teil beschreibt die im Rahmen dieser Arbeit entwickelte Testgenerierung, die zu einem wichtigen Teil des Fujaba Process geworden ist. Hierbei werden aus den formalisierten Usecase Szenarien ausführbare Testfälle generiert. Es wird das zugrunde liegende Konzept, die konkrete technische Umsetzung und die Erfahrungen aus der Praxis mit der entwickelten Testgenerierung dargestellt. Der letzte Teil beschäftigt sich mit dem Debuggen im Fujaba Process. Es werden verschiedene im Rahmen dieser Arbeit entwickelte Konzepte und Techniken vorgestellt, die die Fehlersuche während der Applikationsentwicklung vereinfachen. Hierbei wurde darauf geachtet, dass das Debuggen, wie alle anderen Schritte im Fujaba Process, ausschließlich auf Modellebene passiert. Unter anderem werden Techniken zur schrittweisen Ausführung von Modellen, ein Objekt Browser und ein Debugger, der die rückwärtige Ausführung von Programmen erlaubt (back-in-time debugging), vorgestellt. Alle beschriebenen Konzepte wurden in dieser Arbeit als Plugins für die Eclipse Version von Fujaba, Fujaba4Eclipse, implementiert und erprobt. Bei der Implementierung der Plugins wurde auf eine enge Integration mit Fujaba zum einen und mit Eclipse auf der anderen Seite geachtet. Zusammenfassend wird also ein Entwicklungsprozess vorgestellt, die Möglichkeit in diesem mit automatischen Tests Fehler zu identifizieren und diese Fehler dann mittels spezieller Debuggingtechniken im Programm zu lokalisieren und schließlich zu beheben. Dabei läuft der komplette Prozess auf Modellebene ab. Für die Test- und Debuggingtechniken wurden in dieser Arbeit Plugins für Fujaba4Eclipse entwickelt, die den Entwickler bestmöglich bei der zugehörigen Tätigkeit unterstützen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dass Rückmeldungen ein wichtiges Instrument des schulischen Lehr-Lernkontextes darstellen, ist nicht neu. Schon in den 70er Jahren konnte die immense Bedeutung einer Rückmeldung für den Lernprozess herausgestellt werden. Bereits damals war bekannt, dass SuS sich im Unterricht ihrer richtigen und unangemessenen Verhaltensweisen oder Kompetenzen nicht in dem Maße bewusst sind, dass Verhaltensänderungen oder Kompetenzzuwächse eingeleitet werden könnten (vgl. Spanhel 1977, S. 91). Aus diesem Grund beschäftigt sich diese Studie mit derartigen Problematiken und stellt dar, wie in zwei Grundschulklassen Feedback erteilt wurde. Das Thema „Lehrerrückmeldungen im Grundschulalltag“ wird mehrere Aspekte in den Fokus stellen, um die Thematik ausführlich darstellen zu können. In den ersten beiden Kapiteln dieser Arbeit wird sich den grundlegenden theoretischen Erkenntnissen zugewandt, wobei sich zunächst der Rückmeldung, also dem Feedback, gewidmet werden soll. Hierbei wird der Feedbackterminus definiert und besonderer Wert darauf gelegt, wie Feedback in Lehr-Lernkontexten lernförderlich gestaltet werden kann. Dies wird Ausgangslage für die später folgende empirische Untersuchung sein. Da Lehrerrückmeldungen im schulischen Kontext präsent sind, geht es im zweiten theoretischen Kapitel darum, generelle Aufgaben der Grundschule vorzustellen, welche unter dem Oberbegriff des Bildungs- und Erziehungsauftrages der Grundschule subsummiert werden können. Anschließend werden die Begriffe Lernen, Leisten und Leistungsbewertung beschrieben und abschließend dargelegt, worin das Verhältnis zwischen einer mündlichen Rückmeldung und einer Leistungsbewertung besteht. Im Anschluss an die Theorie folgt der empirische Teil dieser Arbeit. Zunächst wird dabei auf die verwendeten Methoden eingegangen und das Forschungsfeld vorgestellt. Im darauf folgenden Kapitel werden die Ergebnisse bezüglich des Lehrerfeedbacks dargestellt und analysiert. Dazu zählen die Darstellung und Auswertung der Beobachtungen zu den Bereichen: Merkmale des Lehrerhandelns, Lehrer-Schülerinteraktion und angewandte Feedbackformen. Anhand der Lehrerinterviews werden dann die beiden Feedback-Konzepte der interviewten Lehrpersonen vorgestellt. Mittels der Beobachtungen sollen die Fragen: „Wie geben LehrerInnen in zwei Grundschulklassen Feedback?“ und „Welche Feedbackformen werden angewandt?“, geklärt werden können. Die Lehrerinterviews sollen Auskunft über das verfügbare Wissen der beiden Lehrerinnen bezüglich Rückmeldungen geben. Hinsichtlich der Feedbackrezeption durch den Lerner können kaum bis keine Studien gefunden werden. Diesem Aspekt von Rückmeldungen wird scheinbar wenig Beachtung geschenkt, sodass diese Arbeit der defizitären Forschungslage zuträglich sein kann. Aus diesem Grund wird in Kapitel 6 auf die Ergebnisse zur Rezeption von Rückmeldungen durch SuS Bezug genommen. Dabei werden sowohl die Beobachtungen als auch die durchgeführten Schülerinterviews ausgewertet und bezüglich der Sichtweise der SuS auf verschiedene Feedback-situationen evaluiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Fluoreszenzspektroskopie ist eine der wenigen Methoden, die eine Untersuchung von Zerfallsprozessen nach einer Anregung mit schmalbandiger Synchrotronstrahlung ermöglicht, wenn die Zerfallsprodukte nicht geladen sind. In der vorliegenden Arbeit wurden in erster Linie Anregungen des molekularen Wasserstoffs untersucht, die zur Erzeugung ungeladener aber angeregter Fragmente führten. Eine Bestimmung der absoluten Querschnitte für die drei möglichen Zerfallskanäle: Ionisation, Dissoziation und molekulare Fluoreszenz nach einer Anregung des Wasserstoffmoleküls im Anregungswellenlängenbereich zwischen 72,4 nm und 80 nm stand im ersten Teil der Arbeit im Vordergrund. Die oben erwähnten Zerfallskanäle und das Transmissionsspektrum wurden simultan aufgenommen und mit Hilfe des Lambert-Beerschen-Gesetzes absolut ermittelt. Die Verwendung der erhaltenen Querschnitte ermöglichte die Bestimmung der Dominanz der einzelnen Zerfallskanäle für 3p-D Pi-, 4p-D' Pi- und 5p-D’’ Pi-Zustände in Abhängigkeit von Vibrationsniveaus. Diese Zustände koppeln über eine nicht adiabatische Kopplung mit einem 2p-C Pi-Zustand, was zur Prädissoziation führt. Des Weiteren koppeln die angeregten Zustände zu höher liegenden Rydberg-Zuständen, damit wird eine starke Variation der Ionisationswahrscheinlichkeit in Abhängigkeit von Vibrationsniveaus verursacht. Die Stärke der Kopplung ist dabei entscheidend welcher der drei möglichen Zerfallswege dominant zur Relaxation des angeregten Zustandes beiträgt. Alle Werte wurden mit theoretisch ermittelten Daten aus MQDT- Berechnungen [Phys. Rev. A 82 (2010), 062511] verglichen und zeigten sehr gute Übereinstimmungen. Im zweiten Teil der Arbeit ist eine neue Apparatur für winkel- und zeitauflösende Photon-Photon-Koinzidenz entwickelt worden. Die zwei Off-Axis-Parabolspiegel, die das Herzstück der Apparatur bilden, parallelisieren die im Fokus abgestrahlte Emission des doppelt angeregten Wasserstoffmoleküls und projizieren diese auf jeweils einen Detektor. Die an zwei Strahlrohren bei BESSY II durchgeführten Messungen zeigten gute Übereinstimmungen mit den schon vorher veröffentlichten Daten: Messungen [J. Chem. Phys. 88 (1988), 3016] und theoretische Berechnungen [J. Phys. B: At Mol. Opt. Phys. 38 (2005), 1093-1105] der Koinzidenzrate in Abhängigkeit von der anregenden Strahlung. Durch die Bestimmung der gemessenen Zerfallszeit einzelner Prozesse konnten einzelne doppelt angeregte Zustände identifiziert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

DIADEM, created by THOMSON-CSF, is a methodology for specifying and developing user interfaces. It improves productivity of the interface development process as well as quality of the interface. The method provides support to user interface development in three aspects. (1) DIADEM defines roles of people involved and their tasks and organises the sequence of activities. (2) It provides graphical formalisms supporting information exchange between people. (3) It offers a basic set of rules for optimum human-machine interfaces. The use of DIADEM in three areas (process control, sales support, and multimedia presentation) was observed and evaluated by our laboratory in the European project DIAMANTA (ESPRIT P20507). The method provides an open procedure that leaves room for adaptation to a specific application and environment. This paper gives an overview of DIADEM and shows how to extend formalisms for developing multimedia interfaces.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die fliegerische Tätigkeit auf der Kurzstrecke in der zivilen Luftfahrt unterliegt arbeitsspezifischen Belastungsfaktoren, die sich in wesentlichen Punkten von denen auf der Langstrecke unterscheiden. Eine hohe Arbeitsbelastung auf der Kurzstrecke ist mit vielen Starts und Landungen am Tag verbunden. Neben der Anzahl der Flugabschnitte können auch lange Flugdienstzeiten und/oder unregelmäßige Arbeitszeiten sowie der Zeitdruck während der Einsätze auf der Kurzstrecke zur Belastung für Cockpitbesatzungsmitglieder werden und zu Ermüdungserscheinungen führen. Bisher wurden flugmedizinische und -psychologische Daten hauptsächlich auf der Langstrecke in Bezug auf die Auswirkungen der Jet-Leg Symptomatik und kaum auf der Kurzstrecke erhoben. Deshalb wurde im Rahmen des DLR- Projekts „Untersuchungen zu kumulativen psychischen und physiologischen Effekten des fliegenden Personals auf der Kurzstrecke“ eine Langzeituntersuchung zur Belastung/Beanspruchung, Ermüdung sowie Erholung des Cockpitpersonals auf der Kurzstrecke über jeweils 56 Tage durchgeführt. In Zusammenarbeit mit der Deutschen Lufthansa AG dauerte die Untersuchung zu den Auswirkungen arbeitsspezifischer Belastungsfaktoren auf die Cockpitbesatzungsmitglieder der Boeing 737-Flotte von 2003 bis 2006. ZIEL: Unter Berücksichtigung theoretisch fundierter arbeitspsychologischer Konzepte war das Ziel der Studie, kumulative und akute Effekte auf das Schlaf-Wach-Verhalten, auf die Belastung/Beanspruchung sowie auf die Müdigkeit zu identifizieren, die durch aufeinander folgende Einsätze auf der Kurzstrecke innerhalb eines Zeitraums von acht Wochen auftreten können. Hierfür wurden Daten von 29 Piloten (N=13 Kapitäne; N=16 Erste Offiziere) aufgezeichnet. Das Durchschnittsalter lag bei 33,8 ± 7,9 Jahren (Kapitäne: 42,0 ± 3,8 Jahre; Erste Offiziere: 27,4 ± 2,2 Jahre). METHODEN: Über ein Handheld PC konnten effizient Fragebögen bearbeitet und das Sleep Log sowie das Flight Log geführt werden. Die subjektive Ermüdung und Arbeitsbeanspruchung wurden durch standardisierte Fragebögen (z.B. Ermüdungsskala von Samn & Perelli (1982), NASA-TLX) operationalisiert. Im Sleep Log und im Flight Log wurden das Schlaf-Wach-Verhalten sowie flugspezifische Daten dokumentiert (z.B. Dienstbeginn, Dienstende, Flugabschnitte, Zielorte, etc.). Der Schlaf-Wach-Zyklus wurde mittels der Aktimetrie während des gesamten Messverlaufs aufgezeichnet. Die objektive Leistungsfähigkeit wurde täglich morgens und abends mit Hilfe einer computergestützten Psychomotor Vigilance Task (PVT) nach Dinges & Powell (1985) erfasst. Die Leistung in der PVT diente als Indikator für die Ermüdung eines Piloten. Zusätzliche Befragungen mit Paper-Pencil-Fragebögen sollten Aufschluss über relevante, psychosoziale Randbedingungen geben, die bei den täglichen Erhebungen nicht berücksichtigt wurden (z.B. Arbeitszufriedenheit; Essgewohnheiten; Kollegenbeziehungen). ERGEBNISSE: Unter Beachtung kumulativer Effekte wurde über die Studiendauer keine Veränderung in der Schlafqualität und im Schlafbedürfnis festgestellt. Die Müdigkeit nahm dagegen während der achtwöchigen Untersuchung zu. Die Reaktionszeit in der PVT zeigte an Flugdiensttagen eine Verschlechterung über die Zeit. Insgesamt wurden keine kritischen längerfristigen Effekte analysiert. Akute signifikante Effekte wurden bei der Ermüdung, der Gesamtbelastung und der Leistungsfähigkeit an Flugdiensttagen gefunden. Die Ermüdung als auch die Gesamtbelastung stiegen bei zunehmender Flugdienstdauer und Leganzahl und die Leistung nahm in der PVT ab. Der „time on task“ Effekt zeigte sich besonders in der Ermüdung durch die fliegerische Tätigkeit ab einer Flugdienstzeit von > 10 Stunden und > 4 Legs pro Tag. SCHLUSSFOLGERUNG: Mit diesen Ergebnissen konnte eine wissenschaftliche Datenbasis geschaffen werden aus der Empfehlungen resultieren, wie die Einsatzplanung für das Cockpitpersonal auf der Kurzstrecke unter flugmedizinischen und flugpsychologischen Gesichtspunkten optimiert werden kann. Zudem kann ein sachgerechter Beitrag im Rahmen der Diskussion zur Flugdienst- und Ruhezeitenregelung auf europäischer Ebene geleistet werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit werden Modellbildungsverfahren zur echtzeitfähigen Simulation wichtiger Schadstoffkomponenten im Abgasstrom von Verbrennungsmotoren vorgestellt. Es wird ein ganzheitlicher Entwicklungsablauf dargestellt, dessen einzelne Schritte, beginnend bei der Ver-suchsplanung über die Erstellung einer geeigneten Modellstruktur bis hin zur Modellvalidierung, detailliert beschrieben werden. Diese Methoden werden zur Nachbildung der dynamischen Emissi-onsverläufe relevanter Schadstoffe des Ottomotors angewendet. Die abgeleiteten Emissionsmodelle dienen zusammen mit einer Gesamtmotorsimulation zur Optimierung von Betriebstrategien in Hybridfahrzeugen. Im ersten Abschnitt der Arbeit wird eine systematische Vorgehensweise zur Planung und Erstellung von komplexen, dynamischen und echtzeitfähigen Modellstrukturen aufgezeigt. Es beginnt mit einer physikalisch motivierten Strukturierung, die eine geeignete Unterteilung eines Prozessmodells in einzelne überschaubare Elemente vorsieht. Diese Teilmodelle werden dann, jeweils ausgehend von einem möglichst einfachen nominalen Modellkern, schrittweise erweitert und ermöglichen zum Abschluss eine robuste Nachbildung auch komplexen, dynamischen Verhaltens bei hinreichender Genauigkeit. Da einige Teilmodelle als neuronale Netze realisiert werden, wurde eigens ein Verfah-ren zur sogenannten diskreten evidenten Interpolation (DEI) entwickelt, das beim Training einge-setzt, und bei minimaler Messdatenanzahl ein plausibles, also evidentes Verhalten experimenteller Modelle sicherstellen kann. Zum Abgleich der einzelnen Teilmodelle wurden statistische Versuchs-pläne erstellt, die sowohl mit klassischen DoE-Methoden als auch mittels einer iterativen Versuchs-planung (iDoE ) generiert wurden. Im zweiten Teil der Arbeit werden, nach Ermittlung der wichtigsten Einflussparameter, die Model-strukturen zur Nachbildung dynamischer Emissionsverläufe ausgewählter Abgaskomponenten vor-gestellt, wie unverbrannte Kohlenwasserstoffe (HC), Stickstoffmonoxid (NO) sowie Kohlenmono-xid (CO). Die vorgestellten Simulationsmodelle bilden die Schadstoffkonzentrationen eines Ver-brennungsmotors im Kaltstart sowie in der anschließenden Warmlaufphase in Echtzeit nach. Im Vergleich zur obligatorischen Nachbildung des stationären Verhaltens wird hier auch das dynami-sche Verhalten des Verbrennungsmotors in transienten Betriebsphasen ausreichend korrekt darge-stellt. Eine konsequente Anwendung der im ersten Teil der Arbeit vorgestellten Methodik erlaubt, trotz einer Vielzahl von Prozesseinflussgrößen, auch hier eine hohe Simulationsqualität und Ro-bustheit. Die Modelle der Schadstoffemissionen, eingebettet in das dynamische Gesamtmodell eines Ver-brennungsmotors, werden zur Ableitung einer optimalen Betriebsstrategie im Hybridfahrzeug ein-gesetzt. Zur Lösung solcher Optimierungsaufgaben bieten sich modellbasierte Verfahren in beson-derer Weise an, wobei insbesondere unter Verwendung dynamischer als auch kaltstartfähiger Mo-delle und der damit verbundenen Realitätsnähe eine hohe Ausgabequalität erreicht werden kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit beschäftigt sich mit der Frage, wie sich in einer Familie von abelschen t-Moduln die Teilfamilie der uniformisierbaren t-Moduln beschreiben lässt. Abelsche t-Moduln sind höherdimensionale Verallgemeinerungen von Drinfeld-Moduln über algebraischen Funktionenkörpern. Bekanntermaßen lassen sich Drinfeld-Moduln in allgemeiner Charakteristik durch analytische Tori parametrisieren. Diese Tatsache überträgt sich allerdings nur auf manche t-Moduln, die man als uniformisierbar bezeichnet. Die Situation hat eine gewisse Analogie zur Theorie von elliptischen Kurven, Tori und abelschen Varietäten über den komplexen Zahlen. Um zu entscheiden, ob ein t-Modul in diesem Sinne uniformisierbar ist, wendet man ein Kriterium von Anderson an, das die rigide analytische Trivialität der zugehörigen t-Motive zum Inhalt hat. Wir wenden dieses Kriterium auf eine Familie von zweidimensionalen t-Moduln vom Rang vier an, die von Koeffizienten a,b,c,d abhängen, und gelangen dabei zur äquivalenten Fragestellung nach der Konvergenz von gewissen rekursiv definierten Folgen. Das Konvergenzverhalten dieser Folgen lässt sich mit Hilfe von Newtonpolygonen gut untersuchen. Schließlich erhält man durch dieses Vorgehen einfach formulierte Bedingungen an die Koeffizienten a,b,c,d, die einerseits die Uniformisierbarkeit garantieren oder andererseits diese ausschließen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um die Nährstoffeffizienz im Boden zu erhöhen und klimarelevante Gasemissionen zu minimieren, sind quantitative Informationen zu den C- und N-Fraktionen im Kot sowie deren Mineralisierungspotential nötig. Da über die Hälfte des fäkalen N mikrobiell gebunden ist, sind Methoden zur Bestimmung der mikrobiellen Kotqualität hilfreich. Ziele der ersten Publikation waren die Anwendung der CFE-Methode zur Bestimmung der mikrobiellen Biomasse in Rinderkot, Ergosterolbestimmung als Marker für die pilzliche Biomasse und Aminozuckernachweis zur Analyse der mikrobiellen Gemeinschaftsstruktur (pilzliches Glucosamin und bakterielle Muramin-säure). Mit Hilfe der CFE-Methode sollten lebende Mikroorganismen im Kot, inklusive Bakterien, Pilze und Archaeen, erfasst werden. Verschiedene Extraktionsmittel wurden für diese Methode getestet, um stabile Extrakte und reproduzierbare mikrobielle Biomasse-C- und -N-Gehalte zu erhalten. Der Einsatz von 0.05 M CuSO4 als Extraktionsmittel löste vorherige Probleme mit der Extraktion CHCl3-labiler N-Komponenten und sorgte für stabile Kotextrakte. Die Methoden wurden in einem Kotinkubationsexperiment bei 25 °C verglichen. Mikrobielle Parameter zeigten dynamische Charakteristika und mögliche Verschiebungen innerhalb der mikrobiellen Gemeinschaft. Im Kot von Färsen betrug das mittlere C/N-Verhältnis 5,6 und der mittlere Cmik/Corg-Quotient 2,2%, das Verhältnis von Ergosterol zum mikrobiellen Biomasse-C war 1,1‰. Ergosterol und Aminozuckeranalyse ergaben einen signifikanten Pilzanteil von über 40% des mikrobiellen Gesamt-C. Für die Analyse mikrobieller Parameter in Rinderkot erwiesen sich alle getesteten Methoden als geeignet. Diese wurden für die folgenden Fütterungsversuche weiter unabhängig voneinander angewendet und verglichen. Die zweite Publikation verglich eine N-defizitäre (ND) und eine ausgeglichene N-Bilanz (NB) bei der Fütterung von Milchkühen unter Berücksichtigung der Kot-inhaltsstoffe, der mikrobiellen Parameter und der Verdaulichkeit. Unterschiede zwischen Individuen und Probennahmetagen wurden ebenfalls miteinbezogen. Mittlerer mikrobieller Biomasse-C- und -N-Gehalt war 37 bzw. 4,9 mg g-1 TM. Der Pilzanteil lag diesmal bei 25% des mikrobiellen Gesamt-C. Die Fütterung zeigte signifikante Effekte auf die Kotzusammensetzung. Das fäkale C/N-Verhältnis der NB-Fütterung war signifikant niedriger als bei ND. Gleiches gilt für das C/N-Verhältnis der mikrobiellen Biomasse mit jeweils 9.1 und 7.0 für ND und NB. Auch die Verdaulichkeit wurde durch die Fütterung beeinflusst. Unverdauter Futterstickstoff, Faserstoffe (NDF) und Hemi-cellulose waren in der ND-Behandlung signifikant erhöht. Einige Parameter zeigten nur einen Einfluss der Probennahmetage, mit den angewendeten Methoden gelang jedoch der eindeutige Nachweis der Fütterungseffekte auf mikrobielle Parameter im Rinderkot, wobei sich die Fütterung in nur einer Variable unterschied. Weitere Fütterungseinflüsse auf die Kotqualität wurden schließlich auch für Rinder unterschiedlicher Leistungsstufen erforscht. Hier waren die Unterschiede in der Fütterung wesentlich größer als in den vorhergehenden Experimenten. Der Kot von Färsen, Niederleistungs- und Hochleistungskühen sowie dessen Einfluss auf N2O-Emissionen, N-Mineralisierung und pflanzliche N-Aufnahme wurden untersucht. Die Färsenfütterung mit geringem N- und hohem ADF-Anteil führte zu pilzdominiertem Kot. Besonders im Vergleich zum Kot der Hochleistungskühe war der Gehalt an mikrobiellem Biomasse-C niedrig, in Verbindung mit einem breiten mikrobiellen C/N-Verhältnis und hohem Ergosterolgehalt. Eingemischt in Boden zeigte Färsenkot die niedrigste CO2-Produktion und höchste N-Immobilisierung sowie niedrigste N2O-Emissionen während einer 14-tägigen Inkubation bei 22 °C. In einem 62-Tage-Gefäßversuch mit Welschem Weidelgras waren der Trocken-masseertrag und die pflanzliche Stickstoffaufnahme in den Färsenbehandlungen am niedrigsten. Die Stickstoffaufnahme durch die Pflanzen korrelierte positiv mit der Stickstoffkonzentration im Kot und negativ mit dem Rohfasergehalt, aber auch negativ mit dem C/N-Verhältnis der mikrobiellen Biomasse und dem Verhältnis von pilzlichem zu bakteriellem C. Mikrobielle Parameter im Kot zeigten einen größeren Zusammen-hang mit der pflanzlichen Stickstoffaufnahme als die mikrobiellen Bodenparameter.