864 resultados para Wissenschaftliches Arbeiten


Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wissenschaftsmethodische Kompetenzen sind ein Kernelement naturwissenschaftlicher Bildung und in den Bildungsstandards als Kompetenzbereich Erkenntnisgewinnung verbindlich festgeschrieben. Fokus aktueller naturwissenschaftsdidaktischer Forschung ist es, für diese normativen Standards theorie- und evidenzbasierte Kompetenzmodelle zu erarbeiten. In der vorliegenden Dissertation wird zum Kompetenzbereich Erkenntnisgewinnung für den Teilbereich der wissenschaftlichen Erkenntnismethoden geprüft, ob sich die im Kompetenzmodell wissenschaftlichen Denkens von Mayer (2007) angenommenen Teilkompetenzen Fragestellung formulieren, Hypothesen generieren, Planung einer Untersuchung sowie Deutung der Ergebnisse empirisch bestätigen lassen. Zudem wird quer- und längsschnittlich untersucht, wie sich die Kompetenz innerhalb der Sekundarstufe I entwickelt, welche Rolle Personenmerkmale spielen und ob die Unterrichtsgestaltung im Projekt Biologie im Kontext, in dessen Rahmen die Untersuchung stattfand, einen kompetenzfördernden Einfluss auf die Lernenden hat. Als Instrument wurde ein Kompetenztest mit offenen Aufgaben im Multimatrix-Design zum Thema Experimentieren im Biologieunterricht entwickelt und in Gymnasien, Realschulen und Hauptschulen in Hessen und Bayern in den Jahrgangsstufen 5-10 eingesetzt. Die Schülerantworten wurden anhand fünf a priori entwickelter Niveaustufen bewertet und mit der Item-Response-Theorie ausgewertet. Auf Basis einer Validierungsstudie (N= 1562) wurden mittels 24 Items die Schülerkompetenzen in querschnittlichen Analysen (N= 1553) sowie in einem Längsschnitt über ein Schuljahr (N= 1129) untersucht. Die Modellprüfung weist dem vierdimensionalen Modell eine bessere Passung zu als dem eindimensionalen Modell. Schwache bis mittlere Interkorrelationen und eine nachgeschaltete Faktorenanalyse lassen ebenfalls darauf schließen, dass dem vierdimensionalen Modell mit den postulierten Teilkompetenzen Fragestellung, Hypothese, Planung und Deutung gegenüber dem eindimensionalen Modell der Vorzug zu geben ist. Die querschnittlichen Analysen zeigen, dass zwischen den Jahrgangsstufen 5 6, 7 8 und 9 10 signifikante Leistungsunterschiede in der Gesamtkompetenz und den Teilkompetenzen bestehen. Dabei nehmen die zwischen den Teilkompetenzen festgestellten Leistungsunterschiede mit der Jahrgangsstufe zu. Die längsschnittlichen Analysen belegen Leistungszuwächse der Lernenden über ein Schuljahr: Die Kompetenz steigt hier in der Gesamtstichprobe und innerhalb der einzelnen Jahrgangsstufen der Sekundarstufe I signifikant an. Vergleicht man die verschiedenen Jahrgangsstufen in ihrem Kompetenzzuwachs über ein Schuljahr, so zeigt sich, dass der Kompetenzzuwachs in den Jahrgängen 5 8 stärker ausgeprägt ist als in den Jahrgängen 9 10. Auf Ebene der Teilkompetenzen liegt für die Gesamtstichprobe ein Kompetenzzuwachs über ein Schuljahr in den Teilkompetenzen Fragestellung, Hypothese und Planung vor, während in der Teilkompetenz Deutung ein geringer Kompetenzrückgang zu verzeichnen ist. Der Kompetenzgrad hängt mit der besuchten Schulform zusammen. Dabei zeigen Gymnasiasten querschnittlich untersucht bessere Leistungen als Realschüler oder Hauptschüler, wobei die Unterschiede zur Hauptschule besonders deutlich ausfallen. Kompetenzzuwächse über ein Schuljahr zeigen sich ausschließlich in Gymnasium und Realschule. Das Alter hat weder quer- noch längsschnittlich untersucht eigene Effekte auf die Kompetenzentwicklung, ebenso wenig wie das Geschlecht der Probanden. Der Einfluss der Biologienote ist im querschnittlichen Vergleich gering, im längsschnittlichen Vergleich nicht nachweisbar. Lernende, die am Projekt Biologie im Kontext teilnahmen, in dem Unterrichtsbausteine zur Erkenntnisgewinnung eingesetzt wurden, und deren Lehrkräfte verstärkt kompetenzorientiert unterrichteten, zeigen in den Klassen 9 10 größere Kompetenzzuwächse über ein Jahr als Probanden aus entsprechenden Kontrollklassen. Die Untersuchung zeigt, dass wissenschaftsmethodische Kompetenzen in der Sekundarstufe I vermittelt und weiterentwickelt werden. Der Befund der diskontinuierlichen Kompetenzentwicklung und der mit den Schuljahren zunehmenden Leistungsunterschiede zwischen den Teilkompetenzen führt als didaktische Implikation zu dem Schluss, dass weitere Maßnahmen zur Förderung wissenschaftsmethodischer Kompetenzen notwendig sind, um einen kumulativen Kompetenzaufbau gewährleisten zu können.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sei $N/K$ eine galoissche Zahlkörpererweiterung mit Galoisgruppe $G$, so dass es in $N$ eine Stelle mit voller Zerlegungsgruppe gibt. Die vorliegende Arbeit beschäftigt sich mit Algorithmen, die für das gegebene Fallbeispiel $N/K$, die äquivariante Tamagawazahlvermutung von Burns und Flach für das Paar $(h^0(Spec(N), \mathbb{Z}[G]))$ (numerisch) verifizieren. Grob gesprochen stellt die äquivariante Tamagawazahlvermutung (im Folgenden ETNC) in diesem Spezialfall einen Zusammenhang her zwischen Werten von Artinschen $L$-Reihen zu den absolut irreduziblen Charakteren von $G$ und einer Eulercharakteristik, die man in diesem Fall mit Hilfe einer sogenannten Tatesequenz konstruieren kann. Unter den Voraussetzungen 1. es gibt eine Stelle $v$ von $N$ mit voller Zerlegungsgruppe, 2. jeder irreduzible Charakter $\chi$ von $G$ erfüllt eine der folgenden Bedingungen 2a) $\chi$ ist abelsch, 2b) $\chi(G) \subset \mathbb{Q}$ und $\chi$ ist eine ganzzahlige Linearkombination von induzierten trivialen Charakteren; wird ein Algorithmus entwickelt, der ETNC für jedes Fallbeispiel $N/\mathbb{Q}$ vollständig beweist. Voraussetzung 1. erlaubt es eine Idee von Chinburg ([Chi89]) umzusetzen zur algorithmischen Berechnung von Tatesequenzen. Dabei war es u.a. auch notwendig lokale Fundamentalklassen zu berechnen. Im höchsten zahm verzweigten Fall haben wir hierfür einen Algorithmus entwickelt, der ebenfalls auf den Ideen von Chinburg ([Chi85]) beruht, die auf Arbeiten von Serre [Ser] zurück gehen. Für nicht zahm verzweigte Erweiterungen benutzen wir den von Debeerst ([Deb11]) entwickelten Algorithmus, der ebenfalls auf Serre's Arbeiten beruht. Voraussetzung 2. wird benötigt, um Quotienten aus den $L$-Werten und Regulatoren exakt zu berechnen. Dies gelingt, da wir im Fall von abelschen Charakteren auf die Theorie der zyklotomischen Einheiten zurückgreifen können und im Fall (b) auf die analytische Klassenzahlformel von Zwischenkörpern. Ohne die Voraussetzung 2. liefern die Algorithmen für jedes Fallbeispiel $N/K$ immer noch eine numerische Verifikation bis auf Rechengenauigkeit. Den Algorithmus zur numerischen Verifikation haben wir für $A_4$-Erweiterungen über $\mathbb{Q}$ in das Computeralgebrasystem MAGMA implementiert und für 27 Erweiterungen die äquivariante Tamagawazahlvermutung numerisch verifiziert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Mittelpunkt dieser Diplomarbeit stehen Jugendliche, mit schlechten Ausbildungschancen, beim Übergang von der Schule in den Beruf. Hierbei liegt ein Schwerpunkt zunächst auf dem Übergangssystem, in das insbesondere benachteiligte Jugendliche nach den allgemeinbildendenden Schulen einmünden. Weil für diese Zielgruppe das Übergangssystem auch eine „Warteschleife“ bedeuten kann, werden im Rahmen dieser Arbeit neuere Fördermaßnahmen untersucht, die eine intensivere Betreuung dieser Zielgruppe anstreben. Dies ist zum einen das hessische Konzept der SchuB- Klassen, welches sich durch seine besondere Praxisnähe zu den Betrieben auszeichnet und zum anderen die bundesweit eingeführten Kompetenzagenturen, die eine individuelle und intensive Förderung der Jugendlichen ermöglicht. Durch die durchgeführten Interviewgespräche mit Lehrern und Case- Managern, die mit den betroffenen Jugendlichen arbeiten, wurde eine qualitative Untersuchung dieser Fördermaßnahmen vorgenommen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit wird aufzeigen, wie sich die Flucht auf das Leben eines verfolgten Kindes auswirken kann. Dazu soll das Leben vor, während und nach der Flucht anhand von fünf Autobiographien untersucht werden. Die Autobiographien beinhalten die Lebenserinnerungen von Juden, die das Dritte Reich als Kinder und Jugendliche erlebten. Die zu untersuchenden Texte stammen von den in Wien geborenen Autoren Ruth Klüger (‚weiter leben‘) und Egon Schwarz (‚keine Zeit für Eichendorff‘) und den in Berlin geborenen Autoren Ludwig Greve (‚Wo gehörte ich hin? Geschichte einer Jugend‘), George Wyland-Herzfelde (‚Glück gehabt‘) und Hellmut Stern (‚Saitensprünge‘). Alle Autoren mussten ihrer Heimat im Zeitraum von 1935 bis 1942 entfliehen um ihr Leben vor den angeordneten Brutalitäten des nationalsozialistischen Regimes zu retten. Mit vielen Jahren zeitlichem Abstand schrieben die Autoren ihre Lebenserinnerungen nieder. Sie blickten auf ihr Leben vor der Verfolgung zurück und berichten von ihrem ‚neuen‘ Leben danach. Die Wege, die die Autoren während der Flucht einschlugen, könnten unterschiedlicher nicht sein. Und doch eint sie eines: Das rastloses Leben während der Flucht und das Bedürfnis ihre erlebte Geschichte mit anderen Menschen zu teilen. Da sich die vorliegende Arbeit mit der Analyse von autobiographischen Dokumenten beschäftigt, ist es zunächst sinnvoll sich einen Überblick über das Material und den Forschungsbereich zu verschaffen, in dem diese anzusiedeln ist. Der Ausgangspunkt der folgenden Untersuchung lässt sich im Bereich der Erziehungswissenschaftlichen Biographieforschung finden. Daher soll zunächst erläutert werden, was generell unter den Begriffen ‚Biographie‘ und ‚Autobiographie‘ zu verstehen ist. Dies ist für das Verständnis um die Beschaffenheit des analysierten Materials von entscheidender Bedeutung, denn jeder Mensch ist im Grunde ein Experte der Autobiographieforschung. Was es mit dieser gewagten Vermutung auf sich hat, wird sich im Verlauf dieses Kapitels klären. In einem zweiten Schritt soll dann das Erkenntnisinteresse Erziehungswissenschaftlichen Biographieforschung näher erläutert werden. Da jede autobiographische Äußerung aufgrund von Lebenserfahrungen getätigt wird, soll der Frage nachgegangen werden, was Lebenserfahrungen eigentlich genau sind und warum Lebenserfahrungen von besonderem Interesse für die Biographieforschung sind. Dem allgemeinen Erkenntnisinteresse schließt sich nun das spezielle, auf den konkreten Fall dieser Arbeit bezogene Erkenntnisinteresse an, nämlich die ausgewählten Autobiographien auf ihren biographischen Wendepunkt, eine besondere Form der Lebenserfahrung also, hin zu untersuchen. In diesem Fall ist es selbstverständlich sich erst einmal darüber klar zu werden um was genau es sich bei einem biographischen Wendepunkt eigentlich handelt. Wenn man sich intensiver mit einem bestimmten wissenschaftlichen Forschungsfeld beschäftigt, so ist es unerlässlich sich auch mit dem Zustandekommen und der Entwicklung dieses Forschungsfeldes zu beschäftigen. Demzufolge sollen im vierten Teil der Arbeit einige Informationen zur Geschichte der Erziehungswissenschaftlichen Biographieforschung zusammengetragen werden. Die Beschäftigung mit durchgeführten Studien kann Aufschluss darüber geben, welche Felder im Bereich der Biographieforschung bereits untersucht wurden und welche Erkenntnisse von großer Bedeutung für die Erziehungswissenschaft waren und noch bis heute sind. Thematisch schließt sich dem zeitlichen Abriss der Geschichte ein kurzer Überblick über die aktuelle Forschungssituation an, in dem einige bedeutende Arbeiten kurz inhaltlich vorgestellt werden. Die Betrachtung aktueller Forschungsstände gibt Aufschluss über die gegenwärtigen Forschungsschwerpunkte der Biographieforschung, aber auch eine Übersicht über die gegenwärtig populärsten Techniken der Beschäftigung mit Biographien. Obwohl es sich bei der Erziehungswissenschaftlichen Biographieforschung um ein relativ junges Forschungsgebiet handelt, haben sich im Laufe der Jahre dennoch unterschiedliche Formen der Datenerhebung und Datenanalyse entwickelt. Die verschiedenen Möglichkeiten des Forschers sich Daten zu nähren und diese zu interpretieren sollen in zwei separaten Teilen dieser Arbeit erläutert werden. Diese beiden Teile sollen einen Überblick darüber geben, wie vielseitig der Umgang mit biographischen Materialien aussehen kann. Der erste der beiden Teile beschäftigt sich zunächst mit der Frage, wie der Forscher eigentlich an biographisches Material gelangt, welches er später auswerten wird. Im Forschungsbereich der Erziehungswissenschaftlichen Biographieforschung lassen sich drei große Bereiche der Datenerhebung unterscheiden, die sich nach dem Zustandekommen des Ausgangsmaterials richten. Dies sind die Dokumentanalyse, die Durchführung von Interviews und die teilnehmende Beobachtung. Alle drei Formen gilt es an dieser Stelle kurz zu erläutern. Bevor die Autobiographien nun auf ihren biographischen Wendepunkt hin untersucht werden können, ist es zunächst nötig zu beschreiben, in welcher Form die Autobiographien denn analysiert und interpretiert werden sollen. Die Interpretation der Autobiographien orientiert sich am Vorgehen der objektiven Hermeneutik, die in seinen Grundprinzipien vorgestellt und in Anbetracht des vorhandenen Ausgangsmaterials leicht abgewandelt gebraucht werden soll. Der nächste Schritt ist nun die Beschäftigung mit den Autobiographien selbst. Zunächst sollen diese in Kürze inhaltlich zusammengefasst werden um einen Überblick über den beschriebenen Handlungsverlauf zu gewährleisten. Desweiteren lassen sich im Anhang dieser Arbeit tabellarische Lebensläufe mit den wichtigsten Informationen zu jedem der Autoren finden. Nun sollen die Lebensbedingungen der Autoren vor der Flucht, während der Flucht und nach der Flucht untersucht werden. Jenen Äußerungen des Autors, die sich konkret auf die Fluchtvorbereitungen beziehen, wird besondere Aufmerksamkeit zuteil. Ebenso verhält es sich auch mit Ausführungen des Autors, die die Verarbeitung des Fluchterlebnisses thematisieren. Die Analyse der Autobiographien soll so nah wie möglich am Text erfolgen. Um die zitierten autobiographischen Äußerungen dennoch auch vor dem historischen Hintergrund wahrnehmen zu können, werden zusätzliche, die historischen Umstände erläuternde, Materialien mit in die Interpretation einbezogen. Nachdem zu jeder Autobiographie die wichtigsten Erfahrungen vor, während und nach der Flucht beschrieben und interpretiert wurden, wird ein Vergleich der Autobiographien anschließen. Der Vergleich soll anhand von zuvor festgelegten thematischen Feldern erfolgen. Die Flucht war für jeden der Autoren mit individuellen Veränderungen in Bezug auf ihr späteres Leben verbunden. Obwohl die Autobiographien auf den ersten Blick äußerst unterschiedlich erscheinen, lassen sich einige Gemeinsamkeiten, aber auch Unterschiede bezüglich der Erlebnisse vor, während und nach der Flucht finden, die es im Laufe des Vergleiches herauszuarbeiten gilt. Abschließend soll die Frage beantwortet werden, ob sich die Fluchterfahrungen der Autoren zu einer Gesamterfahrung zusammenfassen lassen, die alle teilen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

„Cyber-Mobbing-Tod eines Teenagers“ titelt Spiegel-Online 2007: auch auf Stern.de (2009) findet sich die Meldung: „15-jährige tötet sich nach Cyber-Mobbing“, Zeit Online (2009) berichtet ebenfalls über diesen Vorfall. In Deutschland sind bisher keine derartigen Extremfälle öffentlich bekannt, dennoch ist das Phänomen, vermutlich veranlasst durch diese oder ähnliche Vorfälle, in das Interesse der medialen Öffentlichkeit gerückt. Diese Arbeit geht daher der Frage auf den Grund, ob Cyber-Mobbing auch ein Problem an deutschen Schulen ist und in welchem Ausmaß es dort auftritt. Im Fokus stehen jedoch nicht die genannten Extremfälle, da sie glücklicherweise eher eine Seltenheit darstellen, sondern alltägliche Formen des Cyber-Mobbings, weil genau hier der Grundstein für solch furchtbare Ereignisse gelegt wird. Cyber-Mobbing ist ein recht neues und junges Phänomen, das noch nicht allzu lange im Fokus der wissenschaftlichen Welt steht. Daher gelten viele Facetten als noch nicht ausreichend erschlossen, um eindeutige Aussagen hinsichtlich bestimmter Kausalitäten zu machen. Eine Vielzahl der wissenschaftlichen Arbeiten orientiert sich daher am Konzept des Mobbings, um Unterschiede oder Gemeinsamkeiten zwischen diesen Spielarten der Gewalt herauszuarbeiten. Daher folgt die vorliegende Arbeit dieser Tradition in metaanalytischer Form, untersucht folglich bestehende Literatur und setzt diese in einen kausalen Zusammenhang. Leitend für die Literaturanalyse ist die Frage ob sich die Dimensionen schulischer Gewalt, in diesem Falle Mobbing, durch die neuen Kommunikationsmedien verändert haben. Die Beantwortung dieser Frage zielt primär darauf ab herauszufinden, ob Cyber-Mobbing ähnlichen Strukturen folgt, wie Mobbing oder aber spezifische Muster existieren und ob die Schüler, die in Cyber-Mobbing involviert sind, auch in Mobbing verwickelt sind oder von einer Verschiebung der Interaktionsmuster gesprochen werden kann. Handelt es sich bei Cyber-Mobbing also um eine neue Form des Mobbings, oder um ein eigenständiges und unabhängiges Phänomen?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Worin genau liegen Möglichkeiten und Faszination des Films im Unterricht? Wie vermitteln Filme Wissenswertes, wann sollte man einen Film im Unterricht zeigen und wann ist eine andere Methode zu bevorzugen? Die meisten Schüler erinnern sich nur daran, dass Filme vor Weihnachten oder den Ferien gezeigt wurden um die letzte(n) Stunde(n) zu überbrücken. Doch im Medium Film steckt viel größeres Potenzial. Schüler können nicht nur Rezipienten von Unterrichtsfilmen sein, mit einfachen technischen Mitteln können sie auch zum Produzenten kleiner Unterrichtsfilme und Dokumentationen werden. Um mit Filmen zu arbeiten oder sogar Filme mit Schülern zu erstellen, bedarf es bei der Lehrperson ebenso wie den Schülern besonderer Fähigkeiten. Trotz all dieser Anforderungen übt der Film, ob nun Spiel- oder Lehrfilm, immer einen ganz besonderen Reiz auf Schüler aus. Doch Film einlegen, anschalten und die Bildungsverantwortung dem Film überlassen, funktioniert in keinem Unterricht. Vielmehr ist es so, dass durch den Film verschiedenste Anforderungen im Vorfeld an die Lehrperson und später an den Schüler gestellt werden. Was also muss der Lehrer und später der Schüler beherrschen um mit Filmen im Unterricht produktiv arbeiten zu können? An dieser Stelle setzen insbesondere die Bildungsstandards an, deren Fokus auf der Vermittlung von Kompetenzen liegt, da gerade auch das Erlernen von Medienkompetenzen für einen späteren erfolgreichen Einstieg in das Berufsleben immer wichtiger wird.Die vorgelegte wissenschaftliche Hausarbeit gliedert sich inhaltlich in zwei Teile. Zielsetzung des Hauptteils der wissenschaftlichen Hausarbeit ist es, eine thematisch umfassende Zusammenstellung zum Thema Filme im Biologieunterricht zu erstellen. Ausgehend davon, dass das Thema „Filme im Biologieunterricht“ im Studium gar nicht oder nur am Rand behandelt wird und dass die einschlägig bekannten Fachdidaktiken dieser Thematik selten mehr als ein bis zwei Seiten im Lehrbuch widmen (vgl. Berck 2005 S.148), soll eine Übersicht des momentanen Forschungsstands gegeben werden. Dazu gehört eine Kategorisierung (biologischer) Lehr- und Spielfilme, eine Auseinandersetzung mit den verschiedenen Abspielmedien, ein Überblick über Zeitpunkt und Häufigkeit des Filmeinsatzes sowie die umfassende Darstellung der benötigten Arbeitsweisen und Einsatzmöglichkeiten. Im zweiten Teil der wissenschaftlichen Hausarbeit soll eine beispielhafte Unterrichtseinheit (Projekteinheit) geplant und vorgestellt werden, die Möglichkeiten aufzeigen soll, wie Schüler an das Thema Film herangeführt werden können und wie sie mit dem für sie alltäglichen Gebrauchsgegenstand Handy, Filme und Dokumentationen für den Unterricht gestalten können.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Jedes Jahr entstehen an der Universität Kassel hunderte Wissenschaftliche Hausarbeiten, die oft ungenutzt im Archiv des Prüfungsamtes verstauben. Oftmals liegt nach Abschluss der Prüfungsphase nicht einmal den Betreuerinnen und Betreuern ein Exemplar vor. Nicht wenige dieser Arbeiten leisten aber einen wichtigen Erkenntnisbeitrag zu Themen von Unterricht, Schulentwicklung und Lehrerbildung und könnten somit für Studium, Forschung, Lehre, Studienseminar sowie Schulpraxis genutzt werden. Hierfür müssten die Arbeiten allerdings recherchierbar und öffentlich zugänglich sein. An dieser Stelle setzte ein Projekt des Zentrums für Lehrerbildung der Universität Kassel an. Ziel war es, Wissenschaftliche Hausarbeiten von Lehramtsstudierenden der Universität Kassel zu Themen von Unterricht, Schulentwicklung und Lehrerbildung öffentlich zugänglich zu machen. Der vorliegende Abschlussbericht gibt zunächst einen Überblick über die Verfügbarkeit studentischer Abschlussarbeiten in Deutschland und analysiert die technischen Voraussetzungen für Open Access Publikationen auf Universitätsebene. Darauf aufbauend wird die konkrete Umsetzung des Veröffentlichungsprozesses im Rahmen des Projekts beschrieben. Im Anhang findet sich neben Arbeitsmaterial, das für eine Umsetzung in anderen Kontexten angepasst werden kann, eine Liste der bisher veröffentlichten Arbeiten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dictyostelium discoideum ernährt sich in seinem natürlichen Habitat, dem Waldboden, vorwiegend von Bakterien. Diese werden aus der Umgebung über Phagozytose aufgenommen und unter anderem mit Hilfe von Lysozymen verdaut. Eines dieser Lysozyme, AlyA, wurde bereits in vorhergehenden Arbeiten detailliert untersucht. Sein Fehlen resultierte in einer zeitabhängigen Vergrößerung der Fresshöfe in Bakterienrasen. Zusätzlich waren in diesen Knockout-Mutanten auch die Phagozytoserate und die Expression eines zweiten lysosomalen Enzyms (Gp70) erhöht. Die Überexpression dieser Esterase in wildtypischen Zellen bewirkte ebenfalls, dass Partikel aus der Umgebung effektiver aufgenommen werden konnten. Da die AlyA-Mutanten und die Gp70-Überexprimierer ähnliche Phänotypen zeigten, die Proteine aber in unterschiedlichen lysosomalen Vesikeln lokalisieren, müssen weitere Proteine an der Ausbildung der Phänotypen beteiligt sein. Aus diesem Grund wurden die Genexpressionen beider Mutanten verglichen. Über Microarray-Analysen sollten auf diese Weise weitere Proteine identifiziert werden, die eine Weiterleitung des Signals von AlyA über Gp70 bis hin zur Plasmamembran vermitteln. Einigen der potentiellen Kandidaten konnte anhand der Untersuchung von Mutanten bereits eine Weiterleitung des Signals zwischen Gp70 und der erhöhten Phagozytose an der Plasmamembran zugeordnet werden. Um jedoch mehr über die Signalkette oberhalb von Gp70 zu erfahren, wurden im Rahmen dieser Arbeit drei Proteine untersucht. Die Expression von DD3-3, SSD673 und SSD485 war in den AlyA-Mutanten erhöht, in den Gp70-Überexprimierern jedoch unverändert. Durch Herstellung und Untersuchung von überexprimierenden Mutanten wurde die Wirkung jedes Proteins auf die Gp70-Expression, das Phagozytoseverhalten und den Durchmesser der Fresshöfe analysiert. Die Markierung der Kandidaten mit dem Myc-Epitop sollte deren subzelluläre Lokalisation klären. Für DD3-3-überexpimierende Klone konnte in dieser Arbeit allerdings keine Veränderung gegenüber wildtypischen Zellen festgestellt werden. Sie zeigt allerdings, dass Medium von SSD673-überexprimierenden Zellen die Phagozytoserate wildtypischer Zellen leicht erhöht. Eine starke SSD673myc-Expression führte auch zu einer verstärkten Aufnahme von Hefezellen. Die Gp70-Expression in Gesamtzelllysaten der SSD673-Mutanten blieb jedoch unverändert. Wurde in Wildtypzellen hingegen SSD485 im Übermaß exprimiert, so führte dies zu einer verstärkten Partikelaufnahme. Diese entwickelte sich ähnlich den AlyA-Knockout-Mutanten in Abhängigkeit der Zeit und ging mit einer erhöhten Gp70-Expression einher. In dieser Arbeit konnte folglich zwei von drei Proteinen eine positive Wirkung auf die Phagozytose nachgewiesen werden. SSD485-Mutanten erfüllten darüber hinaus die Bedingungen für eine Weiterleitung des AlyA-Signals von SSD485 auf Gp70 bis hin zu einer erhöhten Phagozytose.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Selbstbestimmung und -gestaltung des eigenen Alltages gewinnen immer mehr an Bedeutung, insbesondere für ältere Mitmenschen in ländlichen Regionen, die auf ärztliche Versorgung angewiesen sind. Die Schaffung sogenannter smart personal environments mittels einer Vielzahl von, nahezu unsichtbar installierten Sensoren im gewohnten Lebensraum liefert dem Anwender (lebens-) notwendige Informationen über seine Umgebung oder seinen eigenen Körper. Dabei gilt es nicht den Anwender mit technischen Daten, wie Spektren, zu überfordern. Vielmehr sollte die Handhabung so einfach wie möglich gestaltet werden und die ausgewertete Information als Indikationsmittel zum weiteren Handeln dienen. Die Anforderungen an moderne Technologien sind folglich eine starke Miniaturisierung, zur optimalen Integration und Mobilität, bei gleichzeitig hoher Auflösung und Stabilität. Die Zielsetzung der vorliegenden Arbeit ist die Miniaturisierung eines spektroskopischen Systems bei gleichzeitig hohem Auflösungsvermögen für die Detektion im sichtbaren Spektralbereich. Eine Möglichkeit für die Herstellung eines konkurrenzfähigen „Mini-„ oder „Mikrospektrometers“ basiert auf Fabry-Pérot (FP) Filtersystemen, da hierbei die Miniaturisierung nicht wie üblich auf Gittersysteme limitiert ist. Der maßgebliche Faktor für das spektrale Auflösungsvermögen des Spektrometers ist die vertikale Präzision und Homogenität der einzelnen 3D Filterkavitäten, die die unterschiedlichen Transmissionswellenlängen der einzelnen Filter festlegen. Die wirtschaftliche Konkurrenzfähigkeit des am INA entwickelten Nanospektremeters wurde durch die maximale Reduzierung der Prozessschritte, nämlich auf einen einzigen Schritt, erreicht. Erstmalig wird eine neuartige Nanoimprint Technologie, die sog. Substrate Conformal Imprint Lithography, für die Herstellung von wellenlängen-selektierenden Filterkavitäten von stark miniaturisierten Spektrometern eingesetzt. Im Zuge dieser Arbeit wird das Design des FP Filtersystems entwickelt und technologisch mittels Dünnschichtdeposition und der Nanoimprinttechnologie realisiert. Ein besonderer Schwerpunkt liegt hierbei in der Untersuchung des Prägematerials, dessen optische Eigenschaften maßgeblich über die Performance des Filtersystems entscheiden. Mit Hilfe eines speziell gefertigten Mikroskopspektrometers werden die gefertigten Filterfelder hinsichtlich ihrer Transmissionseigenschaften und ihres Auflösungsvermögens hin untersucht. Im Hinblick auf publizierte Arbeiten konkurrierender Arbeitsgruppen konnte eine deutliche Verbesserung des miniaturisierten Spektrometers erreicht werden. Die Minimierung der Prozessschritte auf einen einzigen Prägeschritt sorgt gleichzeitig für eine schnelle und zuverlässige Replikation der wellenlängenselektierenden Filterkavitäten. Im Rahmen dieser Arbeit wurde aufgezeigt, dass das angestrebte Nanospektrometer, trotz der sehr geringen Größe, eine hohe Auflösung liefern kann und gerade wegen der starken Miniaturisierung mit kommerziellen Mini- und Mikro-spektrometern konkurrenzfähig ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Heutzutage haben selbst durchschnittliche Computersysteme mehrere unabhängige Recheneinheiten (Kerne). Wird ein rechenintensives Problem in mehrere Teilberechnungen unterteilt, können diese parallel und damit schneller verarbeitet werden. Obwohl die Entwicklung paralleler Programme mittels Abstraktionen vereinfacht werden kann, ist es selbst für Experten anspruchsvoll, effiziente und korrekte Programme zu schreiben. Während traditionelle Programmiersprachen auf einem eher geringen Abstraktionsniveau arbeiten, bieten funktionale Programmiersprachen wie z.B. Haskell, Möglichkeiten zur fortgeschrittenen Abstrahierung. Das Ziel der vorliegenden Dissertation war es, zu untersuchen, wie gut verschiedene Arten der Abstraktion das Programmieren mit Concurrent Haskell unterstützen. Concurrent Haskell ist eine Bibliothek für Haskell, die parallele Programmierung auf Systemen mit gemeinsamem Speicher ermöglicht. Im Mittelpunkt der Dissertation standen zwei Forschungsfragen. Erstens wurden verschiedene Synchronisierungsansätze verglichen, die sich in ihrem Abstraktionsgrad unterscheiden. Zweitens wurde untersucht, wie Abstraktionen verwendet werden können, um die Komplexität der Parallelisierung vor dem Entwickler zu verbergen. Bei dem Vergleich der Synchronisierungsansätze wurden Locks, Compare-and-Swap Operationen und Software Transactional Memory berücksichtigt. Die Ansätze wurden zunächst bezüglich ihrer Eignung für die Synchronisation einer Prioritätenwarteschlange auf Basis von Skiplists untersucht. Anschließend wurden verschiedene Varianten des Taskpool Entwurfsmusters implementiert (globale Taskpools sowie private Taskpools mit und ohne Taskdiebstahl). Zusätzlich wurde für das Entwurfsmuster eine Abstraktionsschicht entwickelt, welche eine einfache Formulierung von Taskpool-basierten Algorithmen erlaubt. Für die Untersuchung der Frage, ob Haskells Abstraktionsmethoden die Komplexität paralleler Programmierung verbergen können, wurden zunächst stencil-basierte Algorithmen betrachtet. Es wurde eine Bibliothek entwickelt, die eine deklarative Beschreibung von stencil-basierten Algorithmen sowie ihre parallele Ausführung erlaubt. Mit Hilfe dieses deklarativen Interfaces wurde die parallele Implementation vollständig vor dem Anwender verborgen. Anschließend wurde eine eingebettete domänenspezifische Sprache (EDSL) für Knoten-basierte Graphalgorithmen sowie eine entsprechende Ausführungsplattform entwickelt. Die Plattform erlaubt die automatische parallele Verarbeitung dieser Algorithmen. Verschiedene Beispiele zeigten, dass die EDSL eine knappe und dennoch verständliche Formulierung von Graphalgorithmen ermöglicht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bei der Arbeit an sicherheitsgerichteten Kommunikationsprotokollen stellten sich immer wieder die Fragen nach der Eignung von einzelnen Mechanismen der Protokolle, um den Gefährdungen entsprechende Maßnahmen zur Beherrschung entgegenzusetzen. Dabei waren durchweg die Anforderungen der IEC 61508 mit dem Safety Integrity Level 3 zu erfüllen. Die IEC 61508-2 ist mit 5 Zeilen Umfang für die wesentlichen Anforderungen an die sicherheitsgerichtete Kommunikation sehr kurz gehalten und die IEC 61784-3 war zu Beginn der Arbeiten noch nicht veröffentlicht. Aber die IEC 61784-3 stellt auch heute nur einen unvollständigen Kriterienkatalog zusammen. Insbesondere die in IEC 61508-2 geforderte quantitative Analyse wird in der IEC 61784-3 nicht ausreichend thematisiert. In bisherigen sicherheitsgerichteten Protokollen und den relevanten Normen des Anwendungsbereichs fanden die Gefährdungspotentiale, wie Masquerading und Adressierung in offenen Übertragungssystemen, absichtliche Unterminierung der Sicherheitsmechanismen und fehlerhafte Konfiguration keine ausreichende Beachtung und die Gefährdungen durch absehbaren Missbrauch, absehbare Fehlbedienung und unberechtigter Zugriff auf sichere Kommunikationseinrichtungen wurde nur in Randgebieten diskutiert. Hier zeigt die vorliegende Arbeit die Bedeutung dieser für den Einsatz von sicherheitsgerichteten Kommunikationsprotokollen im industriellen Umfeld auf und folgert daraus die entsprechenden Maßnahmen, die in der Verantwortung des Anwenders liegen, bzw. zum Teil auch durch Protokollmechanismen beherrscht werden können. Die Arbeit stellt einen umfassenden Gefährdungskatalog auf und bewertet nach diesem Katalog die am weitest verbreiteten sicherheitsgerichteten Kommunikationsprotokolle nach einem einheitlichen Maßstab. Weiter zeigt die vorgelegte Arbeit, dass auch ein existierendes Zertifikat gemäß IEC 61508 SIL3 nicht in jedem Fall ausreichend ist, um die Eignung eines Protokolls für den Einsatz gemäß dem aktuellen Stand der Normen zu bestätigen. Hervor zu heben ist insbesondere die quantitative Bewertung jeder einzelnen Maßnahme der Protokolle. Bislang wurde diese nur für die Beherrschung von verfälschten Nachrichten durchgeführt. Die Arbeit führt diese quantitative Bewertung der eingesetzten Maßnahmen systematisch durch und zeigt dabei, dass diese Bewertung dringend erforderlich ist, da die betrachteten öffentlichen Protokolle nicht die für SIL3 notwendige Güte für alle ihre Maßnahmen aufweisen, bzw. aufwiesen. Einer der Schwerpunkte dieser Arbeit ist die Definition von Verarbeitungsmodellen für die Berechnung der maximalen Reaktionszeit und der Worst-Case Reaktionszeit. Dazu wurde ein Modell aus 5 Komponenten erstellt, dass geeignet ist, die Reaktionszeit über ein Kommunikationssystem für die im industriellen Umfeld gebräuchlichen Anwendungen zu untersuchen. Diese 5 Komponenten, das Eingangsmodul, die Sicherheitssteuerung, die Kommunikation zwischen beiden, sowie das Ausgangsmodul und die Kommunikation zwischen diesem und der Sicherheitssteuerung. Anhand dieses Modells wurde die maximale Reaktionszeit definiert. Dies ist die Zeit, die von der Änderung eines physikalischen Eingangssignals der Eingangskomponente, bis zur zugehörigen Reaktion des physikalischen Ausgangssignals der Ausgangskomponente, über die Sicherheitssteuerung hinweg, benötigt wird. Die maximale Reaktionszeit betrachtet dabei den Fall, dass im gesamten System aus diesen 5 Komponenten kein Fehler eine Wirkung entfaltet. Die Worst-Case Reaktionszeiten der Protokolle sind auf Grund der verschiedenen Konzepte sehr differenziert zu betrachten. Erschwerend kommt hier noch hinzu, dass die im konkreten System erreichte minimale Worst-Case Reaktionszeit stark von der Implementierung des jeweiligen Herstellers abhängt. Ebenso problematisch ist die unterschiedliche Modellbildung der jeweiligen Protokoll-Organisationen. Es werden Fehlerausschlüsse gemacht, wie die Annahme, dass nur ein Fehler auftritt und dieser Fehler sich nicht auf die Verbindung zwischen Eingangsmodul und Sicherheitssteuerung und auf die Verbindung zwischen Sicherheitssteuerung und Ausgangsmodul gleichzeitig auswirken kann. Da für den sicherheitsgerichteten Einsatz die maximale Reaktionszeit mit Fehlern die relevante Betrachtungseinheit darstellt, wurden anhand des Modells die Worst-Case 1 und 2 Reaktionszeiten definiert. Die erste definiert die Zeit die eine Reaktion maximal benötigt, wenn im Kommunikationssystem eine Fehlerwirkung vorliegt und bei der zweiten wird angenommen, dass mehrere der 5 Komponenten von Fehlerwirkungen betroffen sein können. Um einen vertieften Einblick in die Thematik zu erhalten, wurde im Rahmen dieser Arbeit ein eigenes sicherheitsgerichtetes Kommunikationsprotokoll spezifiziert, entworfen und realisiert. Hierbei wurde besonderer Augenmerk auf die Wirksamkeit des Verfälschungsschutzes mittels CRCs für kurze Nachrichten gelegt und ebenso die Wirksamkeit gekoppelter CRCs betrachtet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lateinische Schriftsteller im Original zu lesen, fällt vielen Schülerinnen und Schülern in der Lektürephase des Lateinunterrichts schwer. In der vorliegenden Dissertation wird untersucht, inwiefern gezielter Einsatz von Lernstrategien das Textverständnis verbessern kann. Strategisches Arbeiten mit Texten kann bereits zu einem sehr frühen Zeitpunkt in schriftbasierten Kulturen nachgewiesen werden. In dieser Arbeit werden Quellentexte aus der griechisch-römischen Antike und dem Mittelalter hinsichtlich texterschließender Strategien untersucht, systematisiert, kommentiert und im modernen Lateinunterricht eingesetzt. Dabei arbeiten die Schülerinnen und Schüler selbstgesteuert und forschend-entdeckend mit Reproduktionen antiker Papyri und Pergamente. Im Laufe des Unterrichtsprojektes, das ich CLAVIS, lat. für „Schlüssel“, nenne, lernen die Schüler im Zusammenhang mit Fachinhalten des Lateinunterrichts sechs antike Strategien der Texterschließung kennen. Diese Strategien werden heute noch genauso verwendet wie vor 2000 Jahren. Unter Berücksichtigung der Erkenntnisse der modernen Lernstrategieforschung wurden die Strategien ausgewählt, die als besonders effektive Maßnahmen zur Förderung von Textverständnis beurteilt werden, nämlich CONIUGATIO: Vorwissen aktivieren, LEGERE: mehrfaches und möglichst lautes Lesen, ACCIPERE: Hilfen annehmen, VERTERE: Übersetzen mit System, INTERROGARE: Fragen zulassen, SUMMA: Zusammenfassung erstellen. Ziel von CLAVIS ist es, Schülern ein Werkzeug zur systematischen Texterschließung an die Hand zu geben, das leicht zu merken ist und flexibel auf Texte jeder Art und jeder Sprache angewendet werden kann. Um die Effektivität des Unterrichtsprojektes CLAVIS zu überprüfen, wurde mit zwei parallel geführten 10. Klassen am Johann-Schöner-Gymnasium in Karlstadt im Schuljahr 2009/10 eine Vortest-Nachtest-Studie durchgeführt. Eine der Klassen wurde als Experimentalgruppe mit Intervention in Form von CLAVIS unterrichtet, die andere Klasse, die die Kontrollgruppe bildete, erhielt kein strategisches Training. Ein Fragebogen lieferte Informationen zur Vorgehensweise der Schüler bei der Textbearbeitung in Vortest und Nachtest (jeweils eine Übersetzung eines lateinischen Textes in identischem Schwierigkeitsgrad). Die Auswertung der Daten zeigte deutlich, dass Textverständnis und Übersetzungsfähigkeit sich bei denjenigen Schülern verbesserten, die die CLAVIS-Strategien im Nachtest angewendet hatten. Im Zusammenhang mit der Neugestaltung der Lehrpläne auf dem Hintergrund der Kompetenzorientierung ergeben sich für das Fach Latein neue Chancen, nicht nur inhaltlich wertvolle Zeugnisse der Antike zur allgemeinen, zweckfreien Persönlichkeitsbildung von Schülerinnen und Schülern einzusetzen, sondern gezielt Strategien zu vermitteln, die im Hinblick auf die in einer Informationsgesellschaft unverzichtbare Sprach- und Textkompetenz einen konkreten Nutzen haben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die tropischen Anden sind eines der artenreichsten Gebiete der Erde. Fast die Hälfte der 45.000 in diesem Gebiet vorkommenden Gefäßpflanzenarten sind in den Anden endemisch (Myers et al. 2000). Die Gattung Fosterella (Bromeliaceae) ist eine den Anden zugeordnete Pflanzengruppe, denn die meisten ihrer 31 Arten kommen in den Anden vor. Achtzehn Arten sind kleinräumige Endemiten. Fosterella hat damit Modellcharakter für diese Region. In der vorliegenden Arbeit wurde die Evolution der Gattung in Raum und Zeit mithilfe der vergleichenden Sequenzierung von sechs plastidären Loci (atpB-rbcL, matK, psbB-psbH, rpl32-trnL, rps16-trnK, rps16-Intron) und einem nukleären Marker (PHYC) untersucht. Es wurden über 90 Akzessionen von 24 Fosterella-Arten untersucht. Mit 5,6 % informativer Merkmale innerhalb der Gattung war rpl32-trnL der informativste Chloroplastenmarker. Es wurden mit den kombinierten Sequenzdaten eine Maximum Parsimony-, eine Maximum Likelihood- und eine Bayes´sche Analyse berechnet. Weiterhin wurden biogeographische und ultrametrische Untersuchungen durchgeführt. Die 6-Locus-Phylogenie zeigt eine Aufteilung der monophyletischen Gattung Fosterella in sechs Gruppen, von denen vier – die penduliflora-, weddelliana-, weberbaueri- und micrantha-Gruppe - klar monophyletisch und gut gestützt sind. Die albicans- und die rusbyi-Gruppe bilden hingegen einen Komplex. Ultrametrische Analysen legen ein Alter der Gattung von ca. 9,6 Mio. Jahren nahe. Der geographische Ursprung von Fosterella befindet sich nach den vorliegenden biogeographischen Analysen in den Anden und nach der Biom-Analyse zu gleicher Wahrscheinlichkeit entweder in andinen Trockenwäldern (seasonally dry tropical forests, SDTFs) oder in azonalen Standorten des amazonischen Tieflands östlich der Anden. Es gab mehrere Ausbreitungsereignisse, von denen die beiden Fernausbreitungsereignisse nach Mittelamerika (F. micrantha) und in das zentrale Amazonasgebiet (F. batistana) die auffälligsten sind. Die feuchten Bergregenwälder (Yungas) der Anden wurden offenbar mehrfach unabhängig von Fosterella-Arten besiedelt. Insgesamt wurden elf nukleäre Marker (XDH, GS, RPB2, MS, ADH, MS, GLO/PI, CHS, FLO/LFY, NIAi3 und PHYC) auf ihre Anwendbarkeit für molekularsystematische Studien in Fosterella getestet. Davon konnten acht Marker erfolgreich mithilfe einer PCR amplifiziert werden. Die Fragmentgrößen lagen zwischen 350 bp und 1.500 bp. Nur für drei Loci (FLO/LFY, NIAi3 und PHYC) konnten lesbare DNA-Sequenzen in Fosterella erzeugt werden. FLO/LFY zeigte nur 1,5 % Variabilität innerhalb der Gattung. Der NIA-Locus erzeugte bei der Amplifikation mehrere Fragmente, die separat voneinander sequenziert wurden. Der Locus PHYC konnte hingegen aufgrund der guten Amplifizier- und Sequenzierbarkeit für das gesamte Probenset sequenziert werden. Dieser Marker zeigte eine Variabilität innerhalb der Gattung von 10,2 %, davon waren 6,8 % informativ. In der Phylogenie basierend auf PHYC ist Fosterella klar monophyletisch, innerhalb der Gattung zeigt sich jedoch an der Basis eine unaufgelöste Polytomie. Es lassen sich neun mehr oder weniger gut gestützte Artengruppen definieren – rusbyi-, villosula-, albicans-, weddelliana-, penduliflora-, weberbaueri-, micrantha-, robertreadii- und spectabilis-Gruppe - die sich in ihrer Zusammensetzung mit Ausnahme der weddelliana-Gruppe von den nach Chloroplastendaten definierten Gruppen unterscheiden. Viele Arten sind para- oder polyphyletisch, so z. B. F. albicans, F. penduliflora und F. rusbyi. Bei den beiden erstgenannten Arten weisen die unterschiedlichen Stellungen in Chloroplasten- und Kernphylogenie auf Hybridisierungsereignisse hin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die bereits seit einigen Jahren stark in der wissenschaftlichen Literatur diskutierte RFID-Technologie ermöglicht es, Informationen (echt-)zeitnah, detailliert und mit einer höheren Objektivität bereitzustellen. Der Fokus vieler Arbeiten lag dabei vor allem auf RFID-spezifischen Einsatzmöglichkeiten in den Bereichen des Supply Chain- und des Customer Relationship Managements. Aber auch für ein modernes Controlling bzw. für die Managementunterstützung sind Innovationen in der Informationstechnik – hier die Besonderheiten und Eigenschaften von RFID-Daten – von sehr hoher Bedeutung. Dieses Forschungsfeld hat bisher jedoch kaum Beachtung gefunden. Mit der vorliegenden Dissertationsschrift wird versucht, diese Forschungslücke sowohl konzeptionell als auch empirisch zu schließen. Sie gliedert sich zu diesem Zweck in vier Kapitel. Nach einer Einleitung werden im zweiten Kapitel die konzeptionellen Grundlagen geschaffen. Dazu werden verschiedene Controllingkonzeptionen vorgestellt und anhand ausgewählter Kriterien dahingehend überprüft, ob diese dazu geeignet sind, die RFID-Nutzenpotenziale im Controlling darzustellen. Der kontributionsorientierte Ansatz nach Link erweist sich hierbei als zweckmäßiger Controllingansatz. Im zweiten Grundlagenkapitel werden u. a. die Funktionsweise sowie verschiedene Vorteile der RFID-Technologie vorgestellt. Im Hauptkapitel wird zunächst der Stand der Controllingforschung in Bezug auf RFID sowie dessen Einordnung in das Controlling gezeigt. Im Anschluss daran folgt die Arbeit dem systematischen Aufbau des kontributionsorientierten Ansatzes wie folgt: - Harmonisation: RFID auf der Ebene der Unternehmensleitung - Harmonisationsunterstützung: RFID auf der Ebene des Controlling • RFID-Einfluss auf das Zielsystem: Sachziele, Formalziele und Sozialziele • RFID und Vorsteuerung • Der RFID-Beitrag zur Umsetzung der Controllingprinzipien: Entscheidungsfundierung, Koordinationsentlastung und Entscheidungsreflexion Da mit dem RFID-Beitrag zur Vorsteuerung die „Kernleistung“ eines modernen Controlling behandelt wurde, besitzt dieser Punkt eine besonders hohe Relevanz. Den Abschluss der Dissertationsschrift bildet eine empirische Untersuchung (Kapitel vier) zum Status Quo der Nutzung von RFID-Daten bzw. -Informationen im Controlling. Darüber hinaus wurden mögliche Problemfelder der RFID-Nutzung im Controlling respektive der Managementunterstützung offengelegt. Die Diskrepanz zwischen den im theoretischen Teil der Arbeit herausgearbeiteten vielfältigen Nutzenpotenzialen von RFID im Controlling und der tatsächlichen Nutzung von RFID-Daten im Controlling deutscher Unternehmen ist dabei ein wesentliches Ergebnis. Die Arbeit schließt mit einer Zusammenfassung der Ergebnisse und einem Ausblick auf den weiteren Forschungsbedarf (Kapitel fünf) ab.