70 resultados para Ansätze


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Enterprise-Resource-Planning-Systeme (ERP-Systeme) bilden für die meisten mittleren und großen Unternehmen einen essentiellen Bestandteil ihrer IT-Landschaft zur Verwaltung von Geschäftsdaten und Geschäftsprozessen. Geschäftsdaten werden in ERP-Systemen in Form von Geschäftsobjekten abgebildet. Ein Geschäftsobjekt kann mehrere Attribute enthalten und über Assoziationen zu anderen Geschäftsobjekten einen Geschäftsobjektgraphen aufspannen. Existierende Schnittstellen ermöglichen die Abfrage von Geschäftsobjekten, insbesondere mit Hinblick auf deren Attribute. Die Abfrage mit Bezug auf ihre Position innerhalb des Geschäftsobjektgraphen ist jedoch über diese Schnittstellen häufig nur sehr schwierig zu realisieren. Zur Vereinfachung solcher Anfragen können semantische Technologien, wie RDF und die graphbasierte Abfragesprache SPARQL, verwendet werden. SPARQL ermöglicht eine wesentlich kompaktere und intuitivere Formulierung von Anfragen gegen Geschäftsobjektgraphen, als es mittels der existierenden Schnittstellen möglich ist. Die Motivation für diese Arbeit ist die Vereinfachung bestimmter Anfragen gegen das im Rahmen dieser Arbeit betrachtete SAP ERP-System unter Verwendung von SPARQL. Zur Speicherung von Geschäftsobjekten kommen in ERP-Systemen typischerweise relationale Datenbanken zum Einsatz. Die Bereitstellung von SPARQL-Endpunkten auf Basis von relationalen Datenbanken ist ein seit längerem untersuchtes Gebiet. Es existieren verschiedene Ansätze und Tools, welche die Anfrage mittels SPARQL erlauben. Aufgrund der Komplexität, der Größe und der Änderungshäufigkeit des ERP-Datenbankschemas können solche Ansätze, die direkt auf dem Datenbankschema aufsetzen, nicht verwendet werden. Ein praktikablerer Ansatz besteht darin, den SPARQL-Endpunkt auf Basis existierender Schnittstellen zu realisieren. Diese sind weniger komplex als das Datenbankschema, da sie die direkte Abfrage von Geschäftsobjekten ermöglichen. Dadurch wird die Definition des Mappings erheblich vereinfacht. Das ERP-System bietet mehrere Schnittstellen an, die sich hinsichtlich des Aufbaus, der Zielsetzung und der verwendeten Technologie unterscheiden. Unter anderem wird eine auf OData basierende Schnittstelle zur Verfügung gestellt. OData ist ein REST-basiertes Protokoll zur Abfrage und Manipulation von Daten. Von den bereitgestellten Schnittstellen weist das OData-Interface gegenüber den anderen Schnittstellen verschiedene Vorteile bei Realisierung eines SPARQL-Endpunktes auf. Es definiert eine Abfragesprache und einen Link-Adressierungsmechanismus, mit dem die zur Beantwortung einer Anfrage benötigten Service-Aufrufe und die zu übertragende Datenmenge erheblich reduziert werden können. Das Ziel dieser Arbeit besteht in der Entwicklung eines Verfahrens zur Realisierung eines SPARQL-Endpunktes auf Basis von OData-Services. Dazu wird zunächst eine Architektur vorgestellt, die als Grundlage für die Implementierung eines entsprechenden Systems dienen kann. Ausgehend von dieser Architektur, werden die durch den aktuellen Forschungsstand noch nicht abgedeckten Bereiche ermittelt. Nach bestem Wissen ist diese Arbeit die erste, welche die Abfrage von OData-Schnittstellen mittels SPARQL untersucht. Dabei wird als Teil dieser Arbeit ein neuartiges Konzept zur semantischen Beschreibung von OData-Services vorgestellt. Dieses ermöglicht die Definition von Abbildungen der von den Services bereitgestellten Daten auf RDF-Graphen. Aufbauend auf den Konzepten zur semantischen Beschreibung wird eine Evaluierungssemantik erarbeitet, welche die Auflösung von Ausdrücken der SPARQL-Algebra gegen semantisch annotierte OData-Services definiert. Dabei werden die Daten aller OData-Services ermittelt, die zur vollständigen Abarbeitung einer Anfrage benötigt werden. Zur Abfrage der relevanten Daten wurden Konzepte zur Erzeugung der entsprechenden OData-URIs entwickelt. Das vorgestellte Verfahren wurde prototypisch implementiert und anhand zweier Anwendungsfälle für die im betrachteten Szenario maßgeblichen Servicemengen evaluiert. Mit den vorgestellten Konzepten besteht nicht nur die Möglichkeit, einen SPARQL-Endpunkt für ein ERP-System zu realisieren, vielmehr kann jede Datenquelle, die eine OData-Schnittstelle anbietet, mittels SPARQL angefragt werden. Dadurch werden große Datenmengen, die bisher für die Verarbeitung mittels semantischer Technologien nicht zugänglich waren, für die Integration mit dem Semantic Web verfügbar gemacht. Insbesondere können auch Datenquellen, deren Integration miteinander bisher nicht oder nur schwierig möglich war, über Systeme zur föderierten Abfrage miteinander integriert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Kleine Immergrün (Vinca minor L.) aus der Familie der Apocynaceae ist in der Krautschicht sommergrüner Wälder Südeuropas heimisch, während es in weiten Teilen Mitteleuropas als wahrscheinlich von den Römern eingeführter, altetablierter Archäophyt gilt. Noch heute ist die Art als Kulturreliktzeiger häufig in der Umgebung ehemaliger römischer Tempel und mittelalterlicher Burgruinen zu finden. Zudem wird V. minor in zahlreichen Gartenformen kultiviert. In Teilen Nordamerikas wird der Chamaephyt hingegen als eingeführte, invasive Art eingestuft, die die einheimische Flora und Fauna bedroht. Da V. minor Stolonen bilden kann und in Mitteleuropa selten reife Samen beobachtet werden, wurde bislang vermutet, dass V. minor Bestände in Mitteleuropa sich rein asexuell erhalten. Diese Hypothese wurde aber bisher nie mit molekularen Methoden überprüft. Auch zur Populationsgenetik der Art ist bisher nichts bekannt. Aus diesen Gegebenheiten resultieren folgende Fragen: Wie hoch ist die genetische Diversität von V. minor im submediterranen Ursprungsgebiet im Vergleich zu Mitteleuropa und Nordamerika und wie ist sie in den Großregionen jeweils strukturiert? Korreliert die anthropogen bedingte Einführung mit einer genetischen Verarmung in Mitteleuropa? Gibt es in mitteleuropäischen und nordamerikanischen Populationen Hinweise auf sexuelle Reproduktion, oder erfolgt eine rein vegetative Vermehrung? Gibt es genetische Hinweise für Auswilderungen aus Gärten? Lassen sich die historischen Ausbreitungswege der Art von Süd- nach Mitteleuropa, innerhalb Mitteleuropas sowie nach Nordamerika rekonstruieren? Mikrosatellitenmarker stellen für populationsgenetische Analysen heute die weitaus gängigste Technik dar. Als codominante, locusspezifische Marker erlauben sie die präzise Erfassung populationsgenetischer Parameter zur Quantifizierung der genetischen Diversität und Struktur, die Abschätzung von Genfluss, und die Detektion von Klonen. Mikrosatelliten sind mit Hilfe neuer DNA-Sequenziertechniken (NGS) unproblematisch und kosteneffektiv isolierbar. Im Rahmen der hier vorliegenden Arbeit wurden daher zunächst nukleäre und plastidäre Mikrosatellitenmarker über NGS-454-Sequenzierung entwickelt. Etablierung von nukleären und plastidären Mikrosatellitenmarkern Zur Etablierung artspezifischer nukleärer Mikrosatellitenmarker wurden zwei Verfahren angewendet. Zum einen wurde in einer öffentlich zugänglichen, über 454-Sequenzierung der cDNA von V. minor gewonnene und im 'sequence read archive' von NCBI hinterlegte Datenbank (Akzessionsnummer SRX039641) nach Mikrosatelliten gesucht. Zum anderen wurde die 454-Technologie eingesetzt, um in Kooperation mit Dr. Bruno Huettel vom Max-Planck-Institut für Pflanzenzüchtung in Köln genomische Sequenzdaten anhand einer V. minor-Akzession zu generieren und aus diesen Mikrosatelliten zu etablieren. Eine Assemblierung der 723.230 cDNA-Sequenzen mit insgesamt 387 Mbp erzielte eine Reduzierung auf 267.199 Unigenes (267 Mbp), die der genomischen Sequenzen eine Reduzierung von 43.565 (18 Mbp) auf 24.886 Sequenzen (13,7 Mbp). Die assemblierten Datensätze enthielten 25.253 bzw. 1.371 Mikrosatellitenloci aus Mono- bis Hexa-Nukleotidmotiven. Die Effizienz der Assemblierung war somit v. a. bei den cDNA-Sequenzen gering. Da die Etablierung von Mikrosatellitenloci aber auch auf Basis redundanter Sequenzen möglich ist, sofern ein manueller Abgleich der selektierten Sequenzen erfolgt, wurde auf eine weitere Optimierung der Assemblierung verzichtet. Aus den so identifizierten Loci wurden 60 (cDNA) bzw. 35 (genomische DNA) Di-, Tri- und Tetranukleotidmotive selektiert, flankierende Primer synthetisiert und in umfangreichen Pilotstudien getestet. Jeweils neun der Loci erwiesen sich als robuste, polymorphe Marker. Die sieben vielversprechendsten Marker wurden schließlich für die populationsgenetische Untersuchung ausgewählt. Auch die Etablierung plastidärer Mikrosatellitenmarker erfolgte über zwei Ansätze. Zum einen wurde das Plastom von V. minor aus dem genomischen 454-Sequenzdatensatz rekonstruiert und auf das Vorhandensein von (A)n/(T)n-Wiederholungseinheiten hin untersucht. Für 14 der 17 dabei detektierten Loci konnten Primer entworfen werden. In einer Pilotstudie erwiesen sich vier der Loci als funktionelle, polymorphe Marker. Zusätzlich wurden die zehn universellen (ccmp) Primerpaare zur Amplifikation plastidärer Mikrosatellitenloci aus Weising & Gardner (1999) getestet, von denen zwei als funktionelle, polymorphe Marker für die Hauptstudie geeignet waren. Populationsgenetische und phylogeographische Analyse Ein Probenset aus insgesamt 967 Pflanzenproben aus 70 Populationen aus Mitteleuropa inkl. der Alpen, den Regionen südlich und westlich der Alpen sowie aus Kanada und 18 Cultivaren wurde mittels der sieben neu etablierten, artspezifischen nukleären Mikrosatellitenmarker populationsgenetisch untersucht. Dabei erwiesen sich 21 der 31 untersuchten Populationen südlich und westlich der Alpen als genetisch hoch divers, die übrigen 10 zeigten vor allem klonales Wachstum und wiesen jeweils ein bis drei Multilocus-Genotypen (MLGs) auf. In 30 der 36 mitteleuropäischen Vorkommen (inkl. der Alpen) sowie den kanadischen Beständen war jeweils nur ein einziger MLG präsent. Drei der Vorkommen zeigten mit einem Heterozygotendefizit einzelner Stichproben Hinweise auf Geitonogamie, an drei weiteren Vorkommen traten jeweils zwei sowohl hinsichtlich der Blütenfarbe und -architektur als auch des MLG unterschiedliche Linien auf. An einem dieser Vorkommen wurde ein Hybrid-Genotyp detektiert, bisher der einzige molekulare Hinweis auf sexuelle Reproduktion im engeren Sinn in Mitteleuropa. Die 967 Stichproben konnten insgesamt 310 individuellen Multilocus-Genotypen (MLGs) zugeordnet werden. Davon traten 233 MLGs nur in jeweils einer einzigen Probe auf, die 77 verbleibenden wurden in mehreren Akzessionen detektiert. Aus einer Simulation ging hervor, dass diese wiederholten MLGs auf rein asexuelle Reproduktion zurückzuführen sind. In Mitteleuropa waren lediglich 18 MLGs vertreten, von denen sieben an bis zu zehn, mehrere hundert Kilometer entfernten Fundorten auftraten. In Nordamerika gehören gar alle drei untersuchten Populationen dem gleichen Klon an. In Mitteleuropa traten in zwei Fällen somatische Mutationen zwischen zwei MLGs auf, sodass diese zu klonalen Linien (Multilocus-Linien; MLL) zusammengefasst werden konnten. Sieben der 18 Cultivare weisen einen zu diversen Freilandvorkommen identischen Genotypen auf. Die Ergebnisse reflektieren den durch die anthropogene Selektion bedingten genetischen Flaschenhalseffekt, in dessen Folge der Genpool von Vinca minor in Mitteleuropa gegenüber der südeuropäischen Heimat der Art stark reduziert wurde. Sexuelle Reproduktion in Mitteleuropa zwischen zwei genetisch unterschiedlichen Individuen ist nur an wenigen Standorten überhaupt möglich und da meist nur ein Klon am gleichen Fundort auftritt, sehr selten. Die Ausbreitung erfolgt zudem rein anthropogen und über erhebliche Strecken, wie die identischen MLGs an unterschiedlichen, weit auseinander liegenden Fundorten belegen. Südlich und westlich der Alpen hingegen ist sexuelle Reproduktion über Samen häufig. Aus den kalkulierten Neighbour-Joining Phenogrammen, Neighbour-Nets und der Bayes'schen Analyse ergibt sich prinzipiell eine Abtrennung der in Norditalien und Slowenien gelegenen Vorkommen von den übrigen Regionen, wohingegen mehrere mittelitalienische Populationen mit denen westlich der Alpen und den mitteleuropäischen Vorkommen in einer engeren genetischen Beziehung stehen. Da die mittelitalienischen Vorkommen jedoch Anzeichen anthropogenen Ursprungs aufweisen (Monoklonalität, Lage an Wegrändern oder Burgen), lassen sich diese Populationen nur bedingt als potentielle Ursprungspopulationen ableiten. Die genetisch diversen norditalienischen und slowenischen Populationen sind trotz der Fragmentierung der norditalienischen Waldvegetation insgesamt nur moderat voneinander differenziert (FST=0,14, GST=0,17, RST=0,19). Die AMOVA ergab, dass über 80 % der genetischen Variation auf Variation innerhalb der Populationen zurückzuführen ist. Dennoch ergab sich aus einem Mantel-Test eine zunehmende genetische Differenzierung mit zunehmender geographischer Distanz (r=0,59). Die phylogeographische Analyse wurde mit Hilfe von vier plastidären Mikrosatellitenmarkern aus der 454-Sequenzierung und zwei universellen plastidären ccmp-Mikrosatellitenloci durchgeführt. Untersucht wurden jeweils eine bis sechs Stichproben aus den o. g. 70 Populationen, die 18 Cultivare sowie zusätzliche Einzelproben aus mehreren Ländern, deren DNA aus Herbarbelegen isoliert wurde. Insgesamt wurden 297 Proben untersucht. Unter diesen wurden in der phylogeographischen Analyse sieben plastidäre Haplotypen detektiert. In der Region südlich der Alpen traten sechs Haplotypen auf (H1 bis H5, H7), in Mitteleuropa vier Haplotypen (H1 bis H3, H6), in Nordamerika, Großbritannien, Schweden und Nordamerika trat hingegen nur ein einziger Haplotyp H1 auf. Die beiden häufigsten Haplotypen nahmen im berechneten Haplotypen-Netzwerk periphere Positionen ein und waren durch sieben Mutationschritte voneinander getrennt. Südlich der Alpen ergab sich jedoch keine klare geographische Verteilung der Haplotypen. Auch die plastidären Daten indizieren somit eine geringere genetische Diversität in den Gebieten, wo V. minor eingeführt wurde. Der geographische Ursprung der mitteleuropäischen Vorkommen in Südeuropa konnte nicht abschließend geklärt werden, jedoch lässt das Vorkommen von zwei weit entfernten Haplotypen den Schluss zu, dass Vinca minor mindestens zweimal (und vermutlich mehrfach) unabhängig in Mitteleuropa eingeführt wurde.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the past decades since Schumpeter’s influential writings economists have pursued research to examine the role of innovation in certain industries on firm as well as on industry level. Researchers describe innovations as the main trigger of industry dynamics, while policy makers argue that research and education are directly linked to economic growth and welfare. Thus, research and education are an important objective of public policy. Firms and public research are regarded as the main actors which are relevant for the creation of new knowledge. This knowledge is finally brought to the market through innovations. What is more, policy makers support innovations. Both actors, i.e. policy makers and researchers, agree that innovation plays a central role but researchers still neglect the role that public policy plays in the field of industrial dynamics. Therefore, the main objective of this work is to learn more about the interdependencies of innovation, policy and public research in industrial dynamics. The overarching research question of this dissertation asks whether it is possible to analyze patterns of industry evolution – from evolution to co-evolution – based on empirical studies of the role of innovation, policy and public research in industrial dynamics. This work starts with a hypothesis-based investigation of traditional approaches of industrial dynamics. Namely, the testing of a basic assumption of the core models of industrial dynamics and the analysis of the evolutionary patterns – though with an industry which is driven by public policy as example. Subsequently it moves to a more explorative approach, investigating co-evolutionary processes. The underlying questions of the research include the following: Do large firms have an advantage because of their size which is attributable to cost spreading? Do firms that plan to grow have more innovations? What role does public policy play for the evolutionary patterns of an industry? Are the same evolutionary patterns observable as those described in the ILC theories? And is it possible to observe regional co-evolutionary processes of science, innovation and industry evolution? Based on two different empirical contexts – namely the laser and the photovoltaic industry – this dissertation tries to answer these questions and combines an evolutionary approach with a co-evolutionary approach. The first chapter starts with an introduction of the topic and the fields this dissertation is based on. The second chapter provides a new test of the Cohen and Klepper (1996) model of cost spreading, which explains the relationship between innovation, firm size and R&D, at the example of the photovoltaic industry in Germany. First, it is analyzed whether the cost spreading mechanism serves as an explanation for size advantages in this industry. This is related to the assumption that the incentives to invest in R&D increase with the ex-ante output. Furthermore, it is investigated whether firms that plan to grow will have more innovative activities. The results indicate that cost spreading serves as an explanation for size advantages in this industry and, furthermore, growth plans lead to higher amount of innovative activities. What is more, the role public policy plays for industry evolution is not finally analyzed in the field of industrial dynamics. In the case of Germany, the introduction of demand inducing policy instruments stimulated market and industry growth. While this policy immediately accelerated market volume, the effect on industry evolution is more ambiguous. Thus, chapter three analyzes this relationship by considering a model of industry evolution, where demand-inducing policies will be discussed as a possible trigger of development. The findings suggest that these instruments can take the same effect as a technical advance to foster the growth of an industry and its shakeout. The fourth chapter explores the regional co-evolution of firm population size, private-sector patenting and public research in the empirical context of German laser research and manufacturing over more than 40 years from the emergence of the industry to the mid-2000s. The qualitative as well as quantitative evidence is suggestive of a co-evolutionary process of mutual interdependence rather than a unidirectional effect of public research on private-sector activities. Chapter five concludes with a summary, the contribution of this work as well as the implications and an outlook of further possible research.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Eine wesentliche Funktionalität bei der Verwendung semantischer Technologien besteht in dem als Reasoning bezeichneten Prozess des Ableitens von impliziten Fakten aus einer explizit gegebenen Wissensbasis. Der Vorgang des Reasonings stellt vor dem Hintergrund der stetig wachsenden Menge an (semantischen) Informationen zunehmend eine Herausforderung in Bezug auf die notwendigen Ressourcen sowie der Ausführungsgeschwindigkeit dar. Um diesen Herausforderungen zu begegnen, adressiert die vorliegende Arbeit das Reasoning durch eine massive Parallelisierung der zugrunde liegenden Algorithmen und der Einführung von Konzepten für eine ressourceneffiziente Ausführung. Diese Ziele werden unter Berücksichtigung der Verwendung eines regelbasierten Systems verfolgt, dass im Gegensatz zur Implementierung einer festen Semantik die Definition der anzuwendenden Ableitungsregeln während der Laufzeit erlaubt und so eine größere Flexibilität bei der Nutzung des Systems bietet. Ausgehend von einer Betrachtung der Grundlagen des Reasonings und den verwandten Arbeiten aus den Bereichen des parallelen sowie des regelbasierten Reasonings werden zunächst die Funktionsweise von Production Systems sowie die dazu bereits existierenden Ansätze für die Optimierung und im Speziellen der Parallelisierung betrachtet. Production Systems beschreiben die grundlegende Funktionalität der regelbasierten Verarbeitung und sind somit auch die Ausgangsbasis für den RETE-Algorithmus, der zur Erreichung der Zielsetzung der vorliegenden Arbeit parallelisiert und für die Ausführung auf Grafikprozessoren (GPUs) vorbereitet wird. Im Gegensatz zu bestehenden Ansätzen unterscheidet sich die Parallelisierung insbesondere durch die gewählte Granularität, die nicht durch die anzuwendenden Regeln, sondern von den Eingabedaten bestimmt wird und sich damit an der Zielarchitektur orientiert. Aufbauend auf dem Konzept der parallelen Ausführung des RETE-Algorithmus werden Methoden der Partitionierung und Verteilung der Arbeitslast eingeführt, die zusammen mit Konzepten der Datenkomprimierung sowie der Verteilung von Daten zwischen Haupt- und Festplattenspeicher ein Reasoning über Datensätze mit mehreren Milliarden Fakten auf einzelnen Rechnern erlauben. Eine Evaluation der eingeführten Konzepte durch eine prototypische Implementierung zeigt für die adressierten leichtgewichtigen Ontologiesprachen einerseits die Möglichkeit des Reasonings über eine Milliarde Fakten auf einem Laptop, was durch die Reduzierung des Speicherbedarfs um rund 90% ermöglicht wird. Andererseits kann der dabei erzielte Durchsatz mit aktuellen State of the Art Reasonern verglichen werden, die eine Vielzahl an Rechnern in einem Cluster verwenden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ultrahochfester Beton besitzt aufgrund seiner Zusammensetzung eine sehr hohe Druckfestigkeit von 150 bis über 200 N/mm² und eine außergewöhnlich hohe Dichtigkeit. Damit werden Anwendungen in stark belasteten Bereichen und mit hohen Anforderungen an die Dauerhaftigkeit des Materials ermöglicht. Gleichzeitig zeigt ultrahochfester Beton bei Erreichen seiner Festigkeit ein sehr sprödes Verhalten. Zur Verhinderung eines explosionsartigen Versagens werden einer UHPC-Mischung Fasern zugegeben oder wird eine Umschnürung mit Stahlrohren ausgebildet. Die Zugabe von Fasern zur Betonmatrix beeinflusst neben der Verformungsfähigkeit auch die Tragfähigkeit des UHPC. Das Versagen der Fasern ist abhängig von Fasergeometrie, Fasergehalt, Verbundverhalten sowie Zugfestigkeit der Faser und gekennzeichnet durch Faserauszug oder Faserreißen. Zur Sicherstellung der Tragfähigkeit kann daher auf konventionelle Bewehrung außer bei sehr dünnen Bauteilen nicht verzichtet werden. Im Rahmen des Schwerpunktprogramms SPP 1182 der Deutschen Forschungsgemeinschaft (DFG) wurden in dem dieser Arbeit zugrunde liegenden Forschungsprojekt die Fragen nach der Beschreibung des Querkrafttragverhaltens von UHPC-Bauteilen mit kombinierter Querkraftbewehrung und der Übertragbarkeit bestehender Querkraftmodelle auf UHPC untersucht. Neben einer umfassenden Darstellung vorhandener Querkraftmodelle für Stahlbetonbauteile ohne Querkraftbewehrung und mit verschiedenen Querkraftbewehrungsarten bilden experimentelle Untersuchungen zum Querkrafttragverhalten an UHPC-Balken mit verschiedener Querkraftbewehrung den Ausgangspunkt der vorliegenden Arbeit. Die experimentellen Untersuchungen beinhalteten zehn Querkraftversuche an UHPC-Balken. Diese Balken waren in Abmessungen und Biegezugbewehrung identisch. Sie unterschieden sich nur in der Art der Querkraftbewehrung. Die Querkraftbewehrungsarten umfassten eine Querkraftbewehrung aus Stahlfasern oder Vertikalstäben, eine kombinierte Querkraftbewehrung aus Stahlfasern und Vertikalstäben und einen Balken ohne Querkraftbewehrung. Obwohl für die in diesem Projekt untersuchten Balken Fasergehalte gewählt wurden, die zu einem entfestigenden Nachrissverhalten des Faserbetons führten, zeigten die Balkenversuche, dass die Zugabe von Stahlfasern die Querkrafttragfähigkeit steigerte. Durch die gewählte Querkraftbewehrungskonfiguration bei ansonsten identischen Balken konnte außerdem eine quantitative Abschätzung der einzelnen Traganteile aus den Versuchen abgeleitet werden. Der profilierte Querschnitt ließ einen großen Einfluss auf das Querkrafttragverhalten im Nachbruchbereich erkennen. Ein relativ stabiles Lastniveau nach Erreichen der Höchstlast konnte einer Vierendeelwirkung zugeordnet werden. Auf Basis dieser Versuchsergebnisse und analytischer Überlegungen zu vorhandenen Querkraftmodellen wurde ein additiver Modellansatz zur Beschreibung des Querkrafttragverhaltens von UHPCBalken mit einer kombinierten Querkraftbewehrung aus Stahlfasern und Vertikalstäben formuliert. Für die Formulierung der Traganteile des Betonquerschnitts und der konventionellen Querkraftbewehrung wurden bekannte Ansätze verwendet. Für die Ermittlung des Fasertraganteils wurde die Faserwirksamkeit zugrunde gelegt. Das Lastniveau im Nachbruchbereich aus Viendeelwirkung ergibt sich aus geometrischen Überlegungen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zusammenfassung: Ziel der Arbeit ist den Sinn von Schauder philosophisch zu erhellen. An einem Einzelphänomen, wie es so bisher nicht behandelt wurde, wird zugleich das Geflecht von Affekt/Emotion/Gefühl, gestützt auf Hegel, Heidegger, Husserl, Freud und Lacan, in immer neuen Ansätzen kritisch reflektiert und Zug um Zug mit Derrida dekonstruiert. In einem Textverfahren, das sich auch grafisch durch gegenübergestellte Kolumnen auszeichnet, werden heterogene Ansätze zum Sinn von Schauder mit dekonstruktivistischen Einsichten konfrontiert. Die Ansätze, Schauder über Datum, Begriff, Phänomen oder Strukturelement bestimmen zu wollen, durchdringen sich dabei mit denjenigen, die sich einer solchen Bestimmung entziehen (Hegels Negativität, Heideggers Seinsentzug oder Lacans Signifikantenmangel). Am Fokus Schauder, an dem sich das Fiktive einer mit sich selbst identischen Präsenz besonders eindringlich darstellt, werden so spezifische Aporien der Metaphysik der Präsenz entfaltet und die Geschlossenheit logozentristischer Systeme in die Bewegung einer anderen Öffnung und Schließung im Sinn der Schrift bzw. des allgemeinen Textes transformiert. Neben der différance, dem Entzug der Metapher, dem Supplement und dem Gespenstischen stützt sich die Arbeit auf die Iterabilität, bei der im selben Zug die Identität des Sinns gestiftet und zerstreut wird (Dissemination). Im Kapitel Piloerection werden Ambivalenzen und Paradoxien des Schauders am Beispiel von computergestützten empirisch-psychologischen Studien aufgezeigt. Im Kapitel Atopologie des Schauders prädikative, propositionale und topologische Bedingungen zum Sinn von Schauder analysiert und dekonstruiert. Ebenso, im Folgekapitel Etymon, etymologische und technisch-mediale Bedingungen. Im Schlußkapitel Maß, Anmaß, Unmaß der Empfindung des Schauders wird am Beispiel der konkreten Beiträge zum Schauder von Aristoteles, Kant, Fechner, Otto, Klages, Lorenz und Adorno aufgezeigt, dass (1) ein Schauder nicht von einem Außen aus an-gemessen werden kann, (2) sich im Schauder die metaphysische Opposition von Fiktion und Realität in einer Unentscheidbarkeit zerstreut, (3) dass trotz der Heterogenität der Ansätze in diesen Beiträgen eine Komplizenschaft zum Ausdruck kommt: ein Begehren nach Präsenz, das durch den Ausschluß des Anderen zugleich die Gewalt des Einen produziert, (4) dass der Signifikant Schauder, der selbst in Abwesenheit eines Referenten, eines bestimmten Signifikats, einer aktuellen Bedeutungs­intention, eines Sen­ders oder Empfängers funktioniert, als verändertes Zu­rückbleiben eines differenzieller Zeichens betrachtet werden muss, als Effekt von Spuren, die sich nur in ihrem eige­nen Auslöschen ereignen. Die Arbeit schließt mit dem Vorschlag, Spüren jenseits von Arché, Telos oder Eschaton, jenseits eines Phallogozentrismus in der derridaschen Spur zu denken. Nicht zuletzt über diese Pfropfung, wie sie im Französischen [trace] so nicht möglich ist, schließt sie als deutschsprachiger Beitrag an sein Werk an.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Ziel dieser Arbeit war, ein ökonomisch ausgerichtetes Zuchtprogramm für die bedrohte Schweinerasse „Bunte Bentheimer“ (BB) zu entwickeln. Ein wesentlicher Bestandteil von Zuchtprogrammen für bedrohte Rassen ist der Erhalt der genetischen Diversität durch Vermeidung von weiterer Inzucht und Reduzierung des Inzuchtzuwachses. In Kapitel 2 wurde die Population der BB unter Berücksichtigung der vorhandenen Abstammungsinformationen in Bezug auf genetische Diversität, Inzucht und Verwandtschaft analysiert. Durchschnittlicher Inzuchtkoeffizient und Inzuchtzunahme lagen mit 12% und 1,66% pro Generation auf einem relativ hohen Niveau. Effektive Maßnahmen zur Inzuchtkontrolle sollten daher im Zuchtprogramm integriert werden. Durch die Bestimmung optimaler Einsatzfrequenzen selektierter Tiere ist es möglich, Inzucht zu kontrollieren und gleichzeitig Zuchtfortschritt zu generieren. Das konnte am Beispiel von Zuchtwerten für Fruchtbarkeitsmerkmale gezeigt werden. Basierend auf den optimalen Einsatzfrequenzen der selektierten Elterntiere wurden zur weiteren Reduzierung der Inzucht in der Folgegeneration konkrete Anpaarungspläne erstellt. Die Anpaarungen wurden unter Berücksichtigung der Natursprungproblematik durch Festlegung von Zuchtgebieten konzipiert. Die Umsetzung dieser wurde allerdings erschwert durch die eingeschränkte Verfügbarkeit der Eber. Schließt man die künstliche Besamung als mögliche Alternative aus, müssten die Zuchtgebiete so optimiert werden, dass die vorgeschlagenen Anpaarungen auch in die Praxis umgesetzt werden können. Die Gestaltung eines Zuchtprogramms erfordert zudem die Verfügbarkeit populationsgenetischer Parameter. Für die Fruchtbarkeitsmerkmale „Anzahl lebend geborener Ferkel“ (NBA) und „abgesetzter Ferkel“ (NW) lagen die Heritabilitäten bei jeweils 12%. Auch die genetischen Varianzen lagen in einem guten Bereich, so dass für beide Merkmale Zuchtfortschritt durch Selektion möglich ist. In Kapitel 3 wurden genetische Parameter für Fleischleistungs- und Fleischqualitätsmerkmale geschätzt. Als Grundlage dafür dienten sowohl in vivo Ultraschallmessungen am lebenden Tier, als auch Messungen, die am Schlachtkörper bzw. an einer Fleischprobe erfolgten. Zucht-, Mast- und Schlachttiere wurden am RYR1 Genort typisiert, um Allel-Substitutionseffekte zu schätzen. Die quantitativen- und molekulargenetischen Ansätze wurden genutzt, um darauf aufbauend zur Verbesserung der Fleischqualität Zuchtstrategien zu entwickeln. Für das Fleischqualitätsmerkmal intramuskulärer Fettgehalt (IMF) wurde die höchste Heritabilität von 0,78 bei einer ebenfalls hohen additiv-genetischen Varianz geschätzt. Dennoch ist die Erfassung dieses Merkmals mit einem hohen Kostenaufwand verbunden. Ein mögliches Hilfsmerkmal ist die Rückenspeckdicke (BFiv), die direkt am Selektionskandidaten erfasst werden kann. Die genetische Korrelation zwischen beiden Merkmale lag bei rg = 0,39. Die Assoziationsstudie am RYR1 Genort zeigte, dass die Anwesenheit des ungewünschten Allels einen negativen Effekt auf IMF hatte, d.h. der IMF Gehalt wurde reduziert. Darauf aufbauend wurde eine Zuchtstrategie entwickelt, die Phänotyp (BFiv) und Marker-Informationen am RYR1 Genort des Selektionskandidaten kombiniert. Durch die zusätzliche Berücksichtigung der Marker-Informationen konnten eine höhere Genauigkeit und ein höherer Zuchtfortschritt erzielt werden im Vergleich zu einer Strategie, die nur auf den phänotypischen Leistungen basiert. In Kapitel 4 wurde basierend auf einer Konsumentenbefragung mit integrierter Verkostung von Fleischproben indirekt die Zahlungsbereitschaft für unterschiedliche Fleischqualitäten erfasst. Alle Fleischproben wurden zusätzlich hinsichtlich der instrumental erfassbaren Fleischqualität untersucht und durch ein geschultes Panel im Sensorik Labor in Bezug auf die sensorische Qualität beurteilt. Außerdem wurde die direkte Zahlungsbereitschaft für unterschiedliche Qualitätsausprägungen der optischen Merkmale „Fleischfarbe“, „Fleischmarmorierung“ und „Fleischsaftverlust“ anhand von Fotografien erfasst. Die Ergebnisse dieser Befragung wurden genutzt, um ökonomischen Gewichte abzuleiten. Für IMF ergab sich ein hohes ökonomisches Gewicht von 57,52 € pro Merkmalseinheit bei dem aktuellen Populationsdurchschnitt von 1,57%. Mit steigendem Populationsmittel sinkt das ökonomische Gewicht und nähert sich ab einem Mittelwert von 2% einem Wert von 0,00 €. Aus züchterischer Sicht wäre daher ein durchschnittlicher IMF Gehalt von mindestens 2% anzustreben. Für Fleischqualitätsmerkmale, die beim Verzehr nicht direkt erfassbar sind, wie die Farbhelligkeit oder der Tropfsaftverlust, ist die direkte Methode zur Erfassung der Zahlungsbereitschaft (basierend auf den Fotografien) der indirekten (basierend auf der Verkostung) vorzuziehen, um ökonomische Gewichte abzuleiten. Genetische Parameter ökonomischen Gewichte wurden anschließend für Zuchtplanungsrechnungen verwendet. Im Zuchtziel wurde in erster Linie die Fruchtbarkeit (NBA) und Fleischqualität (IMF) berücksichtigt. Zur Vermeidung hoher Kosten und der besseren Anpassung an kleine Betriebsstrukturen wurde u.a. ein Zuchtprogramm modelliert, das auf in vivo Ultraschallmessungen für BFiv basiert, direkt erfasst am Selektionskandidaten. Der Züchtungsgewinn für diese Zuchtstrategie lag bei 35,92 € pro Tier. Der Zuchtfortschritt für IMF war allerdings erwartungsgemäß geringer als bei direkter Selektion auf das Merkmal. Basierend auf den Ergebnissen wurde in Kapitel 5 ein Entwurf für ein Zuchtprogramm erstellt, das die notwendigen Maßnahmen zur Inzuchtkontrolle beinhaltet und Zuchtfortschritt für rassespezifische Merkmale zulässt. Zudem ist dieser Entwurf angepasst an die kleinen Betriebsstrukturen und die unterschiedlichen Vermarktungsstrategien, die sich bereits etabliert haben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Miniaturisierung von konventioneller Labor- und Analysetechnik nimmt eine zentrale Rolle im Bereich der allgemeinen Lebenswissenschaften und medizinischen Diagnostik ein. Neuartige und preiswerte Technologieplattformen wie Lab-on-a-Chip (LOC) oder Mikrototalanalysesysteme (µTAS) versprechen insbesondere im Bereich der Individualmedizin einen hohen gesellschaftlichen Nutzen zur frühzeitigen und nichtinvasiven Diagnose krankheitsspezifischer Indikatoren. Durch den patientennahen Einsatz preiswerter und verlässlicher Mikrochips auf Basis hoher Qualitätsstandards entfallen kostspielige und zeitintensive Zentrallaboranalysen, was gleichzeitig Chancen für den globalen Einsatz - speziell in Schwellen- und Entwicklungsländern - bietet. Die technischen Herausforderungen bei der Realisierung moderner LOC-Systeme sind in der kontrollierten und verlässlichen Handhabung kleinster Flüssigkeitsmengen sowie deren diagnostischem Nachweis begründet. In diesem Kontext wird der erfolgreichen Integration eines fernsteuerbaren Transports von biokompatiblen, magnetischen Mikro- und Nanopartikeln eine Schlüsselrolle zugesprochen. Die Ursache hierfür liegt in der vielfältigen Einsetzbarkeit, die durch die einzigartigen Materialeigenschaften begründet sind. Diese reichen von der beschleunigten, aktiven Durchmischung mikrofluidischer Substanzvolumina über die Steigerung der molekularen Interaktionsrate in Biosensoren bis hin zur Isolation und Aufreinigung von krankheitsspezifischen Indikatoren. In der Literatur beschriebene Ansätze basieren auf der dynamischen Transformation eines makroskopischen, zeitabhängigen externen Magnetfelds in eine mikroskopisch veränderliche potentielle Energielandschaft oberhalb magnetisch strukturierter Substrate, woraus eine gerichtete und fernsteuerbare Partikelbewegung resultiert. Zentrale Kriterien, wie die theoretische Modellierung und experimentelle Charakterisierung der magnetischen Feldlandschaft in räumlicher Nähe zur Oberfläche der strukturierten Substrate sowie die theoretische Beschreibung der Durchmischungseffekte, wurden jedoch bislang nicht näher beleuchtet, obwohl diese essentiell für ein detailliertes Verständnis der zu Grunde liegenden Mechanismen und folglich für einen Markteintritt zukünftiger Geräte sind. Im Rahmen der vorgestellten Arbeit wurde daher ein neuartiger Ansatz zur erfolgreichen Integration eines Konzepts zum fernsteuerbaren Transport magnetischer Partikel zur Anwendung in modernen LOC-Systemen unter Verwendung von magnetisch strukturierten Exchange-Bias (EB) Dünnschichtsystemen verfolgt. Die Ergebnisse zeigen, dass sich das Verfahren der ionenbe-schussinduzierten magnetischen Strukturierung (IBMP) von EB-Systemen zur Herstellung von maßgeschneiderten magnetischen Feldlandschaften (MFL) oberhalb der Substratoberfläche, deren Stärke und räumlicher Verlauf auf Nano- und Mikrometerlängenskalen gezielt über die Veränderung der Materialparameter des EB-Systems via IBMP eingestellt werden kann, eignet. Im Zuge dessen wurden erstmals moderne, experimentelle Verfahrenstechniken (Raster-Hall-Sonden-Mikroskopie und rastermagnetoresistive Mikroskopie) in Kombination mit einem eigens entwickelten theoretischen Modell eingesetzt, um eine Abbildung der MFL in unterschiedlichen Abstandsbereichen zur Substratoberfläche zu realisieren. Basierend auf der quantitativen Kenntnis der MFL wurde ein neuartiges Konzept zum fernsteuerbaren Transport magnetischer Partikel entwickelt, bei dem Partikelgeschwindigkeiten im Bereich von 100 µm/s unter Verwendung von externen Magnetfeldstärken im Bereich weniger Millitesla erzielt werden können, ohne den magnetischen Zustand des Substrats zu modifizieren. Wie aus den Untersuchungen hervorgeht, können zudem die Stärke des externen Magnetfelds, die Stärke und der Gradient der MFL, das magnetfeldinduzierte magnetische Moment der Partikel sowie die Größe und der künstlich veränderliche Abstand der Partikel zur Substratoberfläche als zentrale Einflussgrößen zur quantitativen Modifikation der Partikelgeschwindigkeit genutzt werden. Abschließend wurde erfolgreich ein numerisches Simulationsmodell entwickelt, das die quantitative Studie der aktiven Durchmischung auf Basis des vorgestellten Partikeltransportkonzepts von theoretischer Seite ermöglicht, um so gezielt die geometrischen Gegebenheiten der mikrofluidischen Kanalstrukturen auf einem LOC-System für spezifische Anwendungen anzupassen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit beschäftigt sich mit nicht in Rechnung stellbaren Wasserverlusten in städtischen Versorgungsnetzen in Entwicklungsländern. Es soll das Wissen über diese Verluste erweitert und aufgezeigt werden, ob diese auf ein ökonomisch vertretbares Maß reduziert werden können. Die vorliegende Doktorarbeit untersucht solche unberechneten Wasserverluste und versucht, neben der Quantifizierung von Leckagen auch Entscheidungswerkzeuge für ein verbessertes Management der Versorgungsnetze in Entwicklungsländern zu erarbeiten. Als Fallstudie dient Harare, die Hauptstadt von Simbabwe. Wasserverluste in Verteilungsnetzen sind unvermeidbar, sollten aber auf ein ökonomisch tragbares Niveau reduziert werden, wenn ein nachhaltiger Betrieb erreicht werden soll. Wasserverluste können sowohl durch illegale und ungenehmigte Anschlüsse oder durch Undichtigkeiten im Verteilnetz, als auch durch mangelhafte Mess- und Berechnungssysteme entstehen. Es sind bereits viele Ansätze zur Verringerung von Verlusten in Wasserverteilsystemen bekannt geworden, entsprechend existieren dazu auch zahlreiche Methoden und Werkzeuge. Diese reichen von computergestützten Verfahren über gesetzliche und politische Vorgaben sowie ökonomische Berechnungen bis hin zu Maßnahmen der Modernisierung der Infrastruktur. Der Erfolg dieser Anstrengungen ist abhängig von der Umsetzbarkeit und dem Umfeld, in dem diese Maßnahmen durchgeführt werden. Die Bewertung der Arbeitsgüte einer jeden Wasserversorgungseinheit basiert auf der Effektivität des jeweiligen Verteilungssystems. Leistungs- und Bewertungszahlen sind die meist genutzten Ansätze, um Wasserverteilsysteme und ihre Effizienz einzustufen. Weltweit haben sich zur Bewertung als Indikatoren die finanzielle und die technische Leistungsfähigkeit durchgesetzt. Die eigene Untersuchung zeigt, dass diese Indikatoren in vielen Wasserversorgungssystemen der Entwicklungsländer nicht zur Einführung von Verlust reduzierenden Managementstrategien geführt haben. Viele durchgeführte Studien über die Einführung von Maßnahmen zur Verlustreduzierung beachten nur das gesamte nicht in Rechnung stellbare Wasser, ohne aber den Anteil der Leckagen an der Gesamthöhe zu bestimmen. Damit ist keine Aussage über die tatsächliche Zuordnung der Verluste möglich. Aus diesem Grund ist ein Bewertungsinstrument notwendig, mit dem die Verluste den verschiedenen Ursachen zugeordnet werden können. Ein solches Rechenwerkzeug ist das South African Night Flow Analysis Model (SANFLOW) der südafrikanischen Wasser-Forschungskommission, das Untersuchungen von Wasserdurchfluss und Anlagendruck in einzelnen Verteilbezirken ermöglicht. In der vorliegenden Arbeit konnte nachgewiesen werden, dass das SANFLOW-Modell gut zur Bestimmung des Leckageanteiles verwendet werden kann. Daraus kann gefolgert werden, dass dieses Modell ein geeignetes und gut anpassbares Analysewerkzeug für Entwicklungsländer ist. Solche computergestützte Berechnungsansätze können zur Bestimmung von Leckagen in Wasserverteilungsnetzen eingesetzt werden. Eine weitere Möglichkeit ist der Einsatz von Künstlichen Neuronalen Netzen (Artificial Neural Network – ANN), die trainiert und dann zur Vorhersage der dynamischen Verhältnisse in Wasserversorgungssystemen genutzt werden können. Diese Werte können mit der Wassernachfrage eines definierten Bezirks verglichen werden. Zur Untersuchung wurde ein Mehrschichtiges Künstliches Neuronales Netz mit Fehlerrückführung zur Modellierung des Wasserflusses in einem überwachten Abschnitt eingesetzt. Zur Bestimmung des Wasserbedarfes wurde ein MATLAB Algorithmus entwickelt. Aus der Differenz der aktuellen und des simulierten Wassernachfrage konnte die Leckagerate des Wasserversorgungssystems ermittelt werden. Es konnte gezeigt werden, dass mit dem angelernten Neuronalen Netzwerk eine Vorhersage des Wasserflusses mit einer Genauigkeit von 99% möglich ist. Daraus lässt sich die Eignung von ANNs als flexibler und wirkungsvoller Ansatz zur Leckagedetektion in der Wasserversorgung ableiten. Die Untersuchung zeigte weiterhin, dass im Versorgungsnetz von Harare 36 % des eingespeisten Wassers verloren geht. Davon wiederum sind 33 % auf Leckagen zurückzuführen. Umgerechnet bedeutet dies einen finanziellen Verlust von monatlich 1 Millionen Dollar, was 20 % der Gesamteinnahmen der Stadt entspricht. Der Stadtverwaltung von Harare wird daher empfohlen, aktiv an der Beseitigung der Leckagen zu arbeiten, da diese hohen Verluste den Versorgungsbetrieb negativ beeinflussen. Abschließend wird in der Arbeit ein integriertes Leckage-Managementsystem vorgeschlagen, das den Wasserversorgern eine Entscheidungshilfe bei zu ergreifenden Maßnahmen zur Instandhaltung des Verteilnetzes geben soll.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Dissertation geht von der Überlegung aus, dass ein Wandel im deutschen Bildungssystem aufgrund kinderrechtlicher und demokratischer Überlegungen eine essenzielle Zukunftsaufgabe ist. Dies geschieht im Besonderen vor dem Hintergrund kinderrechtlicher Forderungen, wie sie beispielsweise aus dem Status Deutschlands als Mitgliedsland der UN-Kinderrechtskonvention und des UN-Übereinkommens über die Rechte von Menschen mit Behinderung entstehen: Die Korrelation zwischen Herkunft und Bildungserfolg sowie die noch konzeptionell ungenügend entwickelten Ansätze zur Inklusion werden als bestimmend für die Diskussion erkannt. Die Arbeit vertritt die These, dass Lehrende eine zentrale Rolle in einem notwendigen Prozess der Umwandlung des deutschen Bildungssystems spielen können und nimmt in emanzipatorischer Absicht die Lehrenden als Zielgruppe in den Blick. Aufgrund der Struktur der Lehrendenausbildung wird zudem dafür argumentiert, entsprechende Veränderungen im Sinne ihrer Nachhaltigkeit und flächendeckenden Relevanz in der Lehrendenausbildung des ersten universitären Ausbildungsabschnittes zu verankern. Als Instrument, welches die Kriterien von Nachhaltigkeit und umfassender Relevanz erfüllt, werden die Standards für die Lehrerbildung im Bereich Bildungswissenschaften benannt und theoretisch unterfüttert. Grundsätzlich spannt sich der Blickwinkel der Arbeit zwischen der Betrachtung der Struktur des Bildungssystems, des Wissens und Könnens von Lehrenden und Lernenden im Sinne der Kompetenzorientierung sowie der Haltung auf, welche Lehrende einnehmen. Dabei wird aufgezeigt, dass sich diese Faktoren wechselseitig auf vielfache Art und Weise beeinflussen. Auf der Basis dieser Überlegungen wird zunächst das deutsche Bildungssystem in seinen Strukturen beschrieben und die Lehrenden und Lernenden als Teilnehmende am Bildungsgeschehen skizziert. Ein exkursiver Vergleich dreier aufgrund kinderrechtlicher Parameter ausgewählter europäischer Bildungssysteme eruiert zudem, inwiefern die aufgezeigten Bestimmungsgrößen Struktur, Wissen/Können und Haltung Einfluss auf kinderrechtliche Verfasstheit des Bildungssystems nehmen, wobei die Grundprinzipien der UN-Kinderrechtskonvention hier als Messinstrument dienen. Davon ausgehend, erscheint pädagogische Haltung als eine wesentliche Einflussgröße, die im weiteren Verlauf der Arbeit im Sinne der kritischen Pädagogik zu einer Konzeption Pädagogischer Verantwortung verdichtet wird. Vor diesem Hintergrund erfolgt eine Betrachtung aktueller Problematiken im deutschen Bildungssystem, die sich an den in den Standards für die Lehrerbildung identifizierten Ausbildungsschwerpunkten orientiert und erneut die Prinzipien und rechtlichen Vorgaben der UN-Kinderrechtskonvention als Maßstab wählt. Auf der Grundlage dieser umfassenden Diskussion werden in einem sich anschließenden Analyseschritt Annotationen vorgenommen, die die Formulierungen der 11 Standards für die Lehrerbildung inhaltlich erweitern und ergänzen. In Verbindung mit einer Pädagogischen Verantwortung, die sich der Ausbildung kritischer Mündigkeit verpflichtet, werden die annotierten Standards als eine Möglichkeit der kinderrechtlichen (Selbst-)Evaluation von Lehrenden sowie als Instrument einer kinderrechtliche Gesichtspunkte fokussierenden Lehrendenbildung verstanden und dargestellt.