89 resultados para Prozess


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the past decades since Schumpeter’s influential writings economists have pursued research to examine the role of innovation in certain industries on firm as well as on industry level. Researchers describe innovations as the main trigger of industry dynamics, while policy makers argue that research and education are directly linked to economic growth and welfare. Thus, research and education are an important objective of public policy. Firms and public research are regarded as the main actors which are relevant for the creation of new knowledge. This knowledge is finally brought to the market through innovations. What is more, policy makers support innovations. Both actors, i.e. policy makers and researchers, agree that innovation plays a central role but researchers still neglect the role that public policy plays in the field of industrial dynamics. Therefore, the main objective of this work is to learn more about the interdependencies of innovation, policy and public research in industrial dynamics. The overarching research question of this dissertation asks whether it is possible to analyze patterns of industry evolution – from evolution to co-evolution – based on empirical studies of the role of innovation, policy and public research in industrial dynamics. This work starts with a hypothesis-based investigation of traditional approaches of industrial dynamics. Namely, the testing of a basic assumption of the core models of industrial dynamics and the analysis of the evolutionary patterns – though with an industry which is driven by public policy as example. Subsequently it moves to a more explorative approach, investigating co-evolutionary processes. The underlying questions of the research include the following: Do large firms have an advantage because of their size which is attributable to cost spreading? Do firms that plan to grow have more innovations? What role does public policy play for the evolutionary patterns of an industry? Are the same evolutionary patterns observable as those described in the ILC theories? And is it possible to observe regional co-evolutionary processes of science, innovation and industry evolution? Based on two different empirical contexts – namely the laser and the photovoltaic industry – this dissertation tries to answer these questions and combines an evolutionary approach with a co-evolutionary approach. The first chapter starts with an introduction of the topic and the fields this dissertation is based on. The second chapter provides a new test of the Cohen and Klepper (1996) model of cost spreading, which explains the relationship between innovation, firm size and R&D, at the example of the photovoltaic industry in Germany. First, it is analyzed whether the cost spreading mechanism serves as an explanation for size advantages in this industry. This is related to the assumption that the incentives to invest in R&D increase with the ex-ante output. Furthermore, it is investigated whether firms that plan to grow will have more innovative activities. The results indicate that cost spreading serves as an explanation for size advantages in this industry and, furthermore, growth plans lead to higher amount of innovative activities. What is more, the role public policy plays for industry evolution is not finally analyzed in the field of industrial dynamics. In the case of Germany, the introduction of demand inducing policy instruments stimulated market and industry growth. While this policy immediately accelerated market volume, the effect on industry evolution is more ambiguous. Thus, chapter three analyzes this relationship by considering a model of industry evolution, where demand-inducing policies will be discussed as a possible trigger of development. The findings suggest that these instruments can take the same effect as a technical advance to foster the growth of an industry and its shakeout. The fourth chapter explores the regional co-evolution of firm population size, private-sector patenting and public research in the empirical context of German laser research and manufacturing over more than 40 years from the emergence of the industry to the mid-2000s. The qualitative as well as quantitative evidence is suggestive of a co-evolutionary process of mutual interdependence rather than a unidirectional effect of public research on private-sector activities. Chapter five concludes with a summary, the contribution of this work as well as the implications and an outlook of further possible research.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Eine wesentliche Funktionalität bei der Verwendung semantischer Technologien besteht in dem als Reasoning bezeichneten Prozess des Ableitens von impliziten Fakten aus einer explizit gegebenen Wissensbasis. Der Vorgang des Reasonings stellt vor dem Hintergrund der stetig wachsenden Menge an (semantischen) Informationen zunehmend eine Herausforderung in Bezug auf die notwendigen Ressourcen sowie der Ausführungsgeschwindigkeit dar. Um diesen Herausforderungen zu begegnen, adressiert die vorliegende Arbeit das Reasoning durch eine massive Parallelisierung der zugrunde liegenden Algorithmen und der Einführung von Konzepten für eine ressourceneffiziente Ausführung. Diese Ziele werden unter Berücksichtigung der Verwendung eines regelbasierten Systems verfolgt, dass im Gegensatz zur Implementierung einer festen Semantik die Definition der anzuwendenden Ableitungsregeln während der Laufzeit erlaubt und so eine größere Flexibilität bei der Nutzung des Systems bietet. Ausgehend von einer Betrachtung der Grundlagen des Reasonings und den verwandten Arbeiten aus den Bereichen des parallelen sowie des regelbasierten Reasonings werden zunächst die Funktionsweise von Production Systems sowie die dazu bereits existierenden Ansätze für die Optimierung und im Speziellen der Parallelisierung betrachtet. Production Systems beschreiben die grundlegende Funktionalität der regelbasierten Verarbeitung und sind somit auch die Ausgangsbasis für den RETE-Algorithmus, der zur Erreichung der Zielsetzung der vorliegenden Arbeit parallelisiert und für die Ausführung auf Grafikprozessoren (GPUs) vorbereitet wird. Im Gegensatz zu bestehenden Ansätzen unterscheidet sich die Parallelisierung insbesondere durch die gewählte Granularität, die nicht durch die anzuwendenden Regeln, sondern von den Eingabedaten bestimmt wird und sich damit an der Zielarchitektur orientiert. Aufbauend auf dem Konzept der parallelen Ausführung des RETE-Algorithmus werden Methoden der Partitionierung und Verteilung der Arbeitslast eingeführt, die zusammen mit Konzepten der Datenkomprimierung sowie der Verteilung von Daten zwischen Haupt- und Festplattenspeicher ein Reasoning über Datensätze mit mehreren Milliarden Fakten auf einzelnen Rechnern erlauben. Eine Evaluation der eingeführten Konzepte durch eine prototypische Implementierung zeigt für die adressierten leichtgewichtigen Ontologiesprachen einerseits die Möglichkeit des Reasonings über eine Milliarde Fakten auf einem Laptop, was durch die Reduzierung des Speicherbedarfs um rund 90% ermöglicht wird. Andererseits kann der dabei erzielte Durchsatz mit aktuellen State of the Art Reasonern verglichen werden, die eine Vielzahl an Rechnern in einem Cluster verwenden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ZUSAMMENFASSUNG Von der „Chaosgruppe“ zur lernenden Organisation. Fallstudien zur Induzierung und Verbreitung von Innovation in ländlichen Kleinorganisationen im Buruli (Zentral-Uganda). Die oft fehlende Nachhaltigkeit landwirtschaftlicher Projekte in Afrika allgemein und in Buruli (Zentral-Uganda) insbesondere gab den Anstoß zu der Forschung, die der vorliegenden Dissertation zugrunde liegt. Ein häufiger Grund für das Scheitern von Projekten ist, dass die lokale Bevölkerung die landwirtschaftliche Innovation als Risiko für die Ernährungssicherheit der Familie betrachtet. Die vorliegende Arbeit ist daher ein Beitrag zur Suche nach einem Weg zur Nachhaltigkeit, der dieser Tatsache Rechnung trägt. Als Forschungsmethode wurden die Gruppendiskussion und die Beobachtung mit den beiden Varianten „teilnehmender Beobachter“ und „beobachtender Teilnehmer“ gemäß Lamnek(1995b) angewendet. Es stellte sich heraus, dass die ablehnende Haltung der Zielbevölkerung landwirtschaftlicher Innovation gegenüber durch finanzielle Anreize, Seminare oder die Überzeugungskunst von Mitarbeitern der Entwicklungsorganisationen kaum behoben werden kann, sondern nur durch den Einbezug der Menschen in einen von ihnen selbst gesteuerten Risikomanagementprozess. Die Prozessberatung von Schein (2000) und die nichtdirektive Beratung von Rogers (2010) haben sich im Rahmen unserer Untersuchung für die Motivierung der Bevölkerung für eine risikobewusste Entwicklungsinitiative von großem Nutzen erwiesen ebenso wie für die Beschreibung dieses Prozesses in der vorliegenden Studie. Die untersuchten Gruppen wurden durch diesen innovativen Ansatz der Entwicklungsberatung in die Lage versetzt, das Risiko von Innovation zu analysieren, zu bewerten und zu minimieren, ihre Zukunft selbst in die Hand zu nehmen und in einem sozialen, ökonomischen und physischen Umfeld zu gestalten sowie auf Veränderungen im Laufe der Umsetzung angemessen zu reagieren. Der Erwerb dieser Fähigkeit setzte eine Umwandlung einfacher Bauerngruppen ohne erkennbare Strukturen in strukturierte und organisierte Gruppen voraus, die einer lernenden Organisation im ländlichen Raum entsprechen. Diese Transformation bedarf als erstes eines Zugangs zur Information und einer zielorientierten Kommunikation. Die Umwandlung der Arbeitsgruppe zu einer lernenden Bauernorganisation förderte die Nachhaltigkeit des Gemüseanbauprojekts und das Risikomanagement und wurde so zu einem konkreten, von der Umwelt wahrgenommenen Beispiel für die Zweckmäßigkeit des oben beschriebenen Forschungsansatzes. Die Herausbildung einer lernenden Organisation ist dabei nicht Mittel zum Zweck, sondern ist selbst das zu erreichende Ziel. Die Beobachtung, Begleitung und Analyse dieses Umwandlungsprozesses erfordert einen multidisziplinären Ansatz. In diesem Fall flossen agrarwissenschaftliche, soziologische, linguistische und anthropologische Perspektiven in die partnerschaftlich ausgerichtete Forschung ein. Von der Entwicklungspolitik erfordert dieser Ansatz einen neuen Weg, der auf der Partnerschaft mit den Betroffenen und auf einer Entemotionalisierung des Entwicklungsvorhabens basiert und eine gegenseitige Wertschätzung zwischen den Akteuren voraussetzt. In diesem Prozess entwickelt sich im Laufe der Zeit die „lernende“ Bauernorganisation auch zu einer „lehrenden“ Organisation und wird dadurch eine Quelle der Inspiration für die Gesamtgesellschaft. Die Nachhaltigkeit von ländlichen Entwicklungsprojekten wird damit maßgeblich verbessert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit wird eine gemeinsame Optimierung der Hybrid-Betriebsstrategie und des Verhaltens des Verbrennungsmotors vorgestellt. Die Übernahme von den im Steuergerät verwendeten Funktionsmodulen in die Simulationsumgebung für Fahrzeuglängsdynamik stellt eine effiziente Applikationsmöglichkeit der Originalparametrierung dar. Gleichzeitig ist es notwendig, das Verhalten des Verbrennungsmotors derart nachzubilden, dass das stationäre und das dynamische Verhalten, inklusive aller relevanten Einflussmöglichkeiten, wiedergegeben werden kann. Das entwickelte Werkzeug zur Übertragung der in Ascet definierten Steurgerätefunktionen in die Simulink-Simulationsumgebung ermöglicht nicht nur die Simulation der relevanten Funktionsmodule, sondern es erfüllt auch weitere wichtige Eigenschaften. Eine erhöhte Flexibilität bezüglich der Daten- und Funktionsstandänderungen, sowie die Parametrierbarkeit der Funktionsmodule sind Verbesserungen die an dieser Stelle zu nennen sind. Bei der Modellierung des stationären Systemverhaltens des Verbrennungsmotors erfolgt der Einsatz von künstlichen neuronalen Netzen. Die Auswahl der optimalen Neuronenanzahl erfolgt durch die Betrachtung des SSE für die Trainings- und die Verifikationsdaten. Falls notwendig, wird zur Sicherstellung der angestrebten Modellqualität, das Interpolationsverhalten durch Hinzunahme von Gauß-Prozess-Modellen verbessert. Mit den Gauß-Prozess-Modellen werden hierbei zusätzliche Stützpunkte erzeugt und mit einer verminderten Priorität in die Modellierung eingebunden. Für die Modellierung des dynamischen Systemverhaltens werden lineare Übertragungsfunktionen verwendet. Bei der Minimierung der Abweichung zwischen dem Modellausgang und den Messergebnissen wird zusätzlich zum SSE das 2σ-Intervall der relativen Fehlerverteilung betrachtet. Die Implementierung der Steuergerätefunktionsmodule und der erstellten Steller-Sensor-Streckenmodelle in der Simulationsumgebung für Fahrzeuglängsdynamik führt zum Anstieg der Simulationszeit und einer Vergrößerung des Parameterraums. Das aus Regelungstechnik bekannte Verfahren der Gütevektoroptimierung trägt entscheidend zu einer systematischen Betrachtung und Optimierung der Zielgrößen bei. Das Ergebnis des Verfahrens ist durch das Optimum der Paretofront der einzelnen Entwurfsspezifikationen gekennzeichnet. Die steigenden Simulationszeiten benachteiligen Minimumsuchverfahren, die eine Vielzahl an Iterationen benötigen. Um die Verwendung einer Zufallsvariablen, die maßgeblich zur Steigerung der Iterationanzahl beiträgt, zu vermeiden und gleichzeitig eine Globalisierung der Suche im Parameterraum zu ermöglichen wird die entwickelte Methode DelaunaySearch eingesetzt. Im Gegensatz zu den bekannten Algorithmen, wie die Partikelschwarmoptimierung oder die evolutionären Algorithmen, setzt die neu entwickelte Methode bei der Suche nach dem Minimum einer Kostenfunktion auf eine systematische Analyse der durchgeführten Simulationsergebnisse. Mit Hilfe der bei der Analyse gewonnenen Informationen werden Bereiche mit den bestmöglichen Voraussetzungen für ein Minimum identifiziert. Somit verzichtet das iterative Verfahren bei der Bestimmung des nächsten Iterationsschrittes auf die Verwendung einer Zufallsvariable. Als Ergebnis der Berechnungen steht ein gut gewählter Startwert für eine lokale Optimierung zur Verfügung. Aufbauend auf der Simulation der Fahrzeuglängsdynamik, der Steuergerätefunktionen und der Steller-Sensor-Streckenmodelle in einer Simulationsumgebung wird die Hybrid-Betriebsstrategie gemeinsam mit der Steuerung des Verbrennungsmotors optimiert. Mit der Entwicklung und Implementierung einer neuen Funktion wird weiterhin die Verbindung zwischen der Betriebsstrategie und der Motorsteuerung erweitert. Die vorgestellten Werkzeuge ermöglichten hierbei nicht nur einen Test der neuen Funktionalitäten, sondern auch eine Abschätzung der Verbesserungspotentiale beim Verbrauch und Abgasemissionen. Insgesamt konnte eine effiziente Testumgebung für eine gemeinsame Optimierung der Betriebsstrategie und des Verbrennungsmotorverhaltens eines Hybridfahrzeugs realisiert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das ursprünglich in S. cerevisiae identifizierte Urm1 stellt aufgrund seiner dualen Funktionsweise ein besonderes UBL dar. In einem Prozess, der als Urmylierung bezeichnet wird, kann es ähnlich dem Ubiquitin kovalent mit anderen Proteinen verknüpft werden. Zusätzlich fungiert es aber auch als Schwefelträger, der an der Thiolierung des wobble-Uridins bestimmter cytoplasmatischer tRNAs beteiligt ist. Während neuere Untersuchungen zeigen, dass die Urm1-abhängige tRNA-Thiolierung zu einer effizienten Translation in Eukaryoten beiträgt, ist die Bedeutung der Urmylierung immer noch unklar. Um die Funktion der Urm1-vermittelten Proteinmodifikation weiter aufzuklären, wurde die Urmylierung des Peroxiredoxins Ahp1 im Rahmen dieser Arbeit näher untersucht. Es konnte demonstriert werden, dass Ahp1 nicht nur als Monomer, sondern auch als Dimer urmyliert vorliegt. Dies deutet darauf hin, dass die Urmylierung mit dem peroxidatischen Zyklus von Ahp1 verknüpft ist. Diese Annahme konnte durch die Untersuchung der Modifikation verschiedener ahp1-Punktmutanten bestätigt werden. Hierbei ließ sich ebenfalls zeigen, dass das Peroxiredoxin wahrscheinlich auch an alternativen Lysinresten urmyliert werden kann. Trotzdem bleibt unklar, inwiefern die Funktionalität von Ahp1 durch die Urm1-Konjugation beeinträchtigt wird. So konnte ein Einfluss der Urmylierung auf die Ahp1-vermittelte Entgiftung des Alkylhydroperoxids t-BOOH nicht festgestellt werden. Ein weiterer Schwerpunkt dieser Arbeit war die Untersuchung einer möglichen mechanistischen Verknüpfung beider Urm1-Funktionen. Es ließ sich zeigen, dass nicht nur Schwefelmangel, sondern auch ein Verlust der Schwefeltransferase Tum1 zu einer drastischen Reduktion der Urm1-Konjugation führt. Demnach wird die Urmylierung wahrscheinlich über denselben Schwefeltransferweg vermittelt, der ebenfalls zur tRNA-Thiolierung beiträgt. Trotzdem ist der Schwefeltransfer, der zur Urm1-Aktivierung führt, womöglich komplexer als bisher angenommen. Wurden die vermuteten katalytischen Cysteine des Urm1-Aktivatorproteins Uba4 mutiert oder dessen C-terminale RHD entfernt, waren eine gehemmte Urmylierung und tRNA-Thiolierung weiterhin nachweisbar. Somit scheint ein Schwefeltransfer auf Urm1 auch ohne direkte Beteiligung von Uba4 möglich zu sein. In dieser Arbeit ließ sich außerdem zeigen, dass Urm1 in Hefe durch sein humanes Homolog funktional ersetzt werden kann. Dies ist ein Hinweis dafür, dass der Urm1-Weg in allen Eukaryoten gleich funktioniert und konserviert ist. Darüber hinaus scheint für die Urmylierung auch eine Konservierung der Substratspezifität gegeben zu sein. Der Nachweis einer Uba4-Urmylierung in Hefe könnte durchaus darauf hindeuten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Körper in der Kunst ist grundsätzlich eine Darstellung der Rebellion. Die Body-Art der 1990er unterscheidet sich in ihren spezifischen Erscheinungsformen deutlich von der Happening- und Performancekunst ihrer Vorläuferbewegung in den siebziger Jahren (Manifest Body Art 1974, François Pluchart 1937-1988). Mit dem Titel BodyArt-X- erfolgt ein Hinweis auf die Betrachtung einer abgrenzbaren Künstlergeneration, die in ihren zwiespältigen Selbstkonstruktionen die zunehmenden medialen Einflüsse dokumentiert. Im Mittelpunkt der wissenschaftlichen Analyse steht die Körperkunst der neunziger Jahre und deren eigene ästhetische Formensprache. Die Polymorphie der permanenten Umgestaltung wird mit der unbekannten Variable –X- im Titel zum Ausdruck gebracht. Die wissenschaftliche Grundlage bilden die Negation und die beginnende Entmaterialisierung innerhalb der Moderne und Postmoderne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die RNA-Interferenz (RNAi) ist ein in Eukaryoten weit verbreiteter Mechanismus, der die transkriptionelle oder posttranskriptionelle Stilllegung von Genen beschreibt. Die Spezifität wird dabei durch die Sequenz einer kleinen, nicht-kodierenden RNA gewährleistet. Diese RNA leitet einen Effektorkomplex, dessen Zentrum immer von einem Argonautenprotein gebildet wird, üblicherweise zu einer komplementären mRNA. In der Folge kommt es zum Abbau des Transkripts oder zur Inhibierung der Translation. Aktuelle Veröffentlichungen konnten zudem das Aktivitätsprofil der Argonautenproteine beträchtlich erweitern: Im Zellkern vorkommende Argonautenproteine wurden beispielsweise mit Spleißvorgängen, der Promotorkontrolle von Genen und der DNA-Reparatur in Verbindung gebracht. In den letzten Jahren konnten weitreichende Kenntnisse bezüglich der Kontrolle einiger transposabler Elemente durch RNAi sowie der Biogenese kleiner regulatorischer RNAs in Dictyostelium discoideum und anderen Organismen gewonnen werden. Ein Fokus dieser Arbeit lag zunächst auf der Charakterisierung des Argonautenproteins AgnB und der Identifikation von Interaktionspartnern. Es konnte gezeigt werden, dass AgnB zumindest partiell im Zellkern der Amöbe lokalisiert und dort vermutlich regulatorische Aufgaben wahrnimmt. Gestützt wurde diese Annahme durch die massenspektrometrische und Western Blot basierte Detektion nukleärer Bindungspartner. Weiterführende Analysen konnten AgnB zudem als positiven Regulator für drei entwicklungsregulierte Gene beschreiben und so die Verbindung zum Prozess der RNA activation in der Amöbe herstellen. Identifizierte posttranslationale Modifikationen könnten diesbezüglich die Aktivität des Argonauten steuern. Mit Hilfe von Crosslink-RNA-Immunopräzipitation und anschließender Hochdurchsatz-sequenzierung oder der Northern Blot basierten Auswertung konnte eine Assoziation von AgnB und der Class I RNAs gezeigt werden. Diese Klasse umfasst nicht-kodierende RNAs mit einer Länge von etwa 42 bis 65 Nukleotiden und wurde bisher nicht als Substrat für die RNAi-Maschinerie in D. discoideum angesehen. Ein weiterer Teil dieser Arbeit beschäftigte sich mit dem Einfluss von AgnA und AgnB auf die Promotorbereiche des D. discoideum Retrotransposons DIRS-1. Im Verlauf der Untersuchungen konnte beobachtet werden, dass die Anordnung entgegengesetzt operierender DIRS-1 Promotor-sequenzen für die Stilllegung eines Reportergens ausreichend war. Darauf aufbauend konnte ein DIRS-1 basiertes knockdown System etabliert werden. Mit Hilfe dieses Systems konnten die Proteinmengen ausgewählter Zielgene so effektiv reduziert werden, dass die entsprechenden Stämme den Phänotyp des korrespondierenden knockout Stammes zeigten. Darüber hinaus war es möglich die Proteinreduktion zu modulieren, um so beispielsweise dosisabhängige Effekte zu registrieren. Vorangegangene Arbeiten zur Biogenese von micro (mi)RNAs konnten das RNA-bindende Protein RbdB als eine Hauptkomponente für die Prozessierung maturer miRNAs identifizieren. Der miRNA defiziente RbdB- Stamm wurde in dieser Arbeit zur Identifikation putativer miRNA Ziele genutzt. Dazu wurde sowohl das Transkriptom des D. discoideum Wildtyps als auch des rbdB knockout Stammes in hohem Durchsatz sequenziert, um so differentiell exprimierte Gene zu detektieren. Vielversprechende Kandidaten wurden mittels qRT-PCR verifiziert. Dabei wurde unter anderem ein putativer Transkriptionsfaktor als miRNA target identifiziert, der eine Vielzahl weiterer Gene regulieren könnte. Abschließend konnte in dieser Arbeit gezeigt werden, dass RbdB ebenfalls für die Generierung von small interfering (si)RNAs aus strukturierten Loci von Bedeutung ist. Dies weist auf mindestens zwei unterschiedliche Mechanismen zur siRNA Prozessierung in D. discoideum hin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wird ein Prozess für den frühen aerothermodynamischen Entwurf von Axialturbinen konzipiert und durch Kopplung einzelner Computerprogramme im DLR Göttingen realisiert. Speziell für die Erstauslegung von Geometrien und die Vorhersage von globalen Leistungsdaten beliebiger Axialturbinen wurde ein neues Programm erzeugt. Dessen effiziente Anwendung wird mit einer zu diesem Zweck konzipierten grafischen Entwurfsumgebung ausgeführt. Kennzeichnend für den Vorentwurfsprozess in dieser Arbeit ist die Anwendung von ein- und zweidimensionaler Strömungssimulation sowie der hohe Grad an Verknüpfung der verwendeten Programme sowohl auf prozesstechnischer wie auch auf datentechnischer Ebene. Dabei soll dem sehr frühen Entwurf eine deutlich stärkere Rolle zukommen als bisher üblich und im Gegenzug die Entwurfszeit mit höher auflösenden Vorentwurfsprogrammen reduziert werden. Die Anwendung der einzelnen Programme im Rahmen von Subprozessen wird anhand von exemplarischen Turbinenkonfigurationen in der Arbeit ebenso dargestellt, wie die Validierung des gesamten Entwurfsprozesses anhand der Auslegung einer folgend realisierten und erfolgreich operierenden Axialturbine eines Triebwerkssimulators für Flugzeug-Windkanalmodelle (TPS). Neben der Erleichterung von manueller Entwurfstätigkeit durch grafische Benutzerinteraktion kommt in einzelnen Subprozessen eine automatisierte Mehrziel-Optimierung zum Einsatz.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit wird die Herstellung von miniaturisierten NIR-Spektrometern auf Basis von Fabry-Pérot (FP) Filter Arrays behandelt. Bisher ist die kostengünstige Strukturierung von homogenen und vertikal erweiterten Kavitäten für NIR FP-Filter mittels Nanoimprint Technologie noch nicht verfügbar, weil die Qualität der Schichten des Prägematerials unzureichend ist und die geringe Mobilität der Prägematerialien nicht ausreicht, um die vertikal erweiterten Kavitäten zu füllen. Diese Arbeit konzentriert sich auf die Reduzierung des technischen Aufwands zur Herstellung von homogenen und vertikal erweiterten Kavitäten. Zur Strukturierung der Kavitäten wird ein großflächiger substratkonformer UV-Nanoimprint Prozess (SCIL - Substrate Conformal Imprint Lithoghaphy) verwendet, der auf einem Hybridstempel basiert und Vorteile von harten und weichen Stempeln vereint. Um die genannten Limitierungen zu beseitigen, werden alternative Designs der Kavitäten untersucht und ein neues Prägematerial eingesetzt. Drei Designlösungen zur Herstellung von homogenen und erweiterten Kavitäten werden untersucht und verglichen: (i) Das Aufbringen des Prägematerials mittel mehrfacher Rotationsbeschichtung, um eine höhere Schichtdicke des Prägematerials vor dem Prägeprozess zu erzeugen, (ii) die Verwendung einer hybriden Kavität bestehend aus einer strukturierten Schicht des Prägematerials eingebettet zwischen zwei Siliziumoxidschichten, um die Schichtdicke der organischen Kavität zu erweitern und (iii) die Optimierung des Prägeprozesses durch Verwendung eines neuen Prägematerials. Die mit diesen drei Ansätzen hergestellten FP-Filter Arrays zeigen, hohe Transmissionen (beste Transmission > 90%) und kleine Linienbreiten (Halbwertsbreiten <5 nm).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Dissertation geht von der Überlegung aus, dass ein Wandel im deutschen Bildungssystem aufgrund kinderrechtlicher und demokratischer Überlegungen eine essenzielle Zukunftsaufgabe ist. Dies geschieht im Besonderen vor dem Hintergrund kinderrechtlicher Forderungen, wie sie beispielsweise aus dem Status Deutschlands als Mitgliedsland der UN-Kinderrechtskonvention und des UN-Übereinkommens über die Rechte von Menschen mit Behinderung entstehen: Die Korrelation zwischen Herkunft und Bildungserfolg sowie die noch konzeptionell ungenügend entwickelten Ansätze zur Inklusion werden als bestimmend für die Diskussion erkannt. Die Arbeit vertritt die These, dass Lehrende eine zentrale Rolle in einem notwendigen Prozess der Umwandlung des deutschen Bildungssystems spielen können und nimmt in emanzipatorischer Absicht die Lehrenden als Zielgruppe in den Blick. Aufgrund der Struktur der Lehrendenausbildung wird zudem dafür argumentiert, entsprechende Veränderungen im Sinne ihrer Nachhaltigkeit und flächendeckenden Relevanz in der Lehrendenausbildung des ersten universitären Ausbildungsabschnittes zu verankern. Als Instrument, welches die Kriterien von Nachhaltigkeit und umfassender Relevanz erfüllt, werden die Standards für die Lehrerbildung im Bereich Bildungswissenschaften benannt und theoretisch unterfüttert. Grundsätzlich spannt sich der Blickwinkel der Arbeit zwischen der Betrachtung der Struktur des Bildungssystems, des Wissens und Könnens von Lehrenden und Lernenden im Sinne der Kompetenzorientierung sowie der Haltung auf, welche Lehrende einnehmen. Dabei wird aufgezeigt, dass sich diese Faktoren wechselseitig auf vielfache Art und Weise beeinflussen. Auf der Basis dieser Überlegungen wird zunächst das deutsche Bildungssystem in seinen Strukturen beschrieben und die Lehrenden und Lernenden als Teilnehmende am Bildungsgeschehen skizziert. Ein exkursiver Vergleich dreier aufgrund kinderrechtlicher Parameter ausgewählter europäischer Bildungssysteme eruiert zudem, inwiefern die aufgezeigten Bestimmungsgrößen Struktur, Wissen/Können und Haltung Einfluss auf kinderrechtliche Verfasstheit des Bildungssystems nehmen, wobei die Grundprinzipien der UN-Kinderrechtskonvention hier als Messinstrument dienen. Davon ausgehend, erscheint pädagogische Haltung als eine wesentliche Einflussgröße, die im weiteren Verlauf der Arbeit im Sinne der kritischen Pädagogik zu einer Konzeption Pädagogischer Verantwortung verdichtet wird. Vor diesem Hintergrund erfolgt eine Betrachtung aktueller Problematiken im deutschen Bildungssystem, die sich an den in den Standards für die Lehrerbildung identifizierten Ausbildungsschwerpunkten orientiert und erneut die Prinzipien und rechtlichen Vorgaben der UN-Kinderrechtskonvention als Maßstab wählt. Auf der Grundlage dieser umfassenden Diskussion werden in einem sich anschließenden Analyseschritt Annotationen vorgenommen, die die Formulierungen der 11 Standards für die Lehrerbildung inhaltlich erweitern und ergänzen. In Verbindung mit einer Pädagogischen Verantwortung, die sich der Ausbildung kritischer Mündigkeit verpflichtet, werden die annotierten Standards als eine Möglichkeit der kinderrechtlichen (Selbst-)Evaluation von Lehrenden sowie als Instrument einer kinderrechtliche Gesichtspunkte fokussierenden Lehrendenbildung verstanden und dargestellt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mit der Einführung der Bildungsstandards für den mittleren Schulabschluss im Fach Physik ist vor allem der Prozess der Erkenntnisgewinnung stärker in den Mittelpunkt didaktischer und unterrichtlicher Arbeit gerückt. Damit erhält insbesondere das Experiment eine noch größere Rolle für den naturwissenschaftlichen Unterricht als ihm bereits vor der Einführung zukam. Im erkenntnistheoretischen Sinn gilt es neben der Entwicklung von Fragestellungen als eine der zentralen naturwissenschaftlichen Arbeitsweisen in der Physik. Ein besonderes Potential für den Physikunterricht bietet in diesem Zusammenhang das Schülerexperiment, dem trotz umstrittener Wirksamkeit zahlreiche Vorzüge zugeschrieben werden können. Neben der Förderung von praktischen experimentellen Fähigkeiten zählen dazu vor allem die Einführung in naturwissenschaftliche Denk- und Arbeitsprozesse und die Steigerung der Motivation bei den Lernenden. Um als Lehrperson konkret mit den auftretenden Problemen im Unterricht umgehen zu können und die Schülerinnen und Schüler angesichts wachsender Heterogenität individuell fördern zu können, ist es jedoch unerlässlich, über die Bandbreite der Schwierigkeiten Bescheid zu wissen und diese wiederum bei der Unterrichtsplanung zu berücksichtigen. Daher sollen im Rahmen dieser Arbeit Schüler-Versuchsprotokolle im Hinblick auf mögliche Schwierigkeiten der Lernenden analysiert werden. Die auszuwertenden Protokolle sind bereits im Rahmen des DiSiE-Projektes der Universität Kassel, das sich mit der Diagnose von Schülerschwierigkeiten beim eigenständigen Experimentieren beschäftigt, entstanden und wurden von Schülerinnen und Schüler während der Bearbeitung einer Experimentieraufgabe zum Hook’schen Gesetz angefertigt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Fähigkeit, geschriebene Texte zu verstehen, d.h. eine kohärente mentale Repräsentation von Textinhalten zu erstellen, ist eine notwendige Voraussetzung für eine erfolgreiche schulische und außerschulische Entwicklung. Es ist daher ein zentrales Anliegen des Bildungssystems Leseschwierigkeiten frühzeitig zu diagnostizieren und mithilfe zielgerichteter Interventionsprogramme zu fördern. Dies erfordert ein umfassendes Wissen über die kognitiven Teilprozesse, die dem Leseverstehen zugrunde liegen, ihre Zusammenhänge und ihre Entwicklung. Die vorliegende Dissertation soll zu einem umfassenden Verständnis über das Leseverstehen beitragen, indem sie eine Auswahl offener Fragestellungen experimentell untersucht. Studie 1 untersucht inwieweit phonologische Rekodier- und orthographische Dekodierfertigkeiten zum Satz- und Textverstehen beitragen und wie sich beide Fertigkeiten bei deutschen Grundschüler(inne)n von der 2. bis zur 4. Klasse entwickeln. Die Ergebnisse legen nahe, dass beide Fertigkeiten signifikante und eigenständige Beiträge zum Leseverstehen leisten und dass sich ihr relativer Beitrag über die Klassenstufen hinweg nicht verändert. Darüber hinaus zeigt sich, dass bereits deutsche Zweitklässler(innen) den Großteil geschriebener Wörter in altersgerechten Texten über orthographische Vergleichsprozesse erkennen. Nichtsdestotrotz nutzen deutsche Grundschulkinder offenbar kontinuierlich phonologische Informationen, um die visuelle Worterkennung zu optimieren. Studie 2 erweitert die bisherige empirische Forschung zu einem der bekanntesten Modelle des Leseverstehens—der Simple View of Reading (SVR, Gough & Tunmer, 1986). Die Studie überprüft die SVR (Reading comprehension = Decoding x Comprehension) mithilfe optimierter und methodisch stringenter Maße der Modellkonstituenten und überprüft ihre Generalisierbarkeit für deutsche Dritt- und Viertklässler(innen). Studie 2 zeigt, dass die SVR einer methodisch stringenten Überprüfung nicht standhält und nicht ohne Weiteres auf deutsche Dritt- und Viertklässler(innen) generalisiert werden kann. Es wurden nur schwache Belege für eine multiplikative Verknüpfung von Dekodier- (D) und Hörverstehensfertigkeiten (C) gefunden. Der Umstand, dass ein beachtlicher Teil der Varianz im Leseverstehen (R) nicht durch D und C aufgeklärt werden konnte, deutet darauf hin, dass das Modell nicht vollständig ist und ggf. durch weitere Komponenten ergänzt werden muss. Studie 3 untersucht die Verarbeitung positiv-kausaler und negativ-kausaler Kohärenzrelationen bei deutschen Erst- bis Viertklässler(inne)n und Erwachsenen im Lese- und Hörverstehen. In Übereinstimmung mit dem Cumulative Cognitive Complexity-Ansatz (Evers-Vermeul & Sanders, 2009; Spooren & Sanders, 2008) zeigt Studie 3, dass die Verarbeitung negativ-kausaler Kohärenzrelationen und Konnektoren kognitiv aufwändiger ist als die Verarbeitung positiv-kausaler Relationen. Darüber hinaus entwickelt sich das Verstehen beider Kohärenzrelationen noch über die Grundschulzeit hinweg und ist für negativ-kausale Relationen am Ende der vierten Klasse noch nicht abgeschlossen. Studie 4 zeigt und diskutiert die Nützlichkeit prozess-orientierter Lesetests wie ProDi- L (Richter et al., in press), die individuelle Unterschiede in den kognitiven Teilfertigkeiten des Leseverstehens selektiv erfassen. Hierzu wird exemplarisch die Konstruktvalidität des ProDi-L-Subtests ‚Syntaktische Integration’ nachgewiesen. Mittels explanatorischer Item- Repsonse-Modelle wird gezeigt, dass der Test Fertigkeiten syntaktischer Integration separat erfasst und Kinder mit defizitären syntaktischen Fertigkeiten identifizieren kann. Die berichteten Befunde tragen zu einem umfassenden Verständnis der kognitiven Teilfertigkeiten des Leseverstehens bei, das für eine optimale Gestaltung des Leseunterrichts, für das Erstellen von Lernmaterialien, Leseinstruktionen und Lehrbüchern unerlässlich ist. Darüber hinaus stellt es die Grundlage für eine sinnvolle Diagnose individueller Leseschwierigkeiten und für die Konzeption adaptiver und zielgerichteter Interventionsprogramme zur Förderung des Leseverstehens bei schwachen Leser(inne)n dar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Kern der vorliegenden Arbeit ist die Modellierung komplexer Webapplikationen mit dem Story-Driven-Modeling Ansatz.Ziel ist es hierbei,die komplette Applikation allein durch die Spezifikation von Modellen zu entwickeln. Das händische Erstellen von Quelltext ist nicht notwendig. Die vorliegende Arbeit zeigt sowohl den Forschungsweg, der die angestrebte Modellierung von Webapplikationen ermöglicht, als auch die resultierenden Ergebnisse auf. Zur Unterstützung des Entwicklungsprozesses wird weiterhin ein modellgetriebener Softwareentwicklungsprozess vorgestellt, der die Modellierung einer Webapplikation von der Aufnahme der Anforderungen, bis zur abschließenden Erzeugung des Quelltextes durch Codegenerierung aus den spezifizierten Modellen, abdeckt. Für den definierten Prozess wird ferner Werkzeugunterstützung innerhalb der Fujaba Toolsuite bereitgestellt. Im Rahmen der vorliegenden Arbeit wurde die bestehede Toolsuite hierzu um alle zur Prozessunterstützung notwendigen Werkzeuge erweitert. Darüber hinaus wurden im Rahmen der vorliegenden Arbeit die in Fujaba bestehenden Werkzeuge erweitert, um neben den klassischen Möglichkeiten zur Modellierung komplexer Java-Applikationen auch die Erzeugung von Webapplikationen zu ermöglichen. Neben der genauen Beschreibung des Entwicklungsprozesses werden im Rahmen dieser Arbeit die entstehenden Webapplikationen mit ihren spezifischen Eigenschaften genau beschrieben. Zur Erzeugung dieser Applikationen wird neben dem Entwicklungsprozess die Diagrammart der Workflowdiagramme eingeführt und beschrieben. Diese Diagramme dienen der Abbildung des intendierten Userworkflows der Applikation im Rahmen der Anforderungsanalyse und stellen im weiteren Entwicklungsverlauf ein dediziertes Entwicklungsartefakt dar. Basierend auf den Workflowdiagrammen werden sowohl die grafische Benutzerschnittstelle der Webapplikation beschrieben, als auch ein Laufzeitsystem initialisiert, welches basierend auf den im Workflowdiagramm abgebildeten Abläufen die Anwendung steuert. Dieses Laufzeitsystem wurde im Rahmen der vorliegenden Arbeit entwickelt und in der Prozessunterstützung verankert. Alle notwendigen Änderungen und Anpassungen und Erweiterungen an bereits bestehenden Teilen der Fujaba Toolsuite werden unter dem Aspekt der Erstellung clientseitiger Datenmodelle einer Webapplikation genau beschrieben und in Verbindung mit den zu erfüllenden Voraussetzungen erläutert. In diesem Zusammenhang wird ebenfalls beschrieben, wie Graphtransformationen zur Umsetzung von Businesslogik auf der Clientseite einer Webapplikation eingesetzt werden können und auf welche Weise Datenmodelländerungen zwischen unterschiedlichen Clients synchronisiert werden können. Insgesamt zeigt die vorliegende Arbeit einen Weg auf, den bestehenden Ansatz des StoryDriven-Modeling für die Erzeugung von Webapplikationen einzusetzen. Durch die im Rahmen dieser Arbeit beschriebene Herangehensweise werden hierbei gleichzeitig Webbrowser zu einer neuen Klasse von Graphersetzungs-Engines erweitert, indem Graphtransformationen innerhalb der Ajax-Engine des Browsers ausgeliefert und ausgeführt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit untersucht die Integrierbarkeit von Photodioden und zugehörigen Signalvorverarbeitungen mit dem preisgünstigen Standard-0,5-µm-Prozess bzw. 0,35-µm-CMOS-Prozess. Als Pilotanwendung wurde die Realisierung eines flexiblen Ortfrequenzfilters vorgesehen, der durch die Verschaltung und die Wichtung von integrierten Photodioden gebildet wird. Mit einem integrierten optoelektronischen Bauteil (Opto-ASIC) sollte die Funktionaliät eines CORREVIT®-Sensors (der Firma Corrsys 3D Sensors) aus Prismengitter, Feldlinse, Photodioden und Vorverstärker nachgebildet und seine Funktionalität erweitert werden. Dazu sollte dieser Opto-ASIC eine Photodiodenzeile enthalten, die im Unterschied zu dem bestehenden CORREVIT®-Sensor durch die programmierbare Verschaltung und die Wichtung der Signale der Photodioden unterschiedliche Ortsfrequenz-Bandpassfilter erzeugen sollte, um unterschiedliche Gitterkonstanten (Ortsfrequenzen) zur optimalen Anpassung des Sensors an die jeweilige Oberfläche realisieren zu können. Neue Ortsfrequenzfilter können mehrere Fehlereinflüsse handelsüblicher Sensoren größtenteils vermeiden. Dazu sollten die Filter symmetrisch sein und die Summen ihrer Wichtungen sollten zu Null werden. Die Photodioden als Elementarbauteile der Ortsfilter werden genau untersucht und optimiert, da die Eigenschaften der Photodioden die Qualität der Messsignale stark beeinflussen. Mit einem neuen entwickelten Messverfahren lässt sich die lokale Empfindlichekeit auf dem ASIC mit einer Auflösung ab 0,5 µm messen. Durch diese Messungen konnte die optimale Geometrie festgelegt werden. Es konnte gezeigt werden, dass die Empfindlichkeit der Photodioden in den Randbereichen (lateraler Bereich) erheblich höher ist als im Tiefenbereich (vertikaler Bereich). Es wurde deshalb vorgeschlagen, die Photodioden, die dann abhängig von der Struktur als Fingerdiode oder geschlitzte Diode bezeichnet wurden, in viele Teilflächen zu unterteilen. Zur Realisierung des Ortsfrequenzfilters wurde ein Schaltungssystem zur Signalverarbeitung und Verschaltung der Photodioden entwickelt. Dieser Schaltkreis setzt sich aus Transimpedanzverstärker, Diffenzverstärker, Schalter und einem Schieberegister zusammen.