990 resultados para Kreuzorden mit dem Roten Sterne.


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In dieser Arbeit wird ein Verfahren zum Einsatz neuronaler Netzwerke vorgestellt, das auf iterative Weise Klassifikation und Prognoseschritte mit dem Ziel kombiniert, bessere Ergebnisse der Prognose im Vergleich zu einer einmaligen hintereinander Ausführung dieser Schritte zu erreichen. Dieses Verfahren wird am Beispiel der Prognose der Windstromerzeugung abhängig von der Wettersituation erörtert. Eine Verbesserung wird in diesem Rahmen mit einzelnen Ausreißern erreicht. Verschiedene Aspekte werden in drei Kapiteln diskutiert: In Kapitel 1 werden die verwendeten Daten und ihre elektronische Verarbeitung vorgestellt. Die Daten bestehen zum einen aus Windleistungshochrechnungen für die Bundesrepublik Deutschland der Jahre 2011 und 2012, welche als Transparenzanforderung des Erneuerbaren Energiegesetzes durch die Übertragungsnetzbetreiber publiziert werden müssen. Zum anderen werden Wetterprognosen, die der Deutsche Wetterdienst im Rahmen der Grundversorgung kostenlos bereitstellt, verwendet. Kapitel 2 erläutert zwei aus der Literatur bekannte Verfahren - Online- und Batchalgorithmus - zum Training einer selbstorganisierenden Karte. Aus den dargelegten Verfahrenseigenschaften begründet sich die Wahl des Batchverfahrens für die in Kapitel 3 erläuterte Methode. Das in Kapitel 3 vorgestellte Verfahren hat im modellierten operativen Einsatz den gleichen Ablauf, wie eine Klassifikation mit anschließender klassenspezifischer Prognose. Bei dem Training des Verfahrens wird allerdings iterativ vorgegangen, indem im Anschluss an das Training der klassenspezifischen Prognose ermittelt wird, zu welcher Klasse der Klassifikation ein Eingabedatum gehören sollte, um mit den vorliegenden klassenspezifischen Prognosemodellen die höchste Prognosegüte zu erzielen. Die so gewonnene Einteilung der Eingaben kann genutzt werden, um wiederum eine neue Klassifikationsstufe zu trainieren, deren Klassen eine verbesserte klassenspezifisch Prognose ermöglichen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In früheren Experimenten konnte gezeigt werden, dass die sekundären Botenstoffe cAMP, cGMP und IP3 in der olfaktorischen Signaltransduktionskaskade bei Manduca sexta involviert sind. Während cGMP Perfusionen in die Antenne die Pheromonwahrnehmung tageszeitabhängig adaptierten, führten cAMP Perfusionen zu einer tageszeitabhängigen Sensitisierung, ähnlicher der von Octopamin (OA). Daher wurde hypothetisiert, dass eine tageszeitabhängige Oszillation antennaler OA Level sowie der intrazelluläre Kalziumkonzentration in einer Schwankung von sekundären Botenstoffen resultieren könnte. Diese Hypothese wurde mittels biochemischen Nachweißverfahren in der Antenne von M. sexta und Rhyparobia maderae überprüft. Tatsächlich konnten in der Antenne des Tabakschwärmers tageszeitabhängige Unterschiede in der OA-, cAMP- und IP3-, aber nicht in der cGMP Konzentration, nachgewiesen werden. Während die cAMP- und OA Oszillationen einander sehr ähnelten und die Maxima in der Paarungsphase aufzeigten, korrelierte der IP3 Verlauf sehr stark mit dem Flug- bzw. Fressverhalten. Diese Korrelationen konnten auch in der Madeira Schabe beobachtet werden, in der darüber hinaus gezeigt werden konnte, dass antennale cAMP- und IP3 Level von dem circadianen Uhrwerk gesteuert werden. Zudem wurde herausgefunden, dass OA die cAMP- und teilweise auch die IP3- Spiegel reguliert. Demgegenüber beeinflusste Kalzium die Konzentration aller untersuchten sekundären Botenstoffe. Daher wird angenommen, dass die intrazelluläre Kalziumkonzentration aber auch der antennale OA Level kritische Faktoren bei der Regelung der olfaktorischen Sensitivität sind. Da Oszillationen von sekundären Botenstoffen in mutmaßlichen, peripheren Schrittmacher nachgewiesen wurden, wurde untersucht, ob sie auch im circadianen Schrittmacher der Madeira Schabe oszillieren und ob das Neuropeptid pigment-dispersing factor (PDF), ein entscheidender Kopplungsfaktor des Uhrwerks in Insekten, diese Rhythmen generieren könnte. Es konnte gezeigt werden, dass PDF die cAMP Synthese steigert. Darüber hinaus wurden bimodale cAMP Oszillationen unter licht-dunkel Bedingungen beobachtet, welche unter konstanten Umweltbedingungen verblieben. Daher wird angenommen, dass PDF Freisetzung zelluläres cAMP erhöht über das das circadiane Uhrwerk synchronisiert wird.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich mit dem Werk des französischen Philosophen Gilles Deleuze (1925-1995), indem sie dessen vielfältig-pluralistisches, in mancher Hinsicht sogar heterogenes Denken in einen Zusammenhang mit vitalistischen Philosophien der ersten Hälfte des 20. Jahrhunderts stellt (an erster Stelle Henri Bergson, aber auch Hans Driesch und Jakob von Uexküll), um auf diese Weise – durch Vergleiche und Gegenüberstellungen - zu verdeutlichen, dass und inwiefern der Vitalismus in der Version von Deleuze unter dem Eindruck der Entwicklung der Biologie seit Darwin (für die hier besonders die wissenschaftsphilosophischen Überlegungen der französischen Molekularbiologen François Jacob und Jacques Monod herangezogen werden) nicht mehr in erster Linie naturphilosophisch verstanden werden kann, sondern experimentell. Das, womit hier gedanklich experimentiert wird, sind Intensitäten. Und Intensität – so wird dargelegt – ist der Schlüsselbegriff zum Verständnis von Deleuzes’ erstem philosophischen Hauptwerk „Differenz und Wiederholung“. Im Zeichen eines Denkens der Intensitäten versucht Deleuze etablierte Dualismen wie die von Natur (physis) und Kunst (techné), Mensch und Tier, Individualität und Allgemeinheit zu unterlaufen. Weil dieser Versuch sich selbst als ein – wie es in dem von Deleuze gemeinsam mit dem Psychiater Félix Guattari verfassten Buch „Tausend Plateaus“ heißt - Vorstoß in "eine Welt aus formlosen, gegenstandslosen und gesichtslosen Schnelligkeiten und Langsamkeiten" versteht, stellt sich mit der Frage nach den lebenspraktischen Aspekten dieses grenzüberschreitenden und Freiräume eröffnenden Vorhabens auch die nach den damit verbundenen Risiken und Nebenwirkungen. Zur Konkretisierung werden Beispiele aus der modernen Literatur (die Verzeitlichung des Denkens bei Marcel Proust, aber auch die existentielle Sprachskepsis Antonin Artauds), der bildenden Kunst (die Deformationskunst in der Malerei Francis Bacons) und der Moral- bzw. moralkritischen Philosophie (der Stoizismus als eine Art Kunst der Selbstverteidigung, Nietzsches Umwertung aller Werte als eine Kunst der Selbstüberbietung) erörtert. Was in diesen Praktiken stattfindet und zum Ausdruck gebracht wird, sind Zerreißproben, d. h. radikale Belastungen oder Erprobungen von Vermögen wie Sinnlichkeit, Einbildungskraft, Denken, weshalb diese Versuche mit Deleuze, der sich hier von den stilpsychologischen Untersuchungen des Kunsthistorikers Wilhelm Worringer hat inspirieren lassen, als Spielarten eines nichtorganischen Lebens zu verstehen sind. Sich darauf in einem ständigen Wechsel von Annäherung und Distanzierung einzulassen, macht das ausgeprägte Pathos der Philosophie aus, auf das man im Denken von Gilles Deleuze trifft.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Enterprise-Resource-Planning-Systeme (ERP-Systeme) bilden für die meisten mittleren und großen Unternehmen einen essentiellen Bestandteil ihrer IT-Landschaft zur Verwaltung von Geschäftsdaten und Geschäftsprozessen. Geschäftsdaten werden in ERP-Systemen in Form von Geschäftsobjekten abgebildet. Ein Geschäftsobjekt kann mehrere Attribute enthalten und über Assoziationen zu anderen Geschäftsobjekten einen Geschäftsobjektgraphen aufspannen. Existierende Schnittstellen ermöglichen die Abfrage von Geschäftsobjekten, insbesondere mit Hinblick auf deren Attribute. Die Abfrage mit Bezug auf ihre Position innerhalb des Geschäftsobjektgraphen ist jedoch über diese Schnittstellen häufig nur sehr schwierig zu realisieren. Zur Vereinfachung solcher Anfragen können semantische Technologien, wie RDF und die graphbasierte Abfragesprache SPARQL, verwendet werden. SPARQL ermöglicht eine wesentlich kompaktere und intuitivere Formulierung von Anfragen gegen Geschäftsobjektgraphen, als es mittels der existierenden Schnittstellen möglich ist. Die Motivation für diese Arbeit ist die Vereinfachung bestimmter Anfragen gegen das im Rahmen dieser Arbeit betrachtete SAP ERP-System unter Verwendung von SPARQL. Zur Speicherung von Geschäftsobjekten kommen in ERP-Systemen typischerweise relationale Datenbanken zum Einsatz. Die Bereitstellung von SPARQL-Endpunkten auf Basis von relationalen Datenbanken ist ein seit längerem untersuchtes Gebiet. Es existieren verschiedene Ansätze und Tools, welche die Anfrage mittels SPARQL erlauben. Aufgrund der Komplexität, der Größe und der Änderungshäufigkeit des ERP-Datenbankschemas können solche Ansätze, die direkt auf dem Datenbankschema aufsetzen, nicht verwendet werden. Ein praktikablerer Ansatz besteht darin, den SPARQL-Endpunkt auf Basis existierender Schnittstellen zu realisieren. Diese sind weniger komplex als das Datenbankschema, da sie die direkte Abfrage von Geschäftsobjekten ermöglichen. Dadurch wird die Definition des Mappings erheblich vereinfacht. Das ERP-System bietet mehrere Schnittstellen an, die sich hinsichtlich des Aufbaus, der Zielsetzung und der verwendeten Technologie unterscheiden. Unter anderem wird eine auf OData basierende Schnittstelle zur Verfügung gestellt. OData ist ein REST-basiertes Protokoll zur Abfrage und Manipulation von Daten. Von den bereitgestellten Schnittstellen weist das OData-Interface gegenüber den anderen Schnittstellen verschiedene Vorteile bei Realisierung eines SPARQL-Endpunktes auf. Es definiert eine Abfragesprache und einen Link-Adressierungsmechanismus, mit dem die zur Beantwortung einer Anfrage benötigten Service-Aufrufe und die zu übertragende Datenmenge erheblich reduziert werden können. Das Ziel dieser Arbeit besteht in der Entwicklung eines Verfahrens zur Realisierung eines SPARQL-Endpunktes auf Basis von OData-Services. Dazu wird zunächst eine Architektur vorgestellt, die als Grundlage für die Implementierung eines entsprechenden Systems dienen kann. Ausgehend von dieser Architektur, werden die durch den aktuellen Forschungsstand noch nicht abgedeckten Bereiche ermittelt. Nach bestem Wissen ist diese Arbeit die erste, welche die Abfrage von OData-Schnittstellen mittels SPARQL untersucht. Dabei wird als Teil dieser Arbeit ein neuartiges Konzept zur semantischen Beschreibung von OData-Services vorgestellt. Dieses ermöglicht die Definition von Abbildungen der von den Services bereitgestellten Daten auf RDF-Graphen. Aufbauend auf den Konzepten zur semantischen Beschreibung wird eine Evaluierungssemantik erarbeitet, welche die Auflösung von Ausdrücken der SPARQL-Algebra gegen semantisch annotierte OData-Services definiert. Dabei werden die Daten aller OData-Services ermittelt, die zur vollständigen Abarbeitung einer Anfrage benötigt werden. Zur Abfrage der relevanten Daten wurden Konzepte zur Erzeugung der entsprechenden OData-URIs entwickelt. Das vorgestellte Verfahren wurde prototypisch implementiert und anhand zweier Anwendungsfälle für die im betrachteten Szenario maßgeblichen Servicemengen evaluiert. Mit den vorgestellten Konzepten besteht nicht nur die Möglichkeit, einen SPARQL-Endpunkt für ein ERP-System zu realisieren, vielmehr kann jede Datenquelle, die eine OData-Schnittstelle anbietet, mittels SPARQL angefragt werden. Dadurch werden große Datenmengen, die bisher für die Verarbeitung mittels semantischer Technologien nicht zugänglich waren, für die Integration mit dem Semantic Web verfügbar gemacht. Insbesondere können auch Datenquellen, deren Integration miteinander bisher nicht oder nur schwierig möglich war, über Systeme zur föderierten Abfrage miteinander integriert werden.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ziel der vorliegenden Arbeit war es, den Mischfruchtanbau von Sommer- oder Wintererbsen und Getreide zu bewerten und die Eignung einer flachwendenden Bodenbearbeitung im ökologischen Erbsenanbau zu ermitteln. Weiterhin war im Rahmen dieser Arbeit beabsichtigt, den Einfluss einer mechanischen Bodenbelastung zur Saat auf die Leistungsfähigkeit von Sommererbsen in Reinsaat und Gemenge nach tief- (Pflug, 25-30 cm) und flachwendender (Stoppelhobel, 7-12 cm) Bodenbearbeitung zu untersuchen. Zu diesem Zweck wurden Feldversuche mit den Versuchsfaktoren Anbauform (Sommererbsen und Hafer in Reinsaat oder Gemenge), Pflugsystem (flach- und tiefwendend), mechanische Bodenbelastung (0 t; 2,6 t; 4,6 t Hinterradlast) und Standort (Köllitsch, Trenthorst) in 2009 und 2010 durchgeführt. Der Mischfruchtanbau zweier Wintererbsen-Sorten (E.F.B. 33: normalblättrig, buntblühend; James: halbblattlos, weißblühend) nach flach- und tiefwendender Bodenbearbeitung wurde am Standort Trenthorst in den Jahren 2009/10 und 2010/11 untersucht. Zur Untersuchung der Vorfruchtwirkung wurde im Anschluss an die Wintererbsen-Versuche Winterweizen angebaut. Ein Gefäßversuch und ein Bioassay wurde ergänzend zu den Mischfruchtversuchen mit Sommererbsen durchgeführt, um die Ursachen eines unterschiedlichen Unkrautunterdrückungsvermögens in Reinsaaten und Gemenge von Sommererbsen und Hafer bestimmen zu können. Mischfruchtbestände von Erbsen und Getreide unterdrückten annuelle Unkräuter stärker als Erbsen-Reinsaaten, was insbesondere bei halbblattlosen Erbsen zu beobachten war. Die Ergebnisse weisen darauf hin, dass eine stärkere unterirdische Interaktion zwischen Kulturpflanzen und Unkräutern für die stärkere Unkrautunterdrückung in Erbsen-Hafer-Gemengen im Vergleich zu Erbsen-Reinsaaten verantwortlich war. Die flachwendende Bearbeitung führte in Sommererbsen-Reinsaaten zu einem signifikant höheren Unkrautaufkommen, wohingegen in den Erbsen-Hafer-Gemengen eine vergleichbare (Köllitsch) oder signifikant höhere (Trenthorst) Verunkrautung nach flachwendender Bearbeitung vorhanden war. In den Wintererbsen-Versuchen waren keine signifikanten Unterschiede hinsichtlich des Unkrautaufkommens zwischen den Pflugsystemen festzustellen. Der Mischfruchtanbau von Wintererbsen und Triticale reduzierte den Befall mit der Grünen Erbsenblattlaus und verbesserte die Standfestigkeit der normalblättrigen Wintererbse, wohingegen kein positiver Effekt des Mischfruchtanbaus in Hinsicht auf Auswinterungsverluste der Wintererbsen und einen Befall mit dem Erbsenwickler festgestellt werden konnte. Die Mischfruchtbestände von Sommer- oder Wintererbsen und Getreidepartnern wiesen unter der Voraussetzung, dass keine Ertragsbildungsprobleme beim Getreide auftraten, höhere Gesamterträge im Vergleich zu den entsprechenden Erbsen-Reinsaaten auf. Die Getreidepartner unterdrückten in den Mischfruchtbeständen insbesondere die halbblattlosen Erbsen. Die flachwendende Bodenbearbeitung führte im Vergleich zur tiefwendenden Bearbeitung zu einer vergleichbaren oder signifikant besseren Ertragsleistung der Rein- und Mischfruchtbestände von Erbsen und Getreide. Die mechanische Bodenbelastung hat die Ertragsleistung und die Kornqualität der Kulturen im Jahr 2009 nicht beeinflusst. Im Jahr 2010 führte die mechanische Bodenbelastung, im Gegensatz zum Hafer, zu einer Reduzierung der Erbsen-Erträge um 12,1 % (2,6 t) und 20,8 % (4,6 t). Zudem nahmen der Rohproteingehalt der Erbsen und die Gesamterträge mit zunehmender mechanischer Bodenbelastung nach tiefwendender Bodenbearbeitung kontinuierlich ab, wohingegen nach flachwendender Bearbeitung keine signifikanten Unterschiede festgestellt wurden. Der Winterweizen, der nach den Rein- und Mischsaaten von E.F.B. 33 angebaut wurde (2010/11: 35,9; 2011/12: 20,1 dt TM ha-1), war dem Winterweizen nach den Rein- und Mischsaaten von James (2010/11: 23,8; 2011/12: 16,7 dt TM ha-1) ertraglich überlegen. Während im Jahr 2010/11 kein signifikanter Unterschied der Ertragsleistung der Nachfrucht Winterweizen in den beiden Pflugsystemen festgestellt wurde, führte die flachwendende Bodenbearbeitung im Jahr 2011/12 zu signifikant geringeren Winterweizen-Erträgen (12,9 dt TM ha-1) im Vergleich zur tiefwendenden Bodenbearbeitung (20,5 dt TM ha-1). Der metabolische Energiegehalt der weißblühenden Winter- (15,2 MJ kg-1) und Sommererbsen (15,7 MJ kg-1) lag signifikant über demjenigen der buntblühenden Wintererbsen-Sorte E.F.B. 33 (13,3 MJ kg-1). Das Pflugsystem hatte nur geringe Auswirkungen auf die Kornqualität und den energetischen Futterwert.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Spezifität und Effizienz zellulärer Signalprozesse wird durch die intrazelluläre Kompartimentierung von Signalmolekülen erreicht. A-Kinase-Ankerproteine (AKAPs) bilden eine Familie aus Gerüstproteinen, die zeitliche und räumliche Lokalisation der cAMP-abhängigen Proteinkinase (PKA) übernehmen. Die direkte Interaktion wird dabei über die Dimerisierungs- und Dockingdomäne (DD-Domäne) der regulatorischen Untereinheiten von PKA vermittelt. Das charakteristische strukturelle Merkmal bei kanonischen AKAPs ist eine amphipathische Helix. Es existiert allerdings auch eine kleine Gruppe von nicht-kanonischen AKAPs, deren Bindung an die DD-Domäne nicht über eine amphipathische Helix vermittelt wird. In dieser Arbeit wurden die zwei potentiellen nicht-kanonischen AKAPs Neurochondrin (neurite-outgrowth promoting protein) und Rack1 (receptor of activated C-kinase 1) charakterisiert. Neurochondrin, dessen Expression mit dem Neuriten-Wachstum in jungen Neuronen korreliert ist und das vermutlich eine entscheidende Funktion bei der Langzeitpotenzierung im Hippocampus übernimmt, zeigt in SPR-Bindungsstudien eine hochaffine, nanomolare Interaktion mit der R-Untereinheit Typ IIalpha von PKA. Kompetitionsanalysen mit dem AKAP-Disruptor-Peptid Ht 31 und Untersuchungen mit der isolierten DD-Domäne von RIIalpha bestätigen eine spezifische Interaktion. Das nicht-kanonische RII-Bindemotiv von Neurochondrin ist aus zwei Domänen aufgebaut, die einen hohen alpha-helikalen Anteil besitzen, aber keine amphipathische Helix bilden. Peptidbasierte Interaktionsstudien der einzelnen Domänen zeigen dennoch ebenfalls nanomolare Affinitäten zu RIIalpha. Rack1 ist ein etabliertes Gerüstprotein mit einer propellerartigen beta-Faltblattstruktur, für das bereits über 100 verschiedene Interaktionspartner beschrieben werden konnten. Die Integration von Rack1 in unterschiedliche Signalprozesse ist äußerst vielfältig. Um dabei die Spezifität jeder einzelnen Interaktion zu gewährleisten, sind individuelle Bindungsstrategien nötig. Die niedrigaffine Interaktion zur RIbeta-Untereinheit von PKA wird daher über multiple Bindestellen vermittelt. Die DD-Domäne von RIbeta übernimmt dabei eine spezifische Funktion, wie unter anderem durch Kompetitionsanalysen mit dem RI-spezifischen AKAP-Disruptor-Peptid RIAD gezeigt werden konnte. Die einzigartige Struktur der DD-Domäne generiert zudem ein Bindemotiv für Rack1, das Ähnlichkeiten mit der „Rack1 interacting-Domäne“ (RAID) von PDE4D5 aufweist. Sowohl Neurochondrin als auch Rack1 besitzen essenzielle neuronale Funktionen. Daher erweitert die Identifizierung der beiden neuen nicht-kanonischen AKAPs nicht nur die strukturelle Diversität der AKAP-Familie, sondern trägt zudem zum Verständnis der neuronalen Signalintegration von PKA bei.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Ursachen für die Piraterie am Horn von Afrika seien an Land zu suchen, konstatieren Vertreter aus Politik, der medialen Öffentlichkeit und den Sozialwissenschaften einhellig, wo mit Somalia der zerfallene Staat par excellence liegt. Anlässlich des gegenwärtigen Konflikts setzt sich das Papier kritisch mit dem allgegenwärtigen Konzept des Staatszerfalls auseinander. Ausgehend von der Feststellung, dass empirische Befunde die somalische Piraterie betreffend Grundannahmen der gängigen Zerfallsdiagnose und der daraus resultierenden Problemlösungsstrategien in Frage stellen, wird am Fall Somalia die Erkenntnisreichweite des Staatszerfallskonzepts an sich ausgelotet. Hierzu wird zunächst eine Bestandsaufnahme der theoretischen und methodischen Grundannahmen der Staatszerfallsforschung vollzogen und auf Operationalisierungspropleme des Forschungsstrangs hingewiesen. Das Papier kommt zu dem Ergebnis, dass der Forschungsstrang erstens zu einem einseitigen Fokus auf gesellschaftsinterne Faktoren bei der Ursachenergründung von Zerfallsprozessen neigt; zweitens tendiert die Staatszerfallsforschung zu einem reduktionistischen Akteursverständnis und sie verzichtet auf eine Analyse historisch-konkreter Herrschaftsverhältnisse und drittens verfährt sie nach einem ‘single-catch-all’-Prinzip, was eine Tendenz zur Homogenisierung unterschiedlicher empirischer Erscheinungen zur Folge hat. Diese analytischen Engführungen und Vagheiten sind dem normativen und ungeprüften Transfer des modernen Staatsbegriffs in den globalen Süden geschuldet, ebenso wie dem eurozentristischen Prozessverständnis, was den theoretischen Implikationen des Staatszerfallskonzepts zugrunde liegt. Das Konzept bietet gleichzeitig eine äußerst flexible Legitimationsfolie für interessengeleitete Außenpolitiken bishin zu Militärinterventionen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In der psycholinguistischen Forschung ist die Annahme weitverbreitet, dass die Bewertung von Informationen hinsichtlich ihres Wahrheitsgehaltes oder ihrer Plausibilität (epistemische Validierung; Richter, Schroeder & Wöhrmann, 2009) ein strategischer, optionaler und dem Verstehen nachgeschalteter Prozess ist (z.B. Gilbert, 1991; Gilbert, Krull & Malone, 1990; Gilbert, Tafarodi & Malone, 1993; Herbert & Kübler, 2011). Eine zunehmende Anzahl an Studien stellt dieses Zwei-Stufen-Modell von Verstehen und Validieren jedoch direkt oder indirekt in Frage. Insbesondere Befunde zu Stroop-artigen Stimulus-Antwort-Kompatibilitätseffekten, die auftreten, wenn positive und negative Antworten orthogonal zum aufgaben-irrelevanten Wahrheitsgehalt von Sätzen abgegeben werden müssen (z.B. eine positive Antwort nach dem Lesen eines falschen Satzes oder eine negative Antwort nach dem Lesen eines wahren Satzes; epistemischer Stroop-Effekt, Richter et al., 2009), sprechen dafür, dass Leser/innen schon beim Verstehen eine nicht-strategische Überprüfung der Validität von Informationen vornehmen. Ausgehend von diesen Befunden war das Ziel dieser Dissertation eine weiterführende Überprüfung der Annahme, dass Verstehen einen nicht-strategischen, routinisierten, wissensbasierten Validierungsprozesses (epistemisches Monitoring; Richter et al., 2009) beinhaltet. Zu diesem Zweck wurden drei empirische Studien mit unterschiedlichen Schwerpunkten durchgeführt. Studie 1 diente der Untersuchung der Fragestellung, ob sich Belege für epistemisches Monitoring auch bei Informationen finden lassen, die nicht eindeutig wahr oder falsch, sondern lediglich mehr oder weniger plausibel sind. Mithilfe des epistemischen Stroop-Paradigmas von Richter et al. (2009) konnte ein Kompatibilitätseffekt von aufgaben-irrelevanter Plausibilität auf die Latenzen positiver und negativer Antworten in zwei unterschiedlichen experimentellen Aufgaben nachgewiesen werden, welcher dafür spricht, dass epistemisches Monitoring auch graduelle Unterschiede in der Übereinstimmung von Informationen mit dem Weltwissen berücksichtigt. Darüber hinaus belegen die Ergebnisse, dass der epistemische Stroop-Effekt tatsächlich auf Plausibilität und nicht etwa auf der unterschiedlichen Vorhersagbarkeit von plausiblen und unplausiblen Informationen beruht. Das Ziel von Studie 2 war die Prüfung der Hypothese, dass epistemisches Monitoring keinen evaluativen Mindset erfordert. Im Gegensatz zu den Befunden anderer Autoren (Wiswede, Koranyi, Müller, Langner, & Rothermund, 2013) zeigte sich in dieser Studie ein Kompatibilitätseffekt des aufgaben-irrelevanten Wahrheitsgehaltes auf die Antwortlatenzen in einer vollständig nicht-evaluativen Aufgabe. Die Ergebnisse legen nahe, dass epistemisches Monitoring nicht von einem evaluativen Mindset, möglicherweise aber von der Tiefe der Verarbeitung abhängig ist. Studie 3 beleuchtete das Verhältnis von Verstehen und Validieren anhand einer Untersuchung der Online-Effekte von Plausibilität und Vorhersagbarkeit auf Augenbewegungen beim Lesen kurzer Texte. Zusätzlich wurde die potentielle Modulierung dieser Effeke durch epistemische Marker, die die Sicherheit von Informationen anzeigen (z.B. sicherlich oder vielleicht), untersucht. Entsprechend der Annahme eines schnellen und nicht-strategischen epistemischen Monitoring-Prozesses zeigten sich interaktive Effekte von Plausibilität und dem Vorhandensein epistemischer Marker auf Indikatoren früher Verstehensprozesse. Dies spricht dafür, dass die kommunizierte Sicherheit von Informationen durch den Monitoring-Prozess berücksichtigt wird. Insgesamt sprechen die Befunde gegen eine Konzeptualisierung von Verstehen und Validieren als nicht-überlappenden Stufen der Informationsverarbeitung. Vielmehr scheint eine Bewertung des Wahrheitsgehalts oder der Plausibilität basierend auf dem Weltwissen – zumindest in gewissem Ausmaß – eine obligatorische und nicht-strategische Komponente des Sprachverstehens zu sein. Die Bedeutung der Befunde für aktuelle Modelle des Sprachverstehens und Empfehlungen für die weiterführende Forschung zum Vehältnis von Verstehen und Validieren werden aufgezeigt.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Das Ziel der Dissertation ist die Analyse des Verlaufs und der Differenzierung der frühkindlichen motorischen und sozialen Entwicklung. Dazu wurden über einen Zeitraum von 16 Monaten zu drei Messzeitpunkten die Entwicklungsdaten von insgesamt 138 Kindern erhoben. Bei dieser als Feldstudie konzipierten Untersuchung liegt der Fokus auf einer Analyse der kausalen Beziehung beider Entwicklungsbereiche. Häufig formulierte Annahmen hierzu konnten bisher durch den aktuellen Forschungsstand nicht bestätigt werden. Im Rahmen des längsschnittlichen, varianzanalytischen Vorgehens erfahren ausgewählte Leitsätze der Entwicklungspsychologie der Lebensspanne eine empirische Prüfung (Gewinn-Verlust-Dynamik & Direktionalität, vgl. Baltes, 1990; Willimczik, Voelcker-Rehage & Wiertz, 2006). Die Bestimmung der querschnittlichen Zusammenhänge zwischen den beiden Entwicklungsbereichen erfolgt mittels Partialkorrelationen. Die kausalen Bezüge werden mit Strukturgleichungsmodellen im Cross-Lagged Panel Design analysiert. Über die hier in einem kompetenzorientierten Ansatz verorteten Entwicklungsbereiche (motorische und soziale Kompetenz) hinaus, werden auch mögliche Zusammenhänge zwischen der Ausprägung der körperlich-sportlichen Aktivität und der sozialen Kompetenz im Querschnitt untersucht. Zur Erfassung der kindlichen Motorik dient die Testbatterie M-ABC-2 (Petermann, Henderson, Sugden & Barnett, 2009). Diese bildet primär die koordinativen Aspekte der kindlichen Motorik ab. Das kindliche Sozialverhalten wird mit dem Beobachtungsbogen SOCOMP (Perren, 2007) erfasst. Beide Instrumentarien erlauben eine in Dimensionen differenzierende Darstellung des jeweiligen Entwicklungsbereichs. Die Erhebung der körperlich-sportlichen Aktivität erfolgt anhand eines Elternfragebogens. Als Resultat der Arbeit können angenommene positive Zusammenhänge der sozialen und motorischen Kompetenz für die Phase der frühen Kindheit bestätigt werden. Auch ist ein positiver Zusammenhang zwischen einer aktiven Sportvereinsmitgliedschaft und dem sozialen Verhalten in der Peergroup zu konstatieren. Die Entwicklung der Gewinn-Verlust-Dynamik sowie der Direktionalität der Dimensionen der motorischen und sozialen Kompetenz sind für den untersuchten Zeitraum detailliert aufgearbeitet. Ein zentrales Ergebnis stellt die aufgezeigte zunehmende Differenzierung der Dimensionen beider Entwicklungsbereiche dar. Häufig angenommene und formulierte kausale Beziehungen zwischen dem Verlauf der sozialen und motorischen Kompetenz bestätigen sich dagegen nicht. Dieses Ergebnis ist jedoch differenziert zu interpretieren, was u.a. in dem methodischen Vorgehen zu den Kausalanalysen und den Anforderungen des CLP-Modells begründet liegt.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The traditional task of a central bank is to preserve price stability and, in doing so, not to impair the real economy more than necessary. To meet this challenge, it is of great relevance whether inflation is only driven by inflation expectations and the current output gap or whether it is, in addition, influenced by past inflation. In the former case, as described by the New Keynesian Phillips curve, the central bank can immediately and simultaneously achieve price stability and equilibrium output, the so-called ‘divine coincidence’ (Blanchard and Galí 2007). In the latter case, the achievement of price stability is costly in terms of output and will be pursued over several periods. Similarly, it is important to distinguish this latter case, which describes ‘intrinsic’ inflation persistence, from that of ‘extrinsic’ inflation persistence, where the sluggishness of inflation is not a ‘structural’ feature of the economy but merely ‘inherited’ from the sluggishness of the other driving forces, inflation expectations and output. ‘Extrinsic’ inflation persistence is usually considered to be the less challenging case, as policy-makers are supposed to fight against the persistence in the driving forces, especially to reduce the stickiness of inflation expectations by a credible monetary policy, in order to reestablish the ‘divine coincidence’. The scope of this dissertation is to contribute to the vast literature and ongoing discussion on inflation persistence: Chapter 1 describes the policy consequences of inflation persistence and summarizes the empirical and theoretical literature. Chapter 2 compares two models of staggered price setting, one with a fixed two-period duration and the other with a stochastic duration of prices. I show that in an economy with a timeless optimizing central bank the model with the two-period alternating price-setting (for most parameter values) leads to more persistent inflation than the model with stochastic price duration. This result amends earlier work by Kiley (2002) who found that the model with stochastic price duration generates more persistent inflation in response to an exogenous monetary shock. Chapter 3 extends the two-period alternating price-setting model to the case of 3- and 4-period price durations. This results in a more complex Phillips curve with a negative impact of past inflation on current inflation. As simulations show, this multi-period Phillips curve generates a too low degree of autocorrelation and too early turnings points of inflation and is outperformed by a simple Hybrid Phillips curve. Chapter 4 starts from the critique of Driscoll and Holden (2003) on the relative real-wage model of Fuhrer and Moore (1995). While taking the critique seriously that Fuhrer and Moore’s model will collapse to a much simpler one without intrinsic inflation persistence if one takes their arguments literally, I extend the model by a term for inequality aversion. This model extension is not only in line with experimental evidence but results in a Hybrid Phillips curve with inflation persistence that is observably equivalent to that presented by Fuhrer and Moore (1995). In chapter 5, I present a model that especially allows to study the relationship between fairness attitudes and time preference (impatience). In the model, two individuals take decisions in two subsequent periods. In period 1, both individuals are endowed with resources and are able to donate a share of their resources to the other individual. In period 2, the two individuals might join in a common production after having bargained on the split of its output. The size of the production output depends on the relative share of resources at the end of period 1 as the human capital of the individuals, which is built by means of their resources, cannot fully be substituted one against each other. Therefore, it might be rational for a well-endowed individual in period 1 to act in a seemingly ‘fair’ manner and to donate own resources to its poorer counterpart. This decision also depends on the individuals’ impatience which is induced by the small but positive probability that production is not possible in period 2. As a general result, the individuals in the model economy are more likely to behave in a ‘fair’ manner, i.e., to donate resources to the other individual, the lower their own impatience and the higher the productivity of the other individual. As the (seemingly) ‘fair’ behavior is modelled as an endogenous outcome and as it is related to the aspect of time preference, the presented framework might help to further integrate behavioral economics and macroeconomics.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Vortragsfolien eines im Mai 1999 auf einem Datenbankseminar (intern) gehaltenen Vortrags. Zusammenfassung: Der Vortrag fasst anschaulich einige der Themen zusammen, an denen das FG Datenbanken/Interaktive Systeme um das Jahr 2000 (und einige Jahre davor und danach) gearbeitet hat: Navigieren und Editieren von NF2-Tabellen mit dem DB-Editor ESCHER, das Fingerkonzept, Focus/Nimbus-Fragen, erweiterte Transaktionskonzepte für datenbankgestützte synchrone Gruppenarbeit. Die im Ausblick aufgestellte These, wonach visuelle Transaktionen ein attraktives Forschungsthema bleiben, dürfte auch heute noch gelten, zumal die Herausforderungen mobiler Geräte und neuer Interaktionsformen in den letzten Jahren hinzugekommen sind.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Unternehmensumwelt, mit der sich Kreditinstitute heutzutage konfrontiert sehen und mit der sie sich harmonisieren müssen, ist durch tiefgreifende Veränderungen und eine fortschreitende Dynamik gekennzeichnet. Mit den sog. Non- und Nearbanks sind neue Wettbewerber in den Markt eingetreten, und die Subprime-Finanzkrise aus dem Jahr 2008 hat zu einer tiefgreifenden Vertrauenskrise bei den Konsumenten geführt. Die Möglichkeiten der Kreditinstitute, sich diesen Herausforderungen zu stellen, sind durch die angebotene Generaltauschware Geld, den fehlenden gesetzlichen Innovationsschutz sowie vergleichbare Vertriebsformen und Marktauftritte eher begrenzt. Es stellt sich somit die Frage, wie sich Kreditinstitute künftig nachhaltig im Wettbewerb behaupten können. Die Lösung wird im Konsumgüterbereich gesehen: Zur Überwindung der vorherrschenden technischen Produkthomogenität werden Marken dort erfolgreich als Strategie eingesetzt, um sich vom Wettbewerb zu differenzieren, den Kunden gezielt anzusprechen und preisliche Spielräume zu generieren. Der vorliegenden Dissertation liegen somit zwei zentrale Hypothesen zugrunde: H1) Im Bankbereich bestehen vergleichbare Sättigungseffekte und eine hohe Angebotshomogenität wie im Konsumgüterbereich. H2) Die Adaption von Markenführungs-konzepten aus dem Konsumgüterbereich generiert einen positiven Beitrag zur Profilierung, Differenzierung und Vertrauensbildung von Kreditinstituten. In einem deskriptiv-konzeptionellen Ansatz werden zunächst konstituierende Merkmale und Funktionen einer Marke erarbeitet. Mit Hilfe einer interdisziplinären Metaanalyse wird anschließend ein integratives holistisches Markenverständnis geschaffen und erklärt, wie und warum Marken funktionieren. Dabei wird insbesondere die Rolle der Marke als „Invisible Hand“ im gesellschaftlichen System gewürdigt, die die Handlungen der Individuen beeinflusst und dabei in einem zirkulär-kausalen Prozess von der Gesellschaft bzw. Zielgruppe selbst konstituiert wird. Mit dem Versuch, das Markenphänomen mit Hilfe der evolutorischen Ökonomik zu erklären, wird ferner Neuland betreten. Im Weiteren werden theoretische Konzepte der Markenführung diskutiert und bewertet. Auf Basis dieses neu geschaffenen Fundaments werden im Hauptteil der Arbeit sowohl Markenstrategien aus dem Konsumgüterbereich als auch Instrumente zur operativen Implementierung der Markenstrategie in einem diskursiven Ansatz mittels erarbeiteter Plausibilitätskriterien eingehend auf ihre Übertragbarkeit auf Kreditinstitute hin analysiert und bewertet. Als Ergebnis der Arbeit wurden H1 vollumfänglich und H2 mit Einschränkungen bestätigt. Diese Einschränkungen ergeben sich hauptsächlich dadurch, dass durch die Synchronität von Leistungserstellung und Leistungsinanspruchnahme eine Abkoppelung der Marke vom Unter-nehmen kaum darstellbar ist. Mehrmarkenstrategien sowie spitze Positionierungen sind bei den vorherrschenden Universalinstituten somit quasi nicht umsetzbar. Weitere Limitierungen resultieren aus der Vertrauensempfindlichkeit der Bankleistung, die Einschränkungen bei Markendehnungen (Produktlinien- und Transferstrategien) zur Folge hat. Die operativen Markeninstrumente aus dem Konsumgüterbereich hingegen sind weitestgehend anwendbar. Auch bei dem Einsatz der Controllinginstrumente zur Steuerung der Markenführung werden keine Einschränkungen gesehen. In einem Ausblick wird abschließend gezeigt, dass sich die Wettbewerbsintensität der Kreditinstitute nicht entspannen wird, es werden eher Tendenzen ihrer weiteren Verschärfung ausgemacht.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Wissenschaft weist im Zuge der Entwicklung von der Industrie- zu einer Wissensgesellschaft einschneidende Veränderungen in der Wissensordnung auf, welche sich bis hin zu einem zunehmenden Verlust der wissenschaftlichen Selbststeuerungsmechanismen bemerkbar machen und einen veränderten Umgang mit dem generierten Wissensschatz erfordern. Nicht nur Änderungen in der Wissensordnung und -produktion stellen die Psychoanalyse vor neue Herausforderungen: In den letzten Jahrzehnten geriet sie als Wissenschaft und Behandlungsverfahren zunehmend in die Kritik und reagierte mit einer konstruktiven Diskussion um ein dem Forschungsgegenstand – die Untersuchung unbewusster Prozesse und Fantasien – adäquates psychoanalytisches Forschungsverständnis. Die Auseinandersetzung mit Forderungen gesellschaftlicher Geldgeber, politischer Vertreter und Interessensgruppen wie auch der wissenschaftlichen Community stellt die Psychoanalyse vor besondere Herausforderungen. Um wissenschaftsexternen wie -internen Gütekriterien zu genügen, ist häufig ein hoher personeller, materieller, finanzieller, methodischer wie organisatorischer Aufwand unabdingbar, wie das Beispiel des psychoanalytischen Forschungsinstitutes Sigmund-Freud-Institut zeigt. Der steigende Aufwand schlägt sich in einer zunehmenden Komplexität des Forschungsprozesses nieder, die unter anderem in den vielschichtigen Fragestellungen und Zielsetzungen, dem vermehrt interdisziplinären, vernetzten Charakter, dem Umgang mit dem umfangreichen, hochspezialisierten Wissen, der Methodenvielfalt, etc. begründet liegt. Um jener Komplexität des Forschungsprozesses gerecht zu werden, ist es zunehmend erforderlich, Wege des Wissensmanagement zu beschreiten. Tools wie z. B. Mapping-Verfahren stellen unterstützende Werkzeuge des Wissensmanagements dar, um den Herausforderungen des Forschungsprozesses zu begegnen. In der vorliegenden Arbeit werden zunächst die veränderten Forschungsbedingungen und ihre Auswirkungen auf die Komplexität des Forschungsprozesses - insbesondere auch des psychoanalytischen Forschungsprozesses - reflektiert. Die mit der wachsenden Komplexität einhergehenden Schwierigkeiten und Herausforderungen werden am Beispiel eines interdisziplinär ausgerichteten EU-Forschungsprojektes näher illustriert. Um dieser wachsenden Komplexität psychoanalytischer Forschung erfolgreich zu begegnen, wurden in verschiedenen Forschungsprojekten am Sigmund-Freud-Institut Wissensmanagement-Maßnahmen ergriffen. In der vorliegenden Arbeit wird daher in einem zweiten Teil zunächst auf theoretische Aspekte des Wissensmanagements eingegangen, die die Grundlage der eingesetzten Wissensmanagement-Instrumente bildeten. Dabei spielen insbesondere psychologische Aspekte des Wissensmanagements eine zentrale Rolle. Zudem werden die konkreten Wissensmanagement-Tools vorgestellt, die in den verschiedenen Forschungsprojekten zum Einsatz kamen, um der wachsenden Komplexität psychoanalytischer Forschung zu begegnen. Abschließend werden die Hauptthesen der vorliegenden Arbeit noch einmal reflektiert und die geschilderten Techniken des Wissensmanagements im Hinblick auf ihre Vor- und Nachteile kritisch diskutiert.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Biogasgüllen haben bezüglich ihrer Wirkung auf die Bodenfruchtbarkeit, das Pflanzenwachstum und die Umwelt, Vor- und Nachteile. Als Folge der intensiven Nutzung von Biogas zur Energieerzeugung wurde die Biogasgülle eine der wichtigsten organischen Dünger, mit zunehmender Relevanz für den konventionellen aber auch den ökologischen Landbau. Aufgrund der frühen Entwicklung von Biogas und dem Einsatz von Biogasgüllen in der ökologischen Landwirtschaft in den achtziger Jahren im Nord-Osten Baden-Württembergs sind heute Ackerflächen vorhanden, die seit mehr als 25 Jahren mit Biogasgülle gedüngt werden. Somit bestand hier eine Möglichkeit, Informationen über die Langzeiteffekte von Biogasgüllen auf Parameter der Bodenfruchtbarkeit in der ökologischen, landwirtschaftlichen Praxis zu erlangen. Im ersten Projekt wurde daher eine On-Farm Boden- und Gülleprobenahme durchgeführt. Ziel war es, Parameter der Bodenfruchtbarkeit wie die mikrobielle Aktivität (Basalatmung), den mikrobiellen Biomasse C und N, pilzliches Ergosterol, mikrobielle Residuen (Aminozucker), organischen C, gesamt N und den pH-Wert im Boden auf fünf Flächenpaaren des biologisch-dynamischen Landbaus zu messen. Die sich daraus ergebende Hypothese war hierbei, dass der langjährige Einsatz von Biogasgülle im Vergleich zu Rohgüllen keinen Effekt auf die organische Bodensubstanz und die mikrobiellen Eigenschaften des Bodens hat, da die negativen Effekte wie zum Beispiel der reduzierte C-Input durch positive Effekte wie z.B. die erhöhte Nährstoffverfügbarkeit für Pflanzen kompensiert wird. Die Ergebnisse zeigten, dass die Langzeitanwendung von Biogasgülle keinen negativen Einfluss auf die C- und N-Vorräte im Boden hatte. Der Einsatz von Biogasgülle führte jedoch zu einem engeren Verhältnis von mikrobiellem C zu organischem C im Boden, was auf eine reduzierte C-Verfügbarkeit für Mikroorganismen im Vergleich zu Rohgüllen schließen lässt. Die Biogasgülleanwendung führte zu einer tendenziellen Abnahme der mikrobiellen Residuen, wobei die unterschiedlichen Tongehalte der untersuchten Flächen mögliche signifikante Gülleeffekte auf die mikrobiellen Eigenschaften verdeckt haben. Es gab keine generellen Effekte der Biogasgülle auf das Verhältnis von Pilzen zu Bakterien, wohingegen ein zunehmender Tongehalt eine signifikante Verlagerung in Richtung der Bakterien verursachte. Die Übereinstimmung der erhobenen Daten aller angewendeten Methoden weist auf die starke Aussagekraft dieser On-Farm Studie zum Vergleich benachbarter Flächen hin. Im Anschluss an das On-Farm Projekt, in dem die Langzeitwirkung von Biogasgülle auf den Boden untersucht wurde, sollten die Auswirkungen der Düngung mit unterschiedlichen Biogas-und Rohgüllen unter kontrollierten Bedingungen geprüft werden. Daher wurde ein 70-tägiger Gewächshausversuch mit den Güllen der biologisch-dynamischen Betriebe auf einem tonigen Schluff und unter Weidelgras (Lolium multiflorum, var. Ligrande) durchgeführt. Ziel war es, die Effekte unterschiedlicher Güllen auf das Pflanzenwachstum und die mikrobiellen Eigenschaften im Boden und an Wurzeln zu untersuchen. Die Düngung erhöhte die durchschnittliche oberirdische Pflanzenbiomasse um 69% unter Biogasgülle und um 36% unter Rohgülle im Vergleich zur ungedüngten Kontrolle. Zwischen der oberirdischen Biomasse und dem zugeführten NH4-N wurde ein stark linearer Zusammenhang festgestellt. Im Gegensatz zu den Biogasgüllen gab es unter den Rohgüllen einen signifikanten Anstieg des mikrobiellen Biomasse C und N um etwa 25% verglichen zur ungedüngten Kontrollvariante. Der Einsatz von Biogasgüllen führte gegenüber der Rohgülle und Kontrolle zu geringeren Ergosterolgehalten im Boden, was ein engeres Verhältnis von Ergosterol zu mikrobieller Biomasse C zur Folge hatte. Bezogen auf die Wurzeltrockenmasse verringerte die Düngung die Konzentrationen der Aminozucker Muraminsäure, Galaktosamin und Glukosamin um 24, 29 und 37%, gleichzeitig wurde jedoch kein Einfluss auf die Ergosterolgehalte festgestellt. Dies war höchstwahrscheinlich Folge der reduzierten Kolonisierung mit arbuskulärer Mykorrhiza in Gegenwart ausreichend verfügbarer Pflanzennährstoffen. Um einen Eindruck über die mikrobielle Biomasse und die mikrobielle Gemeinschaft in Biogas- und Rohgüllen zu bekommen, wurde ein drittes Projekt durchgeführt. Die von den 6 biologisch-dynamischen Betrieben erhaltenen Güllen wurden auf ihre Ergosterol- und Aminozuckerkonzentrationen untersucht. Hierbei entstand eine zuverlässige und präzise Methode zur Bestimmung von Ergosterol in Biogas- und Roghüllen. Die Biogasgüllen enthielten signifikant geringere Konzentrationen an Ergosterol (-34%), MurN (-42%), GalN (-32%) und pilzlichem GlcN (-40%) im Vergleich zu den Rohgüllen. Die durchschnittlichen Verhältnisse von pilzlichem GlcN zu Ergosterol (50) und pilzlichem C zu bakteriellem C (0.29) zeigten keine signifikanten Unterschiede zwischen den Gülletypen. Die durchschnittliche Konzentration von mikrobiellem C war in Biogasgülle signifikant geringer als in Rohgülle. Demzufolge lag der Anteil des mikrobiellen C am organischen C bei 3.6% in den Biogasgüllen und 5.7% in den Rohgüllen. Zwischen dem mikrobiellen C der Güllen und deren Faser- und Aschegehalte, sowie den pH-Werten und den CN Verhältnissen konnten nicht-lineare Zusammenhänge festgestellt werden.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In the past decades since Schumpeter’s influential writings economists have pursued research to examine the role of innovation in certain industries on firm as well as on industry level. Researchers describe innovations as the main trigger of industry dynamics, while policy makers argue that research and education are directly linked to economic growth and welfare. Thus, research and education are an important objective of public policy. Firms and public research are regarded as the main actors which are relevant for the creation of new knowledge. This knowledge is finally brought to the market through innovations. What is more, policy makers support innovations. Both actors, i.e. policy makers and researchers, agree that innovation plays a central role but researchers still neglect the role that public policy plays in the field of industrial dynamics. Therefore, the main objective of this work is to learn more about the interdependencies of innovation, policy and public research in industrial dynamics. The overarching research question of this dissertation asks whether it is possible to analyze patterns of industry evolution – from evolution to co-evolution – based on empirical studies of the role of innovation, policy and public research in industrial dynamics. This work starts with a hypothesis-based investigation of traditional approaches of industrial dynamics. Namely, the testing of a basic assumption of the core models of industrial dynamics and the analysis of the evolutionary patterns – though with an industry which is driven by public policy as example. Subsequently it moves to a more explorative approach, investigating co-evolutionary processes. The underlying questions of the research include the following: Do large firms have an advantage because of their size which is attributable to cost spreading? Do firms that plan to grow have more innovations? What role does public policy play for the evolutionary patterns of an industry? Are the same evolutionary patterns observable as those described in the ILC theories? And is it possible to observe regional co-evolutionary processes of science, innovation and industry evolution? Based on two different empirical contexts – namely the laser and the photovoltaic industry – this dissertation tries to answer these questions and combines an evolutionary approach with a co-evolutionary approach. The first chapter starts with an introduction of the topic and the fields this dissertation is based on. The second chapter provides a new test of the Cohen and Klepper (1996) model of cost spreading, which explains the relationship between innovation, firm size and R&D, at the example of the photovoltaic industry in Germany. First, it is analyzed whether the cost spreading mechanism serves as an explanation for size advantages in this industry. This is related to the assumption that the incentives to invest in R&D increase with the ex-ante output. Furthermore, it is investigated whether firms that plan to grow will have more innovative activities. The results indicate that cost spreading serves as an explanation for size advantages in this industry and, furthermore, growth plans lead to higher amount of innovative activities. What is more, the role public policy plays for industry evolution is not finally analyzed in the field of industrial dynamics. In the case of Germany, the introduction of demand inducing policy instruments stimulated market and industry growth. While this policy immediately accelerated market volume, the effect on industry evolution is more ambiguous. Thus, chapter three analyzes this relationship by considering a model of industry evolution, where demand-inducing policies will be discussed as a possible trigger of development. The findings suggest that these instruments can take the same effect as a technical advance to foster the growth of an industry and its shakeout. The fourth chapter explores the regional co-evolution of firm population size, private-sector patenting and public research in the empirical context of German laser research and manufacturing over more than 40 years from the emergence of the industry to the mid-2000s. The qualitative as well as quantitative evidence is suggestive of a co-evolutionary process of mutual interdependence rather than a unidirectional effect of public research on private-sector activities. Chapter five concludes with a summary, the contribution of this work as well as the implications and an outlook of further possible research.