991 resultados para Architektur der 1970er Jahre


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Dissertation behandelt eine für das Badewesen bedeutende Epoche, die sich durch den Beginn des sportorientierten Bäderbaus auszeichnet. Es entsteht ein neuer architektonischer Hallenschwimmbadtypus und es etabliert sich eine gemeinsame Badekultur von Mann und Frau - zwei Errungenschaften, die den Bäderbau bis in die Gegenwart prägen. Viele Bauprojekte und Ideen kamen allerdings durch die Wirtschaftskrisen jener Zeit frühzeitig zum Erliegen, sodass die baulichen Leistungen der Kommunen nicht nur an den Ausführungen, sondern auch an den Entwürfen abgelesen werden müssen. Die kommunale Hallenbäderarchitektur veranschaulicht paradigmatisch die Sozialgeschichte, die Sport- und Hygienebewegung sowie die Genderentwicklung der Zwanziger Jahre. Mangels an Würdigung einerseits sowie einer seit den letzten Jahrzehnten zunehmenden Freizeitorientierung im Bäderbau andererseits wird der Erhalt der schwimmsportorientierten Bäderarchitektur durch Leerstände, Umnutzungen und Abbrüche gefährdet. Durch die Aufarbeitung der Historie und zeitgenössischen Diskurse, die Vermittlung der planerischen Grundlagen sowie durch die Analyse, Auswertung und Typologie des historischen Bäderbestandes der Zwanziger Jahre wird eine fundierte Basis geschaffen, um die Hallenbäderarchitektur als Bedeutungsträger ihrer Zeit angemessen zu würdigen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nach dem Zweiten Weltkrieg war die Fachwerkbrücke in Westeuropa über drei Jahr­zehnte lang quasi von der Bildfli:iche verschwunden. Erst Mitte der 1980er Jahre wird sie dank zweier Ansatze, die auf verschiedenen technischen Entwicklungen beruhen, wieder­entdeckt. In Deutschland findet die Fachwerkbrücke im Verbundbrückenbau im Bereich des Hochgeschwindigkeitseisenbahnbaus erneut Verwendung. In Frankreich erfolgt die Annaherung an die Fachwerkbrücke über die Weiterentwicklung der Betonquerschnitte mit aulsen liegender Vorspannung und Gewichtseinsparungen in den Tragwerksstegen. Angeregt durch die Veroffentlichung von Artikeln über herausragende Bauten breitet sich das Fachwerk in den 1990er Jahren in ganz Europa aus. Zu Beginn des 21. Jahrhunderts kommt das Raumfachwerk mit hohlem Brückenquerschnitt auf, das die Moglichkeit bietet, den Querschnitt zu begehen bzw. zu befahren, und so die Durchdringung der statischen Konstruktion beim Überqueren der Brücke zu einem Erlebnis zu machen. Das Fachwerk ist zur Überbrückung grolser Spannweiten und für Experimente mit neuen Querschnitten bestens geeignet und bietet neue Moglichkeiten hinsichtlich Gestalt und Ausdruck.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

[Book] In recent years "light architecture" has returned as an important component of contemporary architectural design. More and more architects work with lighting designers in order to develop concepts for the nocturnal appearance of their buildings. It is little known that, despite numerous recent technical developments, the vocabulary of today's lighting designers has a long history. The large world fairs of the nineteenth century were the first testing ground for architectural illumination." "This publication juxtaposes historic buildings and architectural visions with recent designs, as well as with contemporary paintings and photographs that reacted to the changing nocturnal skyline. Essays address different aspects of this aspect of architectural history.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

INHALT EINLEITUNG 1. Einfuhrende Überlegungen 2. Methodische Begründungen ERSTER TEIL: Wirtschaftsentwickung und Rationalisierung 1. Innovation und Wachstum bei J.A.Schumpeter 2. Geschichte der Rationalisierung 2.1. Rationalisierung vor und wahrend der Industriellen Revolution 2.1.1. Rationalisierung durch Arbeitsteilung 2.1.2. Rationalisierung durch Einsatz von Maschinerie 2.2. Rationalisierung seit dem Beginn der "Großen Depression" im Jahre 1873 2.2.1. Der Taylorismus 2.2.2. Der Fordismus 2.2.3. Die Arbeitspsychologie 2.2.4. Die Betriebswirtschaftslehre 2.3. Rationalisierung wahrend der Weimarer Republik 2.3.1. Entstehungsbedingungen 2.3.2. Erscheinungsformen der Rationalisierung 2.3.2.1. Rationalisierung in der Produktion 2.3.2.1.1. Rationalisierung m der Landwirtschaft 2.3.2.1.2. Rationalisierung in der Industrie 2.3.2.2. Rationalisierung in der Zirkulation 2.4. Exkurs: Rationalisierung im konjunkturellen Verlauf der 20er Jahre 2.4.1. "Volkswirtschaftliche" oder "negative" Rationalisierung 2.4.?. Der Rationalisierungsaufscnwung 2.4.3. Die Weltwirtschaftskrise 2.4.4. Rationalisierung, Konjunktur und Krise in den 20er Jahren 2.5. Rationalisierung während des deutschen Faschismus 2.6. Rationalis1erung wahrend der Rekonstruktionsperiode bis zur Krise von 1966/67 2.7. Rationalisierung seit der Krise von 1966/67 3. Verschiedene Sichtweisen von Rationalisierung 3.1. Rationalisierung und technischer Fortschritt 3.2. Rationalisierung als Ausdruck betriebswirtschaftlicher Praxis und aus volkswirtschaftlicher Sicht 3.3. Rationalisierung aus der Sicht der Marxschen Theorie 3.4. Der Rationalisierungsbegriff 3.4.1. Der einzelwirtschaftliche Rationalisierungsbegriff 3.4.2. Der gesamtwirtschaftliche Rationalisierungsbegriff 3.4.3. Rationalisierung und Marxsche Theorie 3.4.4. Der allgemeine Rationalisierungsbegriff ZWEITER TEIL: Ursachen und Wirkungen von Rationalisierung im konjukturellen Verlauf 1. Rationalisierung im konjunkturellen Aufschwung 1.1. Rationalisierung und Investition 1.2. Die Konjunkturtheorie von J.R.Hicks 1.3. Aufschwung und Krise 1.3.1. Die Erholung 1.3.2. Die Expansion 1.3.3. Die Hochkonjunktur 2. Rationalisierung im konjunkturellen Abschwung 2.1. Die Abschwächung 2.2. Die Depression 2.2.1. Desinvestitionen und die Stabilisierung des Abschwungs 2.2.2. Die Strategie der Rationalisierung 2.2.3. Kreislaufwirkungen von Rationalisierungsinvestitionen 2.2.4. Schranken der Rationalisierung 3. Wirtschaftspolitische Überlegungen

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Landwirtschaft spielt eine zentrale Rolle im Erdsystem. Sie trägt durch die Emission von CO2, CH4 und N2O zum Treibhauseffekt bei, kann Bodendegradation und Eutrophierung verursachen, regionale Wasserkreisläufe verändern und wird außerdem stark vom Klimawandel betroffen sein. Da all diese Prozesse durch die zugrunde liegenden Nährstoff- und Wasserflüsse eng miteinander verknüpft sind, sollten sie in einem konsistenten Modellansatz betrachtet werden. Dennoch haben Datenmangel und ungenügendes Prozessverständnis dies bis vor kurzem auf der globalen Skala verhindert. In dieser Arbeit wird die erste Version eines solchen konsistenten globalen Modellansatzes präsentiert, wobei der Schwerpunkt auf der Simulation landwirtschaftlicher Erträge und den resultierenden N2O-Emissionen liegt. Der Grund für diese Schwerpunktsetzung liegt darin, dass die korrekte Abbildung des Pflanzenwachstums eine essentielle Voraussetzung für die Simulation aller anderen Prozesse ist. Des weiteren sind aktuelle und potentielle landwirtschaftliche Erträge wichtige treibende Kräfte für Landnutzungsänderungen und werden stark vom Klimawandel betroffen sein. Den zweiten Schwerpunkt bildet die Abschätzung landwirtschaftlicher N2O-Emissionen, da bislang kein prozessbasiertes N2O-Modell auf der globalen Skala eingesetzt wurde. Als Grundlage für die globale Modellierung wurde das bestehende Agrarökosystemmodell Daycent gewählt. Neben der Schaffung der Simulationsumgebung wurden zunächst die benötigten globalen Datensätze für Bodenparameter, Klima und landwirtschaftliche Bewirtschaftung zusammengestellt. Da für Pflanzzeitpunkte bislang keine globale Datenbasis zur Verfügung steht, und diese sich mit dem Klimawandel ändern werden, wurde eine Routine zur Berechnung von Pflanzzeitpunkten entwickelt. Die Ergebnisse zeigen eine gute Übereinstimmung mit Anbaukalendern der FAO, die für einige Feldfrüchte und Länder verfügbar sind. Danach wurde das Daycent-Modell für die Ertragsberechnung von Weizen, Reis, Mais, Soja, Hirse, Hülsenfrüchten, Kartoffel, Cassava und Baumwolle parametrisiert und kalibriert. Die Simulationsergebnisse zeigen, dass Daycent die wichtigsten Klima-, Boden- und Bewirtschaftungseffekte auf die Ertragsbildung korrekt abbildet. Berechnete Länderdurchschnitte stimmen gut mit Daten der FAO überein (R2 = 0.66 für Weizen, Reis und Mais; R2 = 0.32 für Soja), und räumliche Ertragsmuster entsprechen weitgehend der beobachteten Verteilung von Feldfrüchten und subnationalen Statistiken. Vor der Modellierung landwirtschaftlicher N2O-Emissionen mit dem Daycent-Modell stand eine statistische Analyse von N2O-und NO-Emissionsmessungen aus natürlichen und landwirtschaftlichen Ökosystemen. Die als signifikant identifizierten Parameter für N2O (Düngemenge, Bodenkohlenstoffgehalt, Boden-pH, Textur, Feldfrucht, Düngersorte) und NO (Düngemenge, Bodenstickstoffgehalt, Klima) entsprechen weitgehend den Ergebnissen einer früheren Analyse. Für Emissionen aus Böden unter natürlicher Vegetation, für die es bislang keine solche statistische Untersuchung gab, haben Bodenkohlenstoffgehalt, Boden-pH, Lagerungsdichte, Drainierung und Vegetationstyp einen signifikanten Einfluss auf die N2O-Emissionen, während NO-Emissionen signifikant von Bodenkohlenstoffgehalt und Vegetationstyp abhängen. Basierend auf den daraus entwickelten statistischen Modellen betragen die globalen Emissionen aus Ackerböden 3.3 Tg N/y für N2O, und 1.4 Tg N/y für NO. Solche statistischen Modelle sind nützlich, um Abschätzungen und Unsicherheitsbereiche von N2O- und NO-Emissionen basierend auf einer Vielzahl von Messungen zu berechnen. Die Dynamik des Bodenstickstoffs, insbesondere beeinflusst durch Pflanzenwachstum, Klimawandel und Landnutzungsänderung, kann allerdings nur durch die Anwendung von prozessorientierten Modellen berücksichtigt werden. Zur Modellierung von N2O-Emissionen mit dem Daycent-Modell wurde zunächst dessen Spurengasmodul durch eine detailliertere Berechnung von Nitrifikation und Denitrifikation und die Berücksichtigung von Frost-Auftau-Emissionen weiterentwickelt. Diese überarbeitete Modellversion wurde dann an N2O-Emissionsmessungen unter verschiedenen Klimaten und Feldfrüchten getestet. Sowohl die Dynamik als auch die Gesamtsummen der N2O-Emissionen werden befriedigend abgebildet, wobei die Modelleffizienz für monatliche Mittelwerte zwischen 0.1 und 0.66 für die meisten Standorte liegt. Basierend auf der überarbeiteten Modellversion wurden die N2O-Emissionen für die zuvor parametrisierten Feldfrüchte berechnet. Emissionsraten und feldfruchtspezifische Unterschiede stimmen weitgehend mit Literaturangaben überein. Düngemittelinduzierte Emissionen, die momentan vom IPCC mit 1.25 +/- 1% der eingesetzten Düngemenge abgeschätzt werden, reichen von 0.77% (Reis) bis 2.76% (Mais). Die Summe der berechneten Emissionen aus landwirtschaftlichen Böden beträgt für die Mitte der 1990er Jahre 2.1 Tg N2O-N/y, was mit den Abschätzungen aus anderen Studien übereinstimmt.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Zwischennutzungen sind ein Alltagsphänomen, das seit Ende der 1990er Jahre im wissenschaftlichen Kontext und der kommunalen Praxis der Stadt- und Freiraumentwicklung auffallend an Aufmerksamkeit gewinnt. Die vorliegende Arbeit widmet sich dem Phänomen aus der Perspektive der Freiraumentwicklung als kommunaler Aufgabe. Im Zentrum des Interesses steht die Frage, welche aktuelle Bedeutung Zwischennutzungen, verstanden als die vorübergehende Freiraumnutzung brachliegender Baugrundstücke, für freiraumbezogene öffentliche Aufgaben und Handlungsansätze haben bzw. welche Potentiale sie dafür bieten. Vor dem Hintergrund heterogener gesellschaftlicher und räumlicher Gegebenheiten, der Erkenntnis um eine begrenzte hoheitliche Steuerbarkeit der weiteren stadträumlichen Entwicklung und angesichts knapper Haushaltsmittel ist die kommunale Freiraumentwicklung gefordert, sich bezüglich ihrer Kernaufgaben aber auch bezüglich ihrer Rolle bei der Erfüllung dieser Aufgaben neu zu positionieren. Vermehrt werden Forderungen nach einem Abgehen von „allgemeingültigen“ Versorgungsstandards und traditionellen „Produktionsprozessen“ laut. Flexiblere Freiraumangebote sollen Gestaltungsspielräume für eigeninitiatives Handeln und wechselhafte oder neuartige Nutzungen eröffnen. Mit dem Setzen von Prioritäten, einer verstärkten Kundenorientierung und aktivierenden bzw. kooperativen Handlungsansätzen soll der schlechten Haushaltslage begegnet werden. Zwischennutzungen deuten aufgrund ihrer funktionalen, räumlichen und zeitlichen Flexibilität Möglichkeiten an, auf diese Anforderungen einzugehen. Der Blick in die Verwaltungspraxis einzelner Städte zeigt, dass Zwischennutzungen in der kommunalen Freiraumentwicklung in verschiedenen Zusammenhängen gezielt aufgegriffen werden und dabei diverse Bezüge zu diesen aktuellen Anforderungen herstellen lassen. Der Stellenwert, der ihnen beigemessen wird, reicht dabei vom Ausnahmefall bis zum bewährten Ansatz. Mit den Maßnahmen werden häufig akute bzw. kurzfristige Ziele verfolgt, etwa die vorübergehende Schaffung zusätzlicher Spiel- und Aufenthaltsmöglichkeiten oder die Aufwertung brachliegender Flächen durch extensive Gestaltungsmaßnahmen. Die Projekte sind häufig charakterisiert durch intensive Kooperationen mit anderen öffentlichen und mit nicht-öffentlichen Akteuren. Die Einbindung von Zwischennutzungen in das alltägliche Verwaltungshandeln ist allerdings auch mit diversen Schwierigkeiten verbunden, wie erste Institutionalisierungsansätze in manchen Städten zeigen. Die Verknüpfung unterschiedlicher Zeithorizonte im Planungsgeschehen, die Verbindung des temporären Phänomens Zwischennutzung mit dem traditionellerweise auf Dauerhaftigkeit ausgerichteten Aufgabenverständnis der kommunalen Freiraumentwicklung verlangt nach einer Modifizierung bisheriger Positionen und Herangehensweisen. Ein solcher Anpassungsprozess im Verwaltungshandeln lässt sich nur langfristig und schrittweise bewältigen und ist als Teil der – angesichts aktueller Entwicklungen notwendigen – Weiterentwicklung freiraumbezogener Aufgaben und Handlungsansätze zu verstehen. Zwischennutzungen können neben ihren kurzfristig umsetzbaren Funktionen einen Beitrag dazu leisten.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Das Grünbuch 2006 der Europäischen Kommission "Eine Europäische Strategie für nachhaltige, wettbewerbsfähige und sichere Energie" unterstreicht, dass Europa in ein neues Energie-Zeitalter eingetreten ist. Die vorrangigen Ziele europäischer Energiepolitik müssen Nachhaltigkeit, Wettbewerbsfähigkeit und Versorgungssicherheit sein, wobei sie eine zusammenhängende und logische Menge von Taktiken und Maßnahmen benötigt, um diese Ziele zu erreichen. Die Strommärkte und Verbundnetze Europas bilden das Kernstück unseres Energiesystems und müssen sich weiterentwickeln, um den neuen Anforderungen zu entsprechen. Die europäischen Stromnetze haben die lebenswichtigen Verbindungen zwischen Stromproduzenten und Verbrauchern mit großem Erfolg seit vielen Jahrzehnten gesichert. Die grundlegende Struktur dieser Netze ist entwickelt worden, um die Bedürfnisse großer, überwiegend auf Kohle aufgebauten Herstellungstechnologien zu befriedigen, die sich entfernt von den Verbraucherzentren befinden. Die Energieprobleme, denen Europa jetzt gegenübersteht, ändern die Stromerzeugungslandschaft in zwei Gesichtspunkten: die Notwendigkeit für saubere Kraftwerkstechnologien verbunden mit erheblich verbesserten Wirkungsgraden auf der Verbraucherseite wird es Kunden ermöglichen, mit den Netzen viel interaktiver zu arbeiten; andererseits müssen die zukünftigen europaweiten Stromnetze allen Verbrauchern eine höchst zuverlässige, preiswerte Energiezufuhr bereitstellen, wobei sowohl die Nutzung von großen zentralisierten Kraftwerken als auch kleineren lokalen Energiequellen überall in Europa ausgeschöpft werden müssen. In diesem Zusammenhang wird darauf hingewiesen, dass die Informationen, die in dieser Arbeit dargestellt werden, auf aktuellen Fragen mit großem Einfluss auf die gegenwärtigen technischen und wirtschaftspolitischen Diskussionen basieren. Der Autor hat während der letzten Jahre viele der hier vorgestellten Schlussfolgerungen und Empfehlungen mit Vertretern der Kraftwerksindustrie, Betreibern von Stromnetzen und Versorgungsbetrieben, Forschungsgremien und den Regulierungsstellen diskutiert. Die folgenden Absätze fassen die Hauptergebnisse zusammen: Diese Arbeit definiert das neue Konzept, das auf mehr verbraucherorientierten Netzen basiert, und untersucht die Notwendigkeiten sowie die Vorteile und die Hindernisse für den Übergang auf ein mögliches neues Modell für Europa: die intelligenten Stromnetze basierend auf starker Integration erneuerbarer Quellen und lokalen Kleinkraftwerken. Das neue Modell wird als eine grundlegende Änderung dargestellt, die sich deutlich auf Netzentwurf und -steuerung auswirken wird. Sie fordert ein europäisches Stromnetz mit den folgenden Merkmalen: – Flexibel: es erfüllt die Bedürfnisse der Kunden, indem es auf Änderungen und neue Forderungen eingehen kann – Zugänglich: es gestattet den Verbindungszugang aller Netzbenutzer besonders für erneuerbare Energiequellen und lokale Stromerzeugung mit hohem Wirkungsgrad sowie ohne oder mit niedrigen Kohlendioxidemissionen – Zuverlässig: es verbessert und garantiert die Sicherheit und Qualität der Versorgung mit den Forderungen des digitalen Zeitalters mit Reaktionsmöglichkeiten gegen Gefahren und Unsicherheiten – Wirtschaftlich: es garantiert höchste Wirtschaftlichkeit durch Innovation, effizientes Energiemanagement und liefert „gleiche Ausgangsbedingungen“ für Wettbewerb und Regulierung. Es beinhaltet die neuesten Technologien, um Erfolg zu gewährleisten, während es die Flexibilität behält, sich an weitere Entwicklungen anzupassen und fordert daher ein zuversichtliches Programm für Forschung, Entwicklung und Demonstration, das einen Kurs im Hinblick auf ein Stromversorgungsnetz entwirft, welches die Bedürfnisse der Zukunft Europas befriedigt: – Netztechnologien, die die Stromübertragung verbessern und Energieverluste verringern, werden die Effizienz der Versorgung erhöhen, während neue Leistungselektronik die Versorgungsqualität verbessern wird. Es wird ein Werkzeugkasten erprobter technischer Lösungen geschaffen werden, der schnell und wirtschaftlich eingesetzt werden kann, so dass bestehende Netze Stromeinleitungen von allen Energieressourcen aufnehmen können. – Fortschritte bei Simulationsprogrammen wird die Einführung innovativer Technologien in die praktische Anwendung zum Vorteil sowohl der Kunden als auch der Versorger stark unterstützen. Sie werden das erfolgreiche Anpassen neuer und alter Ausführungen der Netzkomponenten gewährleisten, um die Funktion von Automatisierungs- und Regelungsanordnungen zu garantieren. – Harmonisierung der ordnungspolitischen und kommerziellen Rahmen in Europa, um grenzüberschreitenden Handel von sowohl Energie als auch Netzdienstleistungen zu erleichtern; damit muss eine Vielzahl von Einsatzsituationen gewährleistet werden. Gemeinsame technische Normen und Protokolle müssen eingeführt werden, um offenen Zugang zu gewährleisten und den Einsatz der Ausrüstung eines jeden Herstellers zu ermöglichen. – Entwicklungen in Nachrichtentechnik, Mess- und Handelssystemen werden auf allen Ebenen neue Möglichkeiten eröffnen, auf Grund von Signalen des Marktes frühzeitig technische und kommerzielle Wirkungsgrade zu verbessern. Es wird Unternehmen ermöglichen, innovative Dienstvereinbarungen zu benutzen, um ihre Effizienz zu verbessern und ihre Angebote an Kunden zu vergrößern. Schließlich muss betont werden, dass für einen erfolgreichen Übergang zu einem zukünftigen nachhaltigen Energiesystem alle relevanten Beteiligten involviert werden müssen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Excimerlaser sind gepulste Gaslaser, die Laseremission in Form von Linienstrahlung – abhängig von der Gasmischung – im UV erzeugen. Der erste entladungsgepumpte Excimerlaser wurde 1977 von Ischenko demonstriert. Alle kommerziell verfügbaren Excimerlaser sind entladungsgepumpte Systeme. Um eine Inversion der Besetzungsdichte zu erhalten, die notwendig ist, um den Laser zum Anschwingen zu bekommen, muss aufgrund der kurzen Wellenlänge sehr stark gepumpt werden. Diese Pumpleistung muss von einem Impulsleistungsmodul erzeugt werden. Als Schaltelement gebräuchlich sind Thyratrons, Niederdruckschaltröhren, deren Lebensdauer jedoch sehr limitiert ist. Deshalb haben sich seit Mitte der 1990iger Jahre Halbleiterschalter mit Pulskompressionsstufen auch in dieser Anwendung mehr und mehr durchgesetzt. In dieser Arbeit wird versucht, die Pulskompression durch einen direkt schaltenden Halbleiterstapel zu ersetzen und dadurch die Verluste zu reduzieren sowie den Aufwand für diese Pulskompression einzusparen. Zudem kann auch die maximal mögliche Repetitionsrate erhöht werden. Um die Belastung der Bauelemente zu berechnen, wurden für alle Komponenten möglichst einfache, aber leistungsfähige Modelle entwickelt. Da die normalerweise verfügbaren Daten der Bauelemente sich aber auf andere Applikationen beziehen, mussten für alle Bauteile grundlegende Messungen im Zeitbereich der späteren Applikation gemacht werden. Für die nichtlinearen Induktivitäten wurde ein einfaches Testverfahren entwickelt um die Verluste bei sehr hohen Magnetisierungsgeschwindigkeiten zu bestimmen. Diese Messungen sind die Grundlagen für das Modell, das im Wesentlichen eine stromabhängige Induktivität beschreibt. Dieses Modell wurde für den „magnetic assist“ benützt, der die Einschaltverluste in den Halbleitern reduziert. Die Impulskondensatoren wurden ebenfalls mit einem in der Arbeit entwickelten Verfahren nahe den späteren Einsatzparametern vermessen. Dabei zeigte sich, dass die sehr gebräuchlichen Class II Keramikkondensatoren für diese Anwendung nicht geeignet sind. In der Arbeit wurden deshalb Class I Hochspannungs- Vielschicht- Kondensatoren als Speicherbank verwendet, die ein deutlich besseres Verhalten zeigen. Die eingesetzten Halbleiterelemente wurden ebenfalls in einem Testverfahren nahe den späteren Einsatzparametern vermessen. Dabei zeigte sich, dass nur moderne Leistungs-MOSFET´s für diesen Einsatz geeignet sind. Bei den Dioden ergab sich, dass nur Siliziumkarbid (SiC) Schottky Dioden für die Applikation einsetzbar sind. Für die Anwendung sind prinzipiell verschiedene Topologien möglich. Bei näherer Betrachtung zeigt sich jedoch, dass nur die C-C Transfer Anordnung die gewünschten Ergebnisse liefern kann. Diese Topologie wurde realisiert. Sie besteht im Wesentlichen aus einer Speicherbank, die vom Netzteil aufgeladen wird. Aus dieser wird dann die Energie in den Laserkopf über den Schalter transferiert. Aufgrund der hohen Spannungen und Ströme müssen 24 Schaltelemente in Serie und je 4 parallel geschaltet werden. Die Ansteuerung der Schalter wird über hochisolierende „Gate“-Transformatoren erreicht. Es zeigte sich, dass eine sorgfältig ausgelegte dynamische und statische Spannungsteilung für einen sicheren Betrieb notwendig ist. In der Arbeit konnte ein Betrieb mit realer Laserkammer als Last bis 6 kHz realisiert werden, der nur durch die maximal mögliche Repetitionsrate der Laserkammer begrenzt war.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Der Europäische Markt für ökologische Lebensmittel ist seit den 1990er Jahren stark gewachsen. Begünstigt wurde dies durch die Einführung der EU-Richtlinie 2092/91 zur Zertifizierung ökologischer Produkte und durch die Zahlung von Subventionen an umstellungswillige Landwirte. Diese Maßnahmen führten am Ende der 1990er Jahre für einige ökologische Produkte zu einem Überangebot auf europäischer Ebene. Die Verbrauchernachfrage stieg nicht in gleichem Maße wie das Angebot, und die Notwendigkeit für eine Verbesserung des Marktgleichgewichts wurde offensichtlich. Dieser Bedarf wurde im Jahr 2004 von der Europäischen Kommission im ersten „Europäischen Aktionsplan für ökologisch erzeugte Lebensmittel und den ökologischen Landbau“ formuliert. Als Voraussetzung für ein gleichmäßigeres Marktwachstum wird in diesem Aktionsplan die Schaffung eines transparenteren Marktes durch die Erhebung statistischer Daten über Produktion und Verbrauch ökologischer Produkte gefordert. Die Umsetzung dieses Aktionsplans ist jedoch bislang nicht befriedigend, da es auf EU-Ebene noch immer keine einheitliche Datenerfassung für den Öko-Sektor gibt. Ziel dieser Studie ist es, angemessene Methoden für die Erhebung, Verarbeitung und Analyse von Öko-Marktdaten zu finden. Geeignete Datenquellen werden identifiziert und es wird untersucht, wie die erhobenen Daten auf Plausibilität untersucht werden können. Hierzu wird ein umfangreicher Datensatz zum Öko-Markt analysiert, der im Rahmen des EU-Forschungsprojektes „Organic Marketing Initiatives and Rural Development” (OMIaRD) erhoben wurde und alle EU-15-Länder sowie Tschechien, Slowenien, Norwegen und die Schweiz abdeckt. Daten für folgende Öko-Produktgruppen werden untersucht: Getreide, Kartoffeln, Gemüse, Obst, Milch, Rindfleisch, Schaf- und Ziegenfleisch, Schweinefleisch, Geflügelfleisch und Eier. Ein zentraler Ansatz dieser Studie ist das Aufstellen von Öko-Versorgungsbilanzen, die einen zusammenfassenden Überblick von Angebot und Nachfrage der jeweiligen Produktgruppen liefern. Folgende Schlüsselvariablen werden untersucht: Öko-Produktion, Öko-Verkäufe, Öko-Verbrauch, Öko-Außenhandel, Öko-Erzeugerpreise und Öko-Verbraucherpreise. Zudem werden die Öko-Marktdaten in Relation zu den entsprechenden Zahlen für den Gesamtmarkt (öko plus konventionell) gesetzt, um die Bedeutung des Öko-Sektors auf Produkt- und Länderebene beurteilen zu können. Für die Datenerhebung werden Primär- und Sekundärforschung eingesetzt. Als Sekundärquellen werden Publikationen von Marktforschungsinstituten, Öko-Erzeugerverbänden und wissenschaftlichen Instituten ausgewertet. Empirische Daten zum Öko-Markt werden im Rahmen von umfangreichen Interviews mit Marktexperten in allen beteiligten Ländern erhoben. Die Daten werden mit Korrelations- und Regressionsanalysen untersucht, und es werden Hypothesen über vermutete Zusammenhänge zwischen Schlüsselvariablen des Öko-Marktes getestet. Die Datenbasis dieser Studie bezieht sich auf ein einzelnes Jahr und stellt damit einen Schnappschuss der Öko-Marktsituation der EU dar. Um die Marktakteure in die Lage zu versetzen, zukünftige Markttrends voraussagen zu können, wird der Aufbau eines EU-weiten Öko-Marktdaten-Erfassungssystems gefordert. Hierzu wird eine harmonisierte Datenerfassung in allen EU-Ländern gemäß einheitlicher Standards benötigt. Die Zusammenstellung der Marktdaten für den Öko-Sektor sollte kompatibel sein mit den Methoden und Variablen der bereits existierenden Eurostat-Datenbank für den gesamten Agrarmarkt (öko plus konventionell). Eine jährlich aktualisierte Öko-Markt-Datenbank würde die Transparenz des Öko-Marktes erhöhen und die zukünftige Entwicklung des Öko-Sektors erleichtern. ---------------------------

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Der liberale Theologe Arthur Titius (1864 – 1936) wirkte an entscheidenden Wegmarken des deutschen Protestantismus und der politischen Entwicklung in Deutschland zwischen 1895 und 1936 gestaltend und orientierend mit. Durch sein herausragendes ökumenisches Engagement wurde er auch außerhalb Deutschlands geschätzt. Er stammte aus einer bürgerlichen Familie in Sendsberg bei Königsberg und studierte dort und in Berlin. Dort trat er in engen Kontakt mit Julius Kaftan und Bernhard Weiss. Von 1895 bis 1906 war er Professor für Neues Testament an der Universität Kiel, wo er mit Otto Baumgarten zusammenarbeitete. 1906 wurde er auf einen systematischen Lehrstuhl an die Fakultät in Göttingen berufen. Von 1921 bis 1934 war er Lehrstuhlinhaber an der Universität Berlin. Mit seiner intensiven Beschäftigung mit naturwissenschaftlichen Themen konnte sich diese Arbeit leider nicht befassen. Er war verheiratet mit Emma Brandstetter, die Ehe blieb kinderlos. Titius war von 1910 bis 1921 Herausgeber der „Theologischen Literaturzeitung“. Nach der ökumenischen Versammlung in Stockholm im Jahr 1925 wurde er einer der Herausgeber der internationalen sozialwissenschaftlichen Zeitschrift „Stockholm“. Mit Georg Wobbermin begründete er die Zeitschrift „Studien zur systematischen Theologie“. In den neunziger Jahren des 19. Jahrhunderts engagierte er sich stark im Evangelisch-sozialen Kongress auf der Seite der „Jungen“ trotz kaiserlicher und kirchlicher Kritik an sozialpolitischen Aktivitäten. Er diente dem Kongress in leitender Position bis in die Zeit des Nationalsozialismus. Mit Friedrich Naumann gehörte er zu den Gründungsmitgliedern des politisch orientierten National-sozialen Vereins. Während Naumann immer stärker auf eine christliche Begründung seiner Sozialpolitik verzichtete, arbeitete Titius in einem umfassenden neutestamentlichen Werk an einer zeitgemäßen Interpretation des Begriffs der Seligkeit, um Intellektuelle und Arbeitermassen wieder zum Glauben und in die Kirche zurückzuführen. Trotz seiner durchaus nationalen Einstellung trat er während des Ersten Weltkrieg sehr bald versöhnlich auf. Nach dem Zusammenbruch von Kaiserreich und Summepiskopat kämpfte Titius für eine demokratische Erneuerung der Kirche. Er gründete den Volkskirchenbund, um in der unübersichtlichen politischen Lage politisch einwirken zu können und arbeitete an Verfassungsfragen mit. Auf dem ersten Deutschen Evangelischen Kirchentag rechnete er als einer der beiden Hauptredner mit dem Krieg und aller rückwärtsgewandten Verherrlichung militärischer Größe ab. Er trat für Abrüstung, Versöhnung und den Völkerbund ein, wofür er dort niedergezischt wurde. Dennoch wurde er praktisch als einziger Liberaler Mitglied im Deutschen Evangelischen Kirchenausschuss. Sein Amt endete 1935. Anfang der zwanziger Jahre sah er in der beginnenden ökumenischen Zusammenarbeit eine Möglichkeit, die staatlichen Bemühungen um einen friedlichen Ausgleich zwischen den Völkern durch eine kirchliche Kooperation zu unterstützen. Darum arbeitete er engagiert in der ökumenischen Bewegung mit. Leidenschaftlich setzte er sich 1925 auf der Stockholmer Konferenz für ein internationales sozialwissenschaftliches Institut als permanente Einrichtung der ökumenischen Bewegung und für die Zeitschrift „Stockholm“ ein, die dem Austausch sozialpolitischer Ideen dienen sollte. Mit dem Nationalsozialismus und Vertretern des Deutschen Glaubens setzte er sich Anfang der dreißiger Jahre sehr kritisch auseinander. Er erwartete verheerende Folgen, wenn der Faschismus, wie er den Nationalsozialismus ausdrücklich nannte, zum Gestaltungsprinzip des Staates würde. Bei der Konferenz des Ökumenischen Rates für Praktisches Christentum auf der dänischen Insel Fanö 1934 verteidigte Titius aber die Situation in Deutschland gegenüber kritischen Anfragen aus dem Ausland. Im weiteren Verlauf des Jahres versuchte er den deutschen Kirchenkonflikt durch ein Treffen von Vertretern der Hauptrichtungen vor allem aus den Arbeitsorganisationen zu überwinden. Allerdings blieb dieser Versuch ohne Erfolg. Nach dem Herbst 1934 wird auch seine theologische Position allmählich aufgeweicht. In den Schriften, die noch bis zu seinem Tod erschienen, kam er schließlich 1935 zu der Auffassung, dass die Rasse für alles geschichtliche und geistige Leben von erheblicher Bedeutung sei, eine Auffassung, die er 1933 und 1934 noch klar abgelehnt hatte.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Seit Anfang der 1990er Jahre wird Schulen mit dem Ziel der Qualitätsentwicklung größere Autonomie zugesprochen, um somit auch verstärkt lokalen und regionalen Anforderungen und Gegebenheiten gerecht zu werden (Rahm & Schröck, 2007). Die Profilierung als Partnerschule des Leistungssports (PdL) ist Ausdruck einer solchen Schulentwicklung (Fessler, 2010). Die PdL sind die federführenden Schulen im hessischen Landesprogramm „Talentsuche – Talentförderung“ und haben die Aufgabe, die Athleten bei der Bewältigung der Doppelbelastung durch Schule und Leistungssport zu unterstützen (Scheid, Eppinger & Adolph, 2007). Das Landesprogramm enthält verbindliche Vorgaben zur Struktur und Umsetzung der PdL (HKM & LSB Hessen, 2006). Diese werden jedoch auf Grund der unterschiedlichen Kontexte und individuellen Entscheidungen der Funktionsträger und Akteure auf der einzel-schulischen Ebene interpretiert und den jeweiligen Bedingungen angepasst. Dies führt zu unterschiedlichen Vor-Ort-Lösungen der schulischen Profilierung (Fend, 2008). Die Studie geht drei übergeordneten Fragestellungen nach: 1. Gelingt es den Partnerschulen die leistungssportlich ambitionierte Schülerinnen und Schüler zu fördern, pädagogisch zu unterstützen und die schulische Ausbildung zu gewährleisten? 2. Welche Bedeutung haben die Bereiche und Dimensionen der Schulqualität für die Partnerschulen im Hinblick auf eine effektive Verbindung von schulischer Ausbildung und leistungssportlicher Entwicklung? 3. Welche Besonderheiten und Unterschiede lassen sich zwischen den untersuchten Schulen feststellen? Die in zwei Phasen gegliederte Untersuchung zielt mit seinem qualitativen Vorgehen auf die Evaluation solcher individuellen Schulprofile und die Identifizierung der Bedingungen und Prozesse der Vernetzung von Schule und Leistungssport. Mittels Fragebögen und Schulprogrammanalysen (Phase 1 – Bestanderhebung an allen 27 PdL) sowie leitfadengestützter Interviews an sechs ausgewählten Standorten (Phase 2 – Qualitätsanalyse) werden die bedeutenden Bereiche der Qualitätsentwicklung herausgearbeitet und inhaltsanalytisch nach Mayring (2010) ausgewertet. Als wichtige Ergebnisse der Evaluation der Entwicklung des Schulprofils Partnerschule des Leistungssports kann u.a. festgestellt werden, dass 1. es allen Schulen weitestgehend gelingt die Nachwuchsathleten pädagogisch verant-wortungsbewusst zu fördern, sich jedoch einzelne Sportschüler auch dazu kritisch äußern. 2. die Bedeutung der Qualitätsbereiche zwischen den Schulen variiert; die Schulleitung im Prozess der Profilierung eine der wichtigsten Rollen einnimmt und die besondere Aufgabe für sie darin besteht – im Sinne von governance – unterschiedliche Ansichten und Einstellungen der Akteure zu reflektieren, zu kommunizieren und zu koordinieren. 3. an Schulen mit einer betont leistungssportlichen Ausrichtung vermehrt Konflikte auftreten können und mit Blick auf die Sportschüler die Gefahr besteht, dass an diesen Schulen nicht immer das Ziel der Mündigkeit erreicht wird.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die soziale Waldamöbe Dictystelium discoideum ist ein etablierter Modellorganismus zur Erforschung grundlegender zellbiologischer Prozesse. Innerhalb der letzten Jahre konnte dabei insbesondere das Wissen zum Lipidmetabolismus umfassend erweitert werden. In diesem Zusammenhang spielt besonders eine Enzymgruppe eine wichtige Rolle: die LC/VLC-Acyl-CoA-Synthetasen. Diese übernehmen dabei die Aufgabe Fettsäuren zu aktivieren, um sie so dem Zellmetabolismus überhaupt erst zugänglich zu machen. D. discoideum verfügt über insgesamt vier dieser Enzyme: FcsA, FcsB, FcsC und das Bubblegum-Enzym Acsbg1. Während die FcsA und FcsB bereits in vorangegangenen Arbeiten untersucht wurden, werden die FcsC und die Acsbg1 in dieser Arbeit erstmals biologisch charakterisiert. Untersuchungen zur subzellulären Lokalisation der Proteine zeigen, dass die meisten LC/VLC-Acyl-CoA-Synthetase auf Endosomen und im Cytoplasma gefunden werden können (FcsA, FcsC und Acsbg1), während die FcsB als Transmembranprotein über das ER zu den Peroxisomen transportiert wird. Die Acsbg1 akkumuliert dabei zusätzlich an der Plasmamembran. Funktionell konnte gezeigt werden, dass neben der FcsA auch die Acsbg1 an der Bereitstellung von Acyl-CoA für Triacylglyceridsynthese beteiligt ist. Dabei besitzt die FcsA die Hauptenzymaktivität und kompensiert den Verlust der Acsbg1 in acsbg1- Zellen. In fcsA-/acsbg1- Zellen dagegen kommt der Verlust der Acsbg1 durch eine zusätzliche Verringerung des TAG-Gehaltes der Doppel-KOs im Vergleich zu fcsA- Zellen zum tragen. Alle vier Enzyme beeinflussen die Phagozytose. Dabei zeigen fcsA- und fcsC- Zellen eine gesteigerte Phagozytose in Gegenwart von der gesättigten Fettsäure Palmitinsäure im Kulturmedium. Auch der knockout der Acsbg1 wirkt sich positiv auf die Phagozytoserate aus, jedoch kommt auch nur dieser zum tragen, wenn neben der Acsbg1 auch die FcsA ausgeschaltet wird. Die FcsB dagegen zeigt eine dramatische Reduktion der Partikelaufnahme in nicht Fettsäure gefütterten Zellen. Durch die Zugabe einer exogenen Fettsäure kann dieser Effekt nicht kompensiert werden. Auch der zusätzliche Verlust der FcsA-Enzymaktivität verändert dieses Verhalten in Palmitinsäure inkubierten Zellen nicht. In fcsA-/fcsB- konnte zudem ein Defekt beim Abbau von Triacylglyceriden gefunden werden. Dieser Defekt liefert erste Hinweise für ein Modell, das den Abbau von LD gespeicherten Lipiden durch Autophagozytose in D. discoideum beschreibt. Peroxisomen sind wichtige Organellen für die Detoxifikation und die Oxidation von Fettsäuren. Durch das Ausschalten der Acaa1, der Thiolase, die den letzten Schritt der β-Oxidation in Peroxisomen katalysiert, zeigte sich ein verlangsamter Triacylglycerol-Abbau sowie eine verringerte Degradation des Etherlipids UKL und von Sterolestern, was auf eine Beteiligung der Peroxisomen beim Abbau von langkettigen Fettsäuren schließen lässt. Bei dem Versuch durch das Ausschalten des pex19-Gens eine Zelllinie zu generieren, die keine Peroxisomen besitzt, wurde die Organelle überraschender Weise, wenn auch mit einer vom Wildtyp abweichenden Morphologie, weiterhin vorgefunden. Dieser Befund korrelierte mit dem Resultat, dass trotzdem das pex19-Gen erfolgreich unterbrochen wurde, dennoch eine intakte Kopie des Gens nachgewiesen werden konnte. Dementsprechend sollte die erschaffene pex19- Zelllinie als knockdown und nicht als knockout gewertet werden. Der pex19 knockdown zeigte beim Abbau von Triacylglyceriden eine ähnliche Verlangsamung wie acaa1- Zellen. Zusätzlich wurde eine Verringerung der Synthese des Etherlipids UKL beobachtet, was darauf hindeutet, dass dieses Lipid im Peroxisom gebildet wird. Auch die Phagozytose und das Wachstum auf Bakterienrasen waren im pex19 knockdown dramatisch reduziert. Durch die Überexpression von Pex19-GFP im knockdown Hintergrund konnten die physiologischen Defekte in den meisten so generierten Zelllinien ausgeglichen werden. Lipid Droplets sind Organellen, die in Eukaryoten und Prokaryoten als Speicher für Neutralfette dienen und ebenfalls als Ort der Lipidsynthese fungieren. Um diese Aufgaben erfüllen zu können, besitzen sie auf ihrer Oberfläche Proteine, die für die Regulierung dieser Prozesse notwendig sind. Durch die weiterführende Analyse von Kandidatenproteinen, die durch eine proteomische Analyse von aufgereinigten LDs identifiziert wurden, konnte für vier weitere Proteine (Plsc1, Net4, Lip5 und Nsdhl) die LD-Assoziation durch GFP-Fusionsproteine bestätigt werden. Bei der Charakterisierung von plsc1 knockouts zeigte sich eine verminderte Fähigkeit beim Wachstum auf Bakterienrasen sowie eine erhöhte Phagozytoserate in Gegenwart einer exogenen Fettsäure, was auf eine Involvierung des Proteins in die Phospholipidsynthese hindeutet. Die bisher einzige identifizierte LD-assoziierte Lipase Lip5 nimmt nur eine untergeordnete Rolle bei der Hydrolyse von Triacylglycerolen und Sterolestern ein, da in KO-Mutanten nur ein milder Defekt beim Abbau beider Substanzen beobachtet werden konnte. Die LD-Lokalisation von Net4 ist evolutionär konserviert und kann nicht nur in D. discoideum beobachtet werden, sondern auch in humanen Zellen. Welche Funktion das Protein auf der LD-Oberfläche ausübt, konnte nicht geklärt werden. Allerdings kann ein direkter Einfluss auf den TAG- und Sterolaufbau ausgeschlossen werden. LDs stehen in engem Kontakt mit anderen Organellen, die in den Lipidmetabolismus involviert sind, wie mit den Mitochondrien oder dem ER. Durch Perilipin-Hybridproteine können künstliche, stabile Verbindungen zwischen LDs und diesen Organellen hergestellt werden. Dabei zeigte Perilipin ein sehr starkes Targeting-Potenzial, durch welches es notwendig war, als zweite Hybridhälfte ein Transmembranprotein zu wählen. Die Analyse eines Hybrids, das eine dauerhafte Verbindung von LDs und dem ER herstellt, wies dabeieine Reduktion der LD-Größe auf, wobei der Gesamt-TAG-Gehalt der Zellen unbeeinflusst blieb. Durch die starke Affinität von Perilipin für die Assoziation an LDs konnten durch die Generierung von Hybriden andere Proteine an die LD-Oberfläche dirigiert werden. Auf diese Weise konnte erfolgreich die LC-Acyl-CoA-Synthetase FcsA auf das LD transplantiert werden.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Im Fokus der Arbeit stehen die Bildungsreformen auf dem Lande in der Zeitspanne von 1949 bis zum Ende der 1960er Jahre. Die Entwicklung der Volksschule in Nordhessen, genauer im südlichen Ringgau nahe der thüringischen Grenze, wird genauer betrachtet. Dafür wurden Schulchroniken aus dem Südringgau beschrieben und analysiert. Der Fokus liegt dabei auf der Entstehung der Mittelpunktschule Herleshausen/Nesselröden und den damit verbundenen Schließungen der einklassigen Volksschulen in den einzelnen Dörfern.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In the past decades since Schumpeter’s influential writings economists have pursued research to examine the role of innovation in certain industries on firm as well as on industry level. Researchers describe innovations as the main trigger of industry dynamics, while policy makers argue that research and education are directly linked to economic growth and welfare. Thus, research and education are an important objective of public policy. Firms and public research are regarded as the main actors which are relevant for the creation of new knowledge. This knowledge is finally brought to the market through innovations. What is more, policy makers support innovations. Both actors, i.e. policy makers and researchers, agree that innovation plays a central role but researchers still neglect the role that public policy plays in the field of industrial dynamics. Therefore, the main objective of this work is to learn more about the interdependencies of innovation, policy and public research in industrial dynamics. The overarching research question of this dissertation asks whether it is possible to analyze patterns of industry evolution – from evolution to co-evolution – based on empirical studies of the role of innovation, policy and public research in industrial dynamics. This work starts with a hypothesis-based investigation of traditional approaches of industrial dynamics. Namely, the testing of a basic assumption of the core models of industrial dynamics and the analysis of the evolutionary patterns – though with an industry which is driven by public policy as example. Subsequently it moves to a more explorative approach, investigating co-evolutionary processes. The underlying questions of the research include the following: Do large firms have an advantage because of their size which is attributable to cost spreading? Do firms that plan to grow have more innovations? What role does public policy play for the evolutionary patterns of an industry? Are the same evolutionary patterns observable as those described in the ILC theories? And is it possible to observe regional co-evolutionary processes of science, innovation and industry evolution? Based on two different empirical contexts – namely the laser and the photovoltaic industry – this dissertation tries to answer these questions and combines an evolutionary approach with a co-evolutionary approach. The first chapter starts with an introduction of the topic and the fields this dissertation is based on. The second chapter provides a new test of the Cohen and Klepper (1996) model of cost spreading, which explains the relationship between innovation, firm size and R&D, at the example of the photovoltaic industry in Germany. First, it is analyzed whether the cost spreading mechanism serves as an explanation for size advantages in this industry. This is related to the assumption that the incentives to invest in R&D increase with the ex-ante output. Furthermore, it is investigated whether firms that plan to grow will have more innovative activities. The results indicate that cost spreading serves as an explanation for size advantages in this industry and, furthermore, growth plans lead to higher amount of innovative activities. What is more, the role public policy plays for industry evolution is not finally analyzed in the field of industrial dynamics. In the case of Germany, the introduction of demand inducing policy instruments stimulated market and industry growth. While this policy immediately accelerated market volume, the effect on industry evolution is more ambiguous. Thus, chapter three analyzes this relationship by considering a model of industry evolution, where demand-inducing policies will be discussed as a possible trigger of development. The findings suggest that these instruments can take the same effect as a technical advance to foster the growth of an industry and its shakeout. The fourth chapter explores the regional co-evolution of firm population size, private-sector patenting and public research in the empirical context of German laser research and manufacturing over more than 40 years from the emergence of the industry to the mid-2000s. The qualitative as well as quantitative evidence is suggestive of a co-evolutionary process of mutual interdependence rather than a unidirectional effect of public research on private-sector activities. Chapter five concludes with a summary, the contribution of this work as well as the implications and an outlook of further possible research.