37 resultados para Technische Logistik
Resumo:
Die vorliegende Arbeit beschäftigt sich mit der Modellierung niederenergetischer elektromagnetischer und hadronischer Prozesse im Rahmen einer manifest lorentzinvarianten, chiralen effektiven Feldtheorie unter expliziter, dynamischer Berücksichtigung resonanter, das heißt vektormesonischer Freiheitsgrade. Diese effektive Theorie kann daher als Approximation der grundlegenden Quantenchromodynamik bei kleinen Energien verstanden werden. Besonderes Augenmerk wird dabei auf das verwendete Zähl- sowie Renormierungschema gelegt, wodurch eine konsistente Beschreibung mesonischer Prozesse bis zu Energien von etwa 1GeV ermöglicht wird. Das verwendete Zählschema beruht dabei im Wesentlichen auf einem Argument für großes N_c (Anzahl der Farbfreiheitsgrade) und lässt eine äquivalente Behandlung von Goldstonebosonen (Pionen) und Resonanzen (Rho- und Omegamesonen) zu. Als Renormierungsschema wird das für (bezüglich der starken Wechselwirkung) instabile Teilchen besonders geeignete complex-mass scheme als Erweiterung des extended on-mass-shell scheme verwendet, welches in Kombination mit dem BPHZ-Renormierungsverfahren (benannt nach Bogoliubov, Parasiuk, Hepp und Zimmermann) ein leistungsfähiges Konzept zur Berechnung von Quantenkorrekturen in dieser chiralen effektiven Feldtheorie darstellt. Sämtliche vorgenommenen Rechnungen schließen Terme der chiralen Ordnung vier sowie einfache Schleifen in Feynman-Diagrammen ein. Betrachtet werden unter anderem der Vektorformfaktor des Pions im zeitartigen Bereich, die reelle Compton-Streuung (beziehungsweise Photonenfusion) im neutralen und geladenen Kanal sowie die virtuelle Compton-Streuung, eingebettet in die Elektron-Positron-Annihilation. Zur Extraktion der Niederenergiekopplungskonstanten der Theorie wird letztendlich eine Reihe experimenteller Datensätze verschiedenartiger Observablen verwendet. Die hier entwickelten Methoden und Prozeduren - und insbesondere deren technische Implementierung - sind sehr allgemeiner Natur und können daher auch an weitere Problemstellungen aus diesem Gebiet der niederenergetischen Quantenchromodynamik angepasst werden.
Resumo:
Der technische Fortschritt konfrontiert die medizinische Bildgebung wie keine andere Sparte der Medizin mit einem rasanten Anstieg zu speichernder Daten. Anschaffung, Wartung und Ausbau der nötigen Infrastruktur entwickeln sich zunehmend zu einem ökonomischen Faktor. Ein Verfahren, welches diesem Trend etwas entgegensetzten könnte ist die irreversible Bilddatenkompression. Sie ist seit über 10 Jahren Gegenstand vieler Studien, deren Ergebnisse sich wiederum in Empfehlungen zum Einsatz irreversibler Kompression mehrerer nationaler und internationaler Organisation, wie CAR, DRG, RCR und ESR wiederspiegeln. Tenor dieser Empfehlungen ist, dass der Einsatz von moderater irreversibler Bilddatenkompression sicher und sinnvoll ist. Teil dieser Empfehlungen sind auch Angaben über das Maß an Kompression, ausgedrückt in Kompressionsraten, welche je nach Untersuchung und anatomischer Region als sicher anwendbar gelten und keinen diagnostisch relevanten Verlust der komprimierten Bilder erzeugen.rnVerschiedene Kompressionsalgorithmen wurden vorgeschlagen. Letztendlich haben sich vor allem die beiden weit verbreiteten Algorithmen JPEG und JPEG2000 bewährt. Letzterer erfährt in letzter Zeit zunehmen Anwendung, aufgrund seiner einfacheren Handhabung und seiner umfangreichen Zusatzfunktionen.rnAufgrund rechtlich-ethischer Bedenken hat die irreversible Kompression keine breite praktische Anwendung finden können. Dafür verantwortlich ist unter anderem auch die Unklarheit, wie sich irreversible Kompression auf Nach- und Weiterverarbeitung (sog. Postprocessing) medizinischer Bilder, wie Segmentierung, Volumetrie oder 3D-Darstellung, auswirkt. Bisherige Studien zu diesem Thema umfassen vier verschiedene Postprocessing-Algorithmen. Die untersuchten Algorithmen zeigten sich bei verlustbehafteter Kompression im Bereich der erwähnten, publizierten Kompressionsraten weitgehend unbeeinflusst. Lediglich die computergestützte Messung von Stenosegraden in der digitalen Koronarangiographie kollidiert mit den in Großbritannien geltenden Empfehlungen. Die Verwendung unterschiedlicher Kompressionsalgorithmen schränkt die allgemeinernAussagekraft dieser Studienergebnisse außerdem ein.rnZur Erweiterung der Studienlage wurden vier weitere Nach- und Weiterverarbeitungsalgorithmen auf ihre Kompressionstoleranz untersucht. Dabei wurden die Kompressionsraten von 8:1, 10:1 und 15:1 verwendet, welche um die empfohlenen Kompressionsraten von CAR, DRG, RCR und ESR liegen und so ein praxisnahes Setting bieten. Als Kompressionsalgorithmus wurde JPEG2000 verwendet, aufgrund seiner zunehmenden Nutzung in Studien sowie seiner bereits erwähnten Vorzüge in Sachen Handhabung und Zusatzfunktionen. Die vier Algorithmen umfassten das 3D-Volume rendering von CT-Angiographien der Becken-Bein-Gefäße, die Computer-assistierte Detektion von Lungenrundherden, die automatisierte Volumetrie von Leberrundherden und die funktionelle Bestimmung der Ejektionsfraktion in computertomographischen Aufnahmen des Herzens.rnAlle vier Algorithmen zeigten keinen Einfluss durch irreversibler Bilddatenkompression in denrngewählten Kompressionsraten (8:1, 10:1 und 15:1). Zusammen mit der bestehenden Literatur deuten die Ergebnisse an, dass moderate irreversible Kompression im Rahmen aktueller Empfehlungen keinen Einfluss auf Nach- und Weiterverarbeitung medizinischer Bilder hat. Eine explizitere Vorhersage zu einem bestimmten, noch nicht untersuchten Algorithmus ist jedoch aufgrund der unterschiedlichen Funktionsweisen und Programmierungen nicht sicher möglich.rnSofern ein Postprocessing Algorithmus auf komprimiertes Bildmaterial angewendet werden soll, muss dieser zunächst auf seine Kompressionstoleranz getestet werden. Dabei muss der Test eine rechtlich-ethische Grundlage für den Einsatz des Algorithmus bei komprimiertem Bildmaterial schaffen. Es sind vor allem zwei Optionen denkbar, die Testung institutsintern, eventuell unter Zuhilfenahme von vorgefertigten Bibliotheken, oder die Testung durch den Hersteller des Algorithmus.
Resumo:
Der Haupt-Lichtsammelkomplex des Fotosystems II (LHCII) setzt sich aus einem Proteinanteil und nicht-kovalent gebundenen Pigmenten – 8 Chlorophyll a, 6 Chlorophyll b und 4 Carotinoide - zusammen. Er assembliert in vivo zu einem Trimer, in dem die Monomereinheiten ebenfalls nicht-kovalent miteinander wechselwirken. Die ausgesprochen hohe Farbstoffdichte und die Tatsache, dass der Komplex rekombinant hergestellt werden kann, machen den LHCII zu einem interessanten Kandidaten für technische Anwendungen wie einer Farbstoffsolarzelle. Allerdings muss hierzu seine thermische Stabilität drastisch erhöht werden.rnDer Einschluss von Proteinen/Enzymen in Silikat erhöht deren Stabilität gegenüber Hitze signifikant. LHCII sollte als erster rekombinanter Membranproteinkomplex mittels kovalent verbundener, polykationischen Sequenzen in Silikat eingeschlossen werden. Hierzu wurde der Komplex auf zwei Weisen polykationisch modifiziert: Auf Genebene wurde die Sequenz des R5-Peptids in den N-terminalen Bereich des LHCP-Gens eingeführt und ein Protokoll zur Überexpression, Rekonstitution und Trimerisierung etabliert. Außerdem wurde eine kovalente Modifikation des trimeren LHCII mit dem Arginin-reichen Protamin über heterobifunktionelle Crosslinker entwickelt. Beide resultierenden LHCII-Derivate waren in der Lage, Silikat autogen zu fällen. Die Stabilisierung der so in Silikat präzipitierten Komplexe war jedoch deutlich geringer als bei nicht-modifizierten Komplexen, die durch eine Spermin-induzierte Copräzipitation eingeschlossenen wurden. Dabei zeigte sich, dass für den Anteil der eingebauten Komplexe und das Ausmaß an Stabilisierung die Größe und klare partikuläre Struktur des Silikats entscheidend ist. Kleine Partikel mit einem Durchmesser von etwa 20 nm führten zu einem Einbau von rund 75 % der Komplexe, und mehr als 80 % des Energietransfers innerhalb des Komplexes blieben erhalten, wenn für 24 Stunden bei 50°C inkubiert wurde. Nicht in Silikat eingeschlossene Komplexe verloren bei 50°C ihren Komplex-internen Energietransfer binnen weniger Minuten. Es war dabei unerheblich, ob die Partikelgröße durch die Wahl des Puffers und des entsprechenden pH-Wertes, oder aber durch Variation des Spermin-zu-Kieselsäure-Verhältnisses erreicht wurde. Wurden die polykationisch veränderten Komplexe in solchen Copräzipitationen verwendet, so erhöhte sich der Anteil an eingebauten Komplexen auf über 90 %, jedoch wurde nur bei der R5-modifizierten Variante vergleichbare Ausmaße an Stabilisierung erreicht. Ein noch höherer Anteil an Komplexen wurde in das Silikatpellet eingebaut, wenn LHCII kovalent mit Silanolgruppen modifiziert wurde (95 %); jedoch war das Ausmaß der Stabilisierung wiederum geringer als bei einer Copräzipitation. Die analysierten Fällungssysteme waren außerdem in der Lage, Titandioxid zu fällen, wobei der Komplex in dieses eingebaut wurde. Allerdings muss das Stabilisierungspotential hier noch untersucht werden. Innerhalb eines Silikatpräzipitats aggregierten die Komplexe nicht, zeigten aber einen inter-trimeren Energietransfer, der sehr wahrscheinlich auf einem Förster Resonanz Mechanismus basiert. rnDies und das hohe Maß an Stabilisierung eröffnen neue Möglichkeiten, rekombinanten LHCII in technischen Applikationen als Lichtsammelkomponente zu verwenden.rn
Resumo:
Ziel der vorliegenden Dissertation war es, Einblicke in das Kristallisationsverhalten weicher Materie („soft matter“), wie verschiedener Polymere oder Wasser, unter räumlicher Einschränkung („confinement“) zu erlangen. Dabei sollte untersucht werden, wie, weshalb und wann die Kristallisation in nanoporösen Strukturen eintritt. Desweiteren ist Kristallisation weicher Materie in nanoporösen Strukturen nicht nur aus Aspekten der Grundlagenforschung von großem Interesse, sondern es ergeben sich zahlreiche praktische Anwendungen. Durch die gezielte Steuerung der Kristallinität von Polymeren könnten somit Materialien mit verschiendenen mechanischen und optischen Eigenschaften erhalten werden. Desweiteren wurde auch räumlich eingeschränktes Wasser untersucht. Dieses spielt eine wichtige Rolle in der Molekularbiologie, z.B. für das globuläre Protein, und als Wolkenkondensationskeime in der Atmosphärenchemie und Physik. Auch im interstellaren Raum ist eingeschränktes Wasser in Form von Eispartikeln anzutreffen. Die Kristallisation von eingeschränktem Wasser zu verstehen und zu beeinflussen ist letztlich auch für die Haltbarkeit von Baumaterialien wie etwa Zement von großem Interesse.rnUm dies zu untersuchen wird Wasser in der Regel stark abgekühlt und das Kristallisationsverhalten in Abhängigkeit des Volumens untersucht. Dabei wurde beobachtet, dass Mikro- bzw. Nanometer große Volumina erst ab -38 °C bzw. -70 °C kristallisieren. Wasser unterliegt dabei in der Regel dem Prozess der homogenen Nukleation. In der Regel gefriert Wasser aber bei höheren Temperaturen, da durch Verunreinigungen eine vorzeitige, heterogene Nukleation eintritt.rnDie vorliegende Arbeit untersucht die sachdienlichen Phasendiagramme von kristallisierbaren Polymeren und Wasser unter räumlich eingeschränkten Bedingungen. Selbst ausgerichtetes Aluminiumoxid (AAO) mit Porengrößen im Bereich von 25 bis 400 nm wurden als räumliche Einschränkung sowohl für Polymere als auch für Wasser gewählt. Die AAO Nanoporen sind zylindrisch und parallel ausgerichtet. Außerdem besitzen sie eine gleichmäßige Porenlänge und einen gleichmäßigen Durchmesser. Daher eignen sie sich als Modelsystem um Kristallisationsprozesse unter wohldefinierter räumlicher Einschränkung zu untersuchen.rnEs wurden verschiedene halbkristalline Polymere verwendet, darunter Poly(ethylenoxid), Poly(ɛ-Caprolacton) und Diblockcopolymere aus PEO-b-PCL. Der Einfluss der Porengröße auf die Nukleation wurde aus verschiedenen Gesichtspunkten untersucht: (i) Einfluss auf den Nukleationmechanismus (heterogene gegenüber homogener Nukleation), (ii) Kristallorientierung und Kristallinitätsgrad und (iii) Zusammenhang zwischen Kristallisationstemperatur bei homogener Kristallisation und Glasübergangstemperatur.rnEs konnte gezeigt werden, dass die Kristallisation von Polymeren in Bulk durch heterogene Nukleation induziert wird und das die Kristallisation in kleinen Poren hauptsächlich über homogene Nukleation mit reduzierter und einstellbarer Kristallinität verläuft und eine hohe Kristallorientierung aufweist. Durch die AAOs konnte außerdem die kritische Keimgröße für die Kristallisation der Polymere abgeschätzt werden. Schließlich wurde der Einfluss der Polydispersität, von Oligomeren und anderen Zusatzstoffen auf den Nukleationsmechanismus untersucht.rn4rnDie Nukleation von Eis wurde in den selben AAOs untersucht und ein direkter Zusammenhang zwischen dem Nukleationstyp (heterogen bzw. homogen) und der gebildeten Eisphase konnte beobachtet werden. In größeren Poren verlief die Nukleation heterogen, wohingegen sie in kleineren Poren homogen verlief. Außerdem wurde eine Phasenumwandlung des Eises beobachtet. In den größeren Poren wurde hexagonales Eis nachgewiesen und unter einer Porengröße von 35 nm trat hauptsächlich kubisches Eis auf. Nennenswerter Weise handelte es sich bei dem kubischem Eis nicht um eine metastabile sondern eine stabile Phase. Abschließend wird ein Phasendiagramm für räumlich eingeschränktes Wasser vorgeschlagen. Dieses Phasendiagramm kann für technische Anwendungen von Bedeutung sein, so z.B. für Baumaterial wie Zement. Als weiteres Beispiel könnten AAOs, die die heterogene Nukleation unterdrücken (Porendurchmesser ≤ 35 nm) als Filter für Reinstwasser zum Einsatz kommen.rnNun zur Anfangs gestellten Frage: Wie unterschiedlich sind Wasser und Polymerkristallisation voneinander unter räumlicher Einschränkung? Durch Vergleich der beiden Phasendiagramme kommen wir zu dem Schluss, dass beide nicht fundamental verschieden sind. Dies ist zunächst verwunderlich, da Wasser ein kleines Molekül ist und wesentlich kleiner als die kleinste Porengröße ist. Wasser verfügt allerdings über starke Wasserstoffbrückenbindungen und verhält sich daher wie ein Polymer. Daher auch der Name „Polywasser“.
Resumo:
Flüssigkristalline Elastomere (LCE) zeigen eine reversible Kontraktion und werden in der Literatur auch als „künstliche Muskeln“ bezeichnet. In dieser Arbeit werden sie mit einem integrierten Heizer versehen, um eine schnelle und präzise Ansteuerung zu ermöglichen. Anschließend werden diese als Aktoren zur Realisierung eines technischen Nachbaus des menschlichen Auges verwendet. rnDas einzigartige Verhalten der flüssigkristallinen Elastomere beruht auf der Kombination der Entropie Elastizität des Elastomers mit der Selbstorganisation der flüssigkristallinen Einheiten (Mesogene). Diese beiden Eigenschaften ermöglichen eine reversible, makroskopische Verformung beim Phasenübergang des Flüssigkristalls in die isotrope Phase. Hierbei ist es wichtig eine homogene Orientierung der Mesogene zu erzeugen, was in dieser Arbeit durch ein Magnetfeld erreicht wird. Da es sich um ein thermotropes flüssigkristallines Elastomer handelt, werden in dieser Arbeit zwei Ansätze vorgestellt, um den LCE intern zu heizen. Zum einen werden Kohlenstoffnanoröhren integriert, um diese über Strahlung oder Strom zu heizen und zum anderen wird ein flexibler Heizdraht integriert, welcher ebenfalls über Strom geheizt wird. rnUm den technischen Nachbau des menschlichen Auges zu realisieren, ist die Herstellung einer flüssigkristallinen Iris gezeigt. Hierzu wird ein radiales Magnetfeld aufgebaut, welches eine radiale Orientierung des Mesogene ermöglicht, wodurch wiederum eine radiale Kontraktion ermöglicht wird. Außerdem sind zwei Konzepte vorgestellt, um eine Elastomer Linse zu verformen. Zum einen wird diese mit einem ringförmigen LCE auseinandergezogen und somit abgeflacht. Zum anderen sind acht Aktoren über Anker an einer Linse angebracht, welche ebenfalls eine Vergrößerung der Linse bewirken. In beiden Fällen werden LCE mit dem zuvor präsentierten integrierten Heizdraht verwendet. Abschließend ist das Zusammensetzen des technische Nachbaus des menschlichen Auges dargestellt, sowie Aufnahmen, welche mit diesem erzeugt wurden.
Resumo:
Diese Arbeit beschreibt die Entwicklung, Konstruktion und Untersuchung eines Magnetometers zur exakten und präzisen Messung schwacher Magnetfelder. Diese Art von Magnetometer eignet sich zur Anwendung in physikalischen hochpräzisions Experimenten wie zum Beispiel der Suche nach dem elektrischen Dipolmomentrndes Neutrons. Die Messmethode beruht auf der gleichzeitigen Detektion der freien Spin Präzession Kern-Spin polarisierten 3He Gases durch mehrere optisch gepumpte Cäsium Magnetometer. Es wird gezeigt, dass Cäsium Magnetometer eine zuverlässige und vielseitige Methode zur Messung der 3He Larmor Frequenz und eine komfortable Alternative zur Benutzung von SQUIDs für diesen Zweck darstellen. Ein Prototyp dieses Magnetometers wurde gebaut und seine Funktion in der magnetisch abgeschirmten Messkabine der Physikalisch Technischen Bundesanstalt untersucht. Die Sensitivität des Magnetometers in Abhängigkeitrnvon der Messdauer wurde experimentell untersucht. Es wird gezeigt, dass für kurze Messperioden (< 500s) Cramér-Rao limitierte Messungen möglich sind während die Sensitivität bei längeren Messungen durch die Stabilität des angelegten Magnetfeldes limitiert ist. Messungen eines 1 muT Magnetfeldes mit einer relative Genauigkeit von besser als 5x10^(-8) in 100s werden präsentiert. Es wird gezeigt, dass die Messgenauigkeit des Magnetometers durch die Zahl der zur Detektion der 3He Spin Präzession eingesetzten Cäsium Magnetometer skaliert werden kann. Prinzipiell ist dadurch eine Anpassung der Messgenauigkeit an jegliche experimentellen Bedürfnisse möglich. Es wird eine gradiometrische Messmethode vorgestellt, die es erlaubt den Einfluss periodischerrnmagnetischer Störungen auf dieMessung zu unterdrücken. Der Zusammenhang zwischen der Sensitivität des kombinierten Magnetometers und den Betriebsparametern der Cäsium Magnetometer die zur Spin Detektion verwendet werden wird theoretisch untersucht und anwendungsspezifische Vor- und Nachteile verschiedener Betriebsartenwerden diskutiert. Diese Zusammenhänge werden in einer Formel zusammengefasst die es erlaubt, die erwartete Sensitivität des Magnetometers zu berechnen. Diese Vorhersagen befinden sich in perfekter Übereinstimmung mit den experimentellen Daten. Die intrinsische Sensitivität des Magnetometer Prototyps wird auf Basis dieser Formel theoretisch bestimmt. Ausserdem wird die erwartete Sensitivität für die Anwendung im Rahmen des Experiments der nächsten Generation zur Bestimmung des elektrischenrnDipolmoments des Neutrons am Paul Scherrer Institut abgeschätzt. Des weiteren wird eine bequeme experimentelle Methode zur Messung des Polarisationsgrades und des Rabi Flip-Winkels der 3He Kernspin Polarisation vorgestellt. Letztere Messung ist sehr wichtig für die Anwendung in hochpräzisions Experimenten.
Resumo:
Die Dissertation „Strategisches Innovationsmanagement von Buchverlagen im Kontext konvergierender Medienmärkte“ nimmt sich des Themengebiets der Innovation in Buchverlagen in Zeiten der Digitalisierung an. Grob gliedert die Arbeit sich in einen Theorieteil und einen Empirieteil. Den Einstieg in den Theorieteil bildet eine Einführung in die Themenstellung, in der das Erkenntnisinteresse anhand von vier forschungsleitenden Fragen eingegrenzt wird: rn1) „Welche Anforderungen an die Innovationsfähigkeit von Verlagen ergeben sich aus aktuellen und antizipierten zukünftigen Entwicklungen, insbesondere der Medienkonvergenz?“rn2) „Welchen Beitrag kann strategisches Innovationsmanagement leisten, um diesen Anforderungen mit erfolgreichen Innovationen gerecht zu werden?“ rn3) „Welches sind die kritischen Faktoren für erfolgreiches Innovieren im Buchverlag?“ rn4) „Wie kann erfolgsförderndes Innovationsmanagement in Buchverlage implementiert werden?“rnrnDer Ausgangspunkt ist dabei die Darstellung aktueller Entwicklungen im Buchmarkt, die in ihrer Relevanz für das Thema bewertet werden. Dabei stehen solche Veränderungen im Mediennutzungsverhalten und dem veränderten Marktumfeld im Fokus, aus denen resultiert, dass Verlage sich nicht mehr nur auf ihre tradierten Kernkompetenzen verlassen können. Der Medienkonvergenz wird in dem Kontext als Suprakategorie eine herausgehobene Bedeutung zuerkannt. Am Ende des dritten Kapitels wird resümierend erörtert, woraus für Verlage heute die Notwendigkeit innovativen Handelns erwächst. Damit findet auch eine Überleitung in das folgende Kapitel über Innovation im Buchverlag statt, das inhaltlich den Kern des Theorieteils der Arbeit bildet.rnrnIm Kapitel Innovation im Buchverlag wird zuerst eine definitorische Eingrenzung des Innovationsbegriffs vorgenommen. Dabei wird eine Entscheidung für den mehrdimensionalen Ansatz nach Hauschildt und Salomo als definitorisches Grundraster getroffen. Darauf folgt eine Einführung in theoretische Grundbegriffe und Konzepte des Innovationsmanagements. Im Folgenden finden Erkenntnisse aus der Innovationsforschung Anwendung auf Spezifika in Buchverlagen, wobei zunächst Handlungsfelder identifiziert werden. Eine wesentliche Rolle im Argumentationsgang der Arbeit spielen dann die Erfolgsfaktoren des Innovationsmanagements in Buchverlagen. Eine herausragende Stellung wird dabei dem Wissensmanagement zuerkannt. Es folgt darauf ein Unterkapitel über Innovationskooperation. Darin wird zunächst die strategische Relevanz von Kooperationen beleuchtet, wobei auch eine teils kritische Auseinandersetzung mit dem modernen Begriff der Open Innovation stattfindet. Dann wird dargestellt, wer sich als Kooperationspartner für Buchverlage eignet und welche Modi des kooperativen Innovierens existieren. Es folgen darauf Ausführungen zur Implementierung einer Innovationsstrategie, wobei sowohl aufbau- als auch ablauforganisatorische Aspekte zum Tragen kommen. Im Mittelpunkt steht dabei die Darstellung des Stage-Gate-Modells als Ansatz für die Ablaufplanung von Innovationsprozessen in Buchverlagen. Wegen seiner guten Skalierbarkeit wird diesem Ansatz eine Eignung sowohl für kleine als auch mittelgroße und große Verlage zuerkannt. Den Abschluss des Kapitels über Innovation im Buchverlag bilden Betrachtungen über die rechtliche und technische Absicherung von Innovationen. rnrnDer empirische Teil der Arbeit wird eingeläutet mit einer Herleitung empirischer Fragestellungen. Dies geschieht zum einen auf der Grundlage einer Betrachtung, welche Erkenntnislücken die rein theoretische Auseinandersetzung mit dem Thema offengelassen hat. Die empirischen Fragestellungen bilden das Grundgerüst, auf dem im Folgenden die Ergebnisse einer qualitativen Maßnahme in Form von Interviews und einer quantitativen Maßnahme in Form einer Befragung per Fragebogen dargestellt werden. In der Auswertung der Ergebnisse werden dabei zunächst Hypothesen aus den Fallstudien gebildet, die auf Grundlage der Interviews entstanden sind. Diese Hypothesen werden anhand der Daten, die bei der Erhebung per Fragebogen gewonnen wurden, mit statistischen Methoden überprüft.rnrnDen Abschluss der Arbeit bildet eine Schlussbetrachtung, in der die gewonnenen Erkenntnisse verdichtet und vor dem Hintergrund der eingangs gestellten forschungsleitenden Fragen als Quintessens der Arbeit präsentiert werden. Zu jeder forschungsleitenden Frage findet dabei ein kurzes Resümee statt. Als größte Anforderung an die Innovationsfähigkeit von Verlagen wird darin erkannt, den Modus der eigenen Wertschöpfung kontinuierlich zu aktualisieren und an die dynamischen Veränderungen im Umfeld anzupassen. Dem strategischen Innovationsmanagement kommt dabei vor allem die Bedeutung zu, dass es ein konsistentes Handeln ermöglicht, das als Voraussetzung für die Planbarkeit von Innovationserfolgen gesehen wird. Auch erscheint es zunehmend wichtig, den Paradigmenwechsel weg vom Denken in Produktkategorien hin zu einem Denken in Problemlösungskategorien zu vollziehen, wobei ein strategisches Innovationsmanagement Buchverlagen hilfreich sein kann.rn