41 resultados para Implementierung
Resumo:
Data sets describing the state of the earth's atmosphere are of great importance in the atmospheric sciences. Over the last decades, the quality and sheer amount of the available data increased significantly, resulting in a rising demand for new tools capable of handling and analysing these large, multidimensional sets of atmospheric data. The interdisciplinary work presented in this thesis covers the development and the application of practical software tools and efficient algorithms from the field of computer science, aiming at the goal of enabling atmospheric scientists to analyse and to gain new insights from these large data sets. For this purpose, our tools combine novel techniques with well-established methods from different areas such as scientific visualization and data segmentation. In this thesis, three practical tools are presented. Two of these tools are software systems (Insight and IWAL) for different types of processing and interactive visualization of data, the third tool is an efficient algorithm for data segmentation implemented as part of Insight.Insight is a toolkit for the interactive, three-dimensional visualization and processing of large sets of atmospheric data, originally developed as a testing environment for the novel segmentation algorithm. It provides a dynamic system for combining at runtime data from different sources, a variety of different data processing algorithms, and several visualization techniques. Its modular architecture and flexible scripting support led to additional applications of the software, from which two examples are presented: the usage of Insight as a WMS (web map service) server, and the automatic production of a sequence of images for the visualization of cyclone simulations. The core application of Insight is the provision of the novel segmentation algorithm for the efficient detection and tracking of 3D features in large sets of atmospheric data, as well as for the precise localization of the occurring genesis, lysis, merging and splitting events. Data segmentation usually leads to a significant reduction of the size of the considered data. This enables a practical visualization of the data, statistical analyses of the features and their events, and the manual or automatic detection of interesting situations for subsequent detailed investigation. The concepts of the novel algorithm, its technical realization, and several extensions for avoiding under- and over-segmentation are discussed. As example applications, this thesis covers the setup and the results of the segmentation of upper-tropospheric jet streams and cyclones as full 3D objects. Finally, IWAL is presented, which is a web application for providing an easy interactive access to meteorological data visualizations, primarily aimed at students. As a web application, the needs to retrieve all input data sets and to install and handle complex visualization tools on a local machine are avoided. The main challenge in the provision of customizable visualizations to large numbers of simultaneous users was to find an acceptable trade-off between the available visualization options and the performance of the application. Besides the implementational details, benchmarks and the results of a user survey are presented.
Resumo:
Die Analyse optischer Spektren liefert einen kernmodellunabhängigen Zugang zur Bestimmung der Kernspins, Ladungsradien und elektromagnetischen Momente von Atomkernen im Grundzustand und von langlebigen Isomeren. Eine der vielseitigsten Methoden zur optischen Spektroskopie an kurzlebigen Isotopen ist die kollineare Laserspektroskopie. Im Rahmen dieser Arbeit wurde zum einen die TRIGA-LASER Strahlstrecke am Institut für Kernchemie der Universität Mainz durch die Implementierung einer neuen offline Oberflächenionenquelle für hohe Verdampfungstemperaturen und eines Strahlanalysesystems weiterentwickelt. Zum anderen wurde kollineare Laserspektroskopie an kurzlebigen Praseodym- und Cadmiumisotopen an ISOLDE/CERN durchgeführt. Die neue Ionenquelle ermöglichte dabei den Test der kollinearen Laserspektroskopie an Praseodymionen am TRIGA-LASER Experiment. Die Spektroskopie der Prasdeodymionen motivierte sich aus der Beobachtung einer zeitlichen Modulation der EC-Zerfallsrate von wasserstoffähnlichem 140Pr58+. Für die Erklärung dieser sogenannten GSI Oszillationen wird unter anderem das magnetische Moment des Kerns benötigt, welches bislang noch nicht experimentell bestimmt wurde. Zudem wurde für wasserstoffähnliches 140Pr58+ überraschenderweise eine kleinere EC-Zerfallskonstante gemessen als für heliumähnliches 140Pr57+. Die Erklärung dieses Phänomens setzt ein positives magnetisches Moment voraus. Bei der Spektroskopie am COLLAPS Experiment wurden erstmals die magnetischen Momente von 135Pr, 136Pr und 137Pr vermessen. Aufgrund zu geringer Produktionsraten war die Spektroskopie des gewünschten Isotops 140Pr jedoch nicht erfolgreich. Die Untersuchung der Cadmiumisotope ist kernphysikalisch motiviert. In der Zinnregion erstrecken sich die Isotope über die beiden magischen Zahlen N=50 und N=82 bei gleichzeitiger Nähe des Z=50 Schalenabschlusses. Hier können verschiedene Kernmodelle getestet werden, die sich beispielsweise hinsichtlich der Stärke des N=82 Schalenabschlusses widersprechen. Diese Arbeit berichtet über erste Ergebnisse der Spektroskopie an Cadmiumatomen, die sich über die Isotope 106−124,126Cd sowie die zugehörigen langlebigen I=11/2− Isomere erstreckt. Die zuvor experimentell bekannten oder aus dem erweiterten Schalenmodell abgeleiteten Kernspins konnten für alle Isotope bis auf 119Cd bestätigt werden. Der Kernspin von 119Cd wurde eindeutig zu I=1/2 bestimmt. Die elektrischen Quadrupolmomente der Isomere zeigen ein bemerkenswert lineares Verhalten in Abhängigkeit von der Neutronenzahl und dies über die eigentliche Kapazität der 1h11/2 Unterschale hinaus. Die Änderungen der mittleren quadratischen Ladungsradien zeigen den auch an Indium- und Zinnisotopen beobachteten stetigen Verlauf. Der lineare Anteil passt sehr gut zu den Berechnung des Tröpfchenmodells in der Parametrisierung nach Berchidevsky und Tondeur. Die Differenzen der mittleren quadratischen Ladungsradien zwischen Grund- und isomeren Zustand der ungeraden Cadmiumisotope zeigen einen interessanten parabolischen Verlauf mit einem Minimum zwischen A=117 und A=119.
Resumo:
Die Deposition von dünnen, metallischen Schichten auf Silizium-Substraten stellt bereits seit Jahrzehnten die wichtigste Möglichkeit dar, um die wachsenden Anforderungen der Speichertechnologien zu erfüllen. Obwohl Multilagenstrukturen aus oxidischen Schichten eine nahezu unerschöpfliche Vielfalt an neuen Effekten bieten, kommen diese aktuell nur in Nischenanwendungen zum Einsatz. Der Fokus dieser Arbeit liegt auf dem Verständnis von Phänomenen, die nur an Grenzflächensystemen zu beobachten sind. Die Basis der Untersuchungen stellten die Präparation der Multilagenstrukturen durch Laserablation dar. Eine Untersuchung der strukturellen Eigenschaften von multiferroischen BiFeO3 (BFO)-Schichten erlaubte eine Analyse der Wachstumsmodi und der Symmetrie der Einheitszelle von BFO unter heteroepitaktischer Verspannung. Durch Piezokraftmikroskopie konnte die ferroelektrische Domänenstruktur dünner BFO-Schichten analysiert werden. Die Abbildung der magnetischen Domänenstruktur der ferromagnetischen La0,67Sr0,33MnO3 (LSMO)-Schicht und der antiferromagnetischen BFO-Schicht einer Bilagenstruktur durch Photoemissionselektronenmikroskopie erlaubte eine Analyse der Austauschkopplung an der Grenzfläche. Durch elektronische Rekonstruktion entsteht an der LaAlO3 (LAO) /SrTiO3 (STO)-Grenzfläche ein leitfähiger, quasi-zweidimensionaler Zustand. Dessen Transporteigenschaften wurden mit einem Schwerpunkt auf deren Beeinflussung durch ein elektrisches Feld charakterisiert. Diese Ergebnisse führten zur Implementierung einer ferroelektrischen BFO-Schicht zur Manipulation der Leitfähigkeit an der LAO/STO-Grenzfläche. Die Kontrolle des Widerstandes eines mikrostrukturierten Bereichs durch die Polarisation der BFO-Schicht erlaubt die Nutzung der Struktur als Speichertechnologie.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit der Modellierung niederenergetischer elektromagnetischer und hadronischer Prozesse im Rahmen einer manifest lorentzinvarianten, chiralen effektiven Feldtheorie unter expliziter, dynamischer Berücksichtigung resonanter, das heißt vektormesonischer Freiheitsgrade. Diese effektive Theorie kann daher als Approximation der grundlegenden Quantenchromodynamik bei kleinen Energien verstanden werden. Besonderes Augenmerk wird dabei auf das verwendete Zähl- sowie Renormierungschema gelegt, wodurch eine konsistente Beschreibung mesonischer Prozesse bis zu Energien von etwa 1GeV ermöglicht wird. Das verwendete Zählschema beruht dabei im Wesentlichen auf einem Argument für großes N_c (Anzahl der Farbfreiheitsgrade) und lässt eine äquivalente Behandlung von Goldstonebosonen (Pionen) und Resonanzen (Rho- und Omegamesonen) zu. Als Renormierungsschema wird das für (bezüglich der starken Wechselwirkung) instabile Teilchen besonders geeignete complex-mass scheme als Erweiterung des extended on-mass-shell scheme verwendet, welches in Kombination mit dem BPHZ-Renormierungsverfahren (benannt nach Bogoliubov, Parasiuk, Hepp und Zimmermann) ein leistungsfähiges Konzept zur Berechnung von Quantenkorrekturen in dieser chiralen effektiven Feldtheorie darstellt. Sämtliche vorgenommenen Rechnungen schließen Terme der chiralen Ordnung vier sowie einfache Schleifen in Feynman-Diagrammen ein. Betrachtet werden unter anderem der Vektorformfaktor des Pions im zeitartigen Bereich, die reelle Compton-Streuung (beziehungsweise Photonenfusion) im neutralen und geladenen Kanal sowie die virtuelle Compton-Streuung, eingebettet in die Elektron-Positron-Annihilation. Zur Extraktion der Niederenergiekopplungskonstanten der Theorie wird letztendlich eine Reihe experimenteller Datensätze verschiedenartiger Observablen verwendet. Die hier entwickelten Methoden und Prozeduren - und insbesondere deren technische Implementierung - sind sehr allgemeiner Natur und können daher auch an weitere Problemstellungen aus diesem Gebiet der niederenergetischen Quantenchromodynamik angepasst werden.
Resumo:
In der Erdöl– und Gasindustrie sind bildgebende Verfahren und Simulationen auf der Porenskala im Begriff Routineanwendungen zu werden. Ihr weiteres Potential lässt sich im Umweltbereich anwenden, wie z.B. für den Transport und Verbleib von Schadstoffen im Untergrund, die Speicherung von Kohlendioxid und dem natürlichen Abbau von Schadstoffen in Böden. Mit der Röntgen-Computertomografie (XCT) steht ein zerstörungsfreies 3D bildgebendes Verfahren zur Verfügung, das auch häufig für die Untersuchung der internen Struktur geologischer Proben herangezogen wird. Das erste Ziel dieser Dissertation war die Implementierung einer Bildverarbeitungstechnik, die die Strahlenaufhärtung der Röntgen-Computertomografie beseitigt und den Segmentierungsprozess dessen Daten vereinfacht. Das zweite Ziel dieser Arbeit untersuchte die kombinierten Effekte von Porenraumcharakteristika, Porentortuosität, sowie die Strömungssimulation und Transportmodellierung in Porenräumen mit der Gitter-Boltzmann-Methode. In einer zylindrischen geologischen Probe war die Position jeder Phase auf Grundlage der Beobachtung durch das Vorhandensein der Strahlenaufhärtung in den rekonstruierten Bildern, das eine radiale Funktion vom Probenrand zum Zentrum darstellt, extrahierbar und die unterschiedlichen Phasen ließen sich automatisch segmentieren. Weiterhin wurden Strahlungsaufhärtungeffekte von beliebig geformten Objekten durch einen Oberflächenanpassungsalgorithmus korrigiert. Die Methode der „least square support vector machine” (LSSVM) ist durch einen modularen Aufbau charakterisiert und ist sehr gut für die Erkennung und Klassifizierung von Mustern geeignet. Aus diesem Grund wurde die Methode der LSSVM als pixelbasierte Klassifikationsmethode implementiert. Dieser Algorithmus ist in der Lage komplexe geologische Proben korrekt zu klassifizieren, benötigt für den Fall aber längere Rechenzeiten, so dass mehrdimensionale Trainingsdatensätze verwendet werden müssen. Die Dynamik von den unmischbaren Phasen Luft und Wasser wird durch eine Kombination von Porenmorphologie und Gitter Boltzmann Methode für Drainage und Imbibition Prozessen in 3D Datensätzen von Böden, die durch synchrotron-basierte XCT gewonnen wurden, untersucht. Obwohl die Porenmorphologie eine einfache Methode ist Kugeln in den verfügbaren Porenraum einzupassen, kann sie dennoch die komplexe kapillare Hysterese als eine Funktion der Wassersättigung erklären. Eine Hysterese ist für den Kapillardruck und die hydraulische Leitfähigkeit beobachtet worden, welche durch die hauptsächlich verbundenen Porennetzwerke und der verfügbaren Porenraumgrößenverteilung verursacht sind. Die hydraulische Konduktivität ist eine Funktion des Wassersättigungslevels und wird mit einer makroskopischen Berechnung empirischer Modelle verglichen. Die Daten stimmen vor allem für hohe Wassersättigungen gut überein. Um die Gegenwart von Krankheitserregern im Grundwasser und Abwässern vorhersagen zu können, wurde in einem Bodenaggregat der Einfluss von Korngröße, Porengeometrie und Fluidflussgeschwindigkeit z.B. mit dem Mikroorganismus Escherichia coli studiert. Die asymmetrischen und langschweifigen Durchbruchskurven, besonders bei höheren Wassersättigungen, wurden durch dispersiven Transport aufgrund des verbundenen Porennetzwerks und durch die Heterogenität des Strömungsfeldes verursacht. Es wurde beobachtet, dass die biokolloidale Verweilzeit eine Funktion des Druckgradienten als auch der Kolloidgröße ist. Unsere Modellierungsergebnisse stimmen sehr gut mit den bereits veröffentlichten Daten überein.
Resumo:
In der vorliegenden Arbeit wird die Theorie der analytischen zweiten Ableitungen für die EOMIP-CCSD-Methode formuliert sowie die durchgeführte Implementierung im Quantenchemieprogramm CFOUR beschrieben. Diese Ableitungen sind von Bedeutung bei der Bestimmung statischer Polarisierbarkeiten und harmonischer Schwingungsfrequenzen und in dieser Arbeit wird die Genauigkeit des EOMIP-CCSD-Ansatzes bei der Berechnung dieser Eigenschaften für verschiedene radikalische Systeme untersucht. Des Weiteren können mit Hilfe der ersten und zweiten Ableitungen vibronische Kopplungsparameter berechnet werden, welche zur Simulation von Molekülspektren in Kombination mit dem Köppel-Domcke-Cederbaum (KDC)-Modell - in der Arbeit am Beispiel des Formyloxyl (HCO2)-Radikals demonstriert - benötigt werden.rnrnDer konzeptionell einfache EOMIP-CC-Ansatz wurde gewählt, da hier die Wellenfunktion eines Radikalsystems ausgehend von einem stabilen geschlossenschaligen Zustand durch die Entfernung eines Elektrons gebildet wird und somit die Problematik der Symmetriebrechung umgangen werden kann. Im Rahmen der Implementierung wurden neue Programmteile zur Lösung der erforderlichen Gleichungen für die gestörten EOMIP-CC-Amplituden und die gestörten Lagrange-Multiplikatoren zeta zum Quantenchemieprogramm CFOUR hinzugefügt. Die unter Verwendung des Programms bestimmten Eigenschaften werden hinsichtlich ihrer Leistungsfähigkeit im Vergleich zu etablierten Methoden wie z.B. CCSD(T) untersucht. Bei der Berechnung von Polarisierbarkeiten und harmonischen Schwingungsfrequenzen liefert die EOMIP-CCSD-Theorie meist gute Resultate, welche nur wenig von den CCSD(T)-Ergebnissen abweichen. Einzig bei der Betrachtung von Radikalen, für die die entsprechenden Anionen nicht stabil sind (z.B. NH2⁻ und CH3⁻), liefert der EOMIP-CCSD-Ansatz aufgrund methodischer Nachteile keine aussagekräftige Beschreibung. rnrnDie Ableitungen der EOMIP-CCSD-Energie lassen sich auch zur Simulation vibronischer Kopplungen innerhalb des KDC-Modells einsetzen.rnZur Kopplung verschiedener radikalischer Zustände in einem solchen Modellpotential spielen vor allem die Ableitungen von Übergangsmatrixelementen eine wichtige Rolle. Diese sogenannten Kopplungskonstanten können in der EOMIP-CC-Theorie besonders leicht definiert und berechnet werden. Bei der Betrachtung des Photoelektronenspektrums von HCO2⁻ werden zwei Alternativen untersucht: Die vertikale Bestimmung an der Gleichgewichtsgeometrie des HCO2⁻-Anions und die Ermittlung adiabatischer Kraftkonstanten an den Gleichgewichtsgeometrien des Radikals. Lediglich das adiabatische Modell liefert bei Beschränkung auf harmonische Kraftkonstanten eine qualitativ sinnvolle Beschreibung des Spektrums. Erweitert man beide Modelle um kubische und quartische Kraftkonstanten, so nähern sich diese einander an und ermöglichen eine vollständige Zuordnung des gemessenen Spektrums innerhalb der ersten 1500 cm⁻¹. Die adiabatische Darstellung erreicht dabei nahezu quantitative Genauigkeit.
Resumo:
In dieser Arbeit wird die Entwicklung und experimentelle Umsetzung einer kontinuierlichen, kohärenten Lichtquelle im vakuumultravioletten Wellenlängenbereich um 122 nm präsentiert. Diese basiert auf der nichtlinearen optischen Summenfrequenzmischung dreier Fundamentallaserstrahlen in einer mit Quecksilberdampf gefüllten Hohlfaser. Die Wellenlängen der fundamentalen Laser sind dabei an der Niveaustruktur des Quecksilbers orientiert, um eine mehrfach resonante Überhöhung der nichtlinearen Suszeptibilität zu erreichen. Der transversale Einschluss der Lichtfelder in der Faser verlängert die Wechselwirkungszone mit dem nichtlinearen Medium um mehrere Größenordnungen gegenüber dem Regime fokussierter Strahlen und erlaubt so signifikante Steigerungen der Mischeffizienz.rnrnIm Zuge dieser Arbeit wurde neben einer umfassenden mathematischen Analyse des nichtlinearen Mischprozesses unter Einfluss der Fasercharakteristika eine Apparatur zur Erzeugung und Detektion vakuumultravioletter Strahlung entwickelt. Die Generierung ausreichend hoher Dampfdichten innerhalb des 50 µm durchmessenden Faserkerns konnten spektroskopisch nachgewiesen werden.rnrnDas erste erfolgreiche Summenfrequenzmischen zu 121,26 nm in der Faser wurde demonstriert. Die erzielten Mischeffizienzen sind bereits mit denen vergleichbar, welche unter Verwendung fokussierter Strahlen erreicht werden, obwohl eine Phasenanpassung in der Faser bisher nicht möglich war. Die Ergebnisse dieser Arbeit markieren damit einen wichtigen Schritt hin zu Leistungssteigerungen kohärenter, kontinuierlicher vakuumultravioletter Lichtquellen.rnrnEine solche Quelle wird für zukünftige Laserkühlung von magnetisch gefangenem Antiwasserstoff auf dem Lyman-Alpha Übergang, sowie die Rydberganregung von Calciumionen in einer Paulfalle zur Implementierung quantenlogischer Operationen benötigt.rnrnFerner hat eine Untersuchung der, für eine effiziente Konversion essentiellen, 6^1S_0 - 7^1S_0 Zwei-Photonen Resonanz in Quecksilber Hinweise auf eine bis dato experimentell nicht beobachtete, auf einer Mehr-Photonen Anregung beruhende Licht-induzierte Drift ergeben.
Resumo:
Die Herzinsuffizienz (HI) ist eine der häufigsten und teuersten medizinischen Indikationen in der heutigen Zeit. rnIn der vorliegenden Arbeit konnte zum ersten Mal die Topoisomerase 2b (Top2b) in Zusammenhang mit der Entstehung einer dilatativen Kardiomyopathie gebracht werden. rnIn einem speziellen Mausmodell war es möglich, die Top2b gewebsspezifisch und zeitspezifisch nur in Kardiomyozyten zu deletieren. Dies geschah mittels eines Tamoxifen-induzierten Cre-Rekombinase-Gendeletionsmodells. Phänotypisch zeigten die Top2b-deletierten Mäuse 8 Wochen nach der Tamoxifen-Gabe signifikant reduzierte kardiale Ejektionsfraktionen sowie erhöhte linksventrikuläre enddiastolische und endsystolische Volumina. Weder Schlagvolumen noch Körpergewicht waren verändert. Die natriuretischen Peptide ANP und BNP waren in den Top2b-deletierten Tieren ebenfalls signifikant erhöht. Zusätzlich zeigten sowohl elektronenmikroskopische Untersuchungen als auch klassische histologische Verfahren fibrotische Veränderungen und erhöhte Kollagenablagerungen in Top2b-deletierten Tieren. Begleitend dazu stiegen die mRNA-Expressionslevel von Col1a1, Col3a1, Tgfβ1 und Tgfβ2 in den deletierten Tieren 8 Wochen nach der Implementierung der Deletion signifikant an. rnIn einer genomweiten Hochdurchsatz-Sequenzierung waren bereits 2 Wochen nach Tamoxifen-Gabe 128 Gene mindestens 2-fach gegenüber der Kontrollgruppe differentiell exprimiert. Eine genauere Analyse der veränderten Genexpression ließ bereits 14 Tage nach Implementierung der Deletion kardiale Verschlechterungen vermuten. So waren neben dem atrialen natriuretischen Peptid ANP die beiden häufigsten Kollagenarten im Herzen, Col3a1 und Col1a1, hochreguliert. rnInteressanterweise beinhalteten die 37 herunterregulierten Gene 11 Transkriptionsfaktoren. Da der Top2b in den letzten Jahren eine immer stärker werdende Bedeutung in der Transkription zugesprochen wird, sollte mittels Chromatin-Immunpräzipitation ein direkter Zusammenhang zwischen der Top2b-Deletion und der Herunterregulierung der 11 Transkriptionsfaktoren sowie die Bindung der Top2b an Promotoren ausgewählter, differentiell-exprimierter Gene untersucht werden. Generell konnte keine vermehrte Bindung von Top2b an Promotorbereiche gezeigt werden, was aber nicht dem generellen Fehlen einer Bindung gleichkommen muss. Vielmehr gab es methodische Schwierigkeiten, weshalb die Bedeutung der Top2b in der Transkription im Rahmen der vorliegenden Arbeit nicht ausreichend geklärt werden konnte.rnEine Kardiomyozyten-spezifische Top2b-Deletion mündete 8 Wochen nach Tamoxifen-Gabe in eine dilatative Kardiomyopathie. Zum gegenwärtigen Zeitpunkt sind keine klaren Aussagen zum zugrundeliegenden Mechanismus der entstehenden Herzschädigung in Folge einer Top2b-Deletion zu treffen. Es gibt jedoch Hinweise darauf, dass der Tumorsuppressormarker p53 eine wichtige Rolle in der Entstehung der dilatativen Kardiomyopathie spielen könnte. So konnte 8 Wochen nach der Top2b-Deletion mittels Chromatin-Immunpräzipitation eine erhöhte Bindung von p53 an Promotorregionen von Col1a1, Tgfβ2 und Mmp2 detektiert werden. Die Bedeutung dieser Bindung, und ob aufgrund dessen die Entstehung der Fibrose erklärt werden könnte, ist zum jetzigen Zeitpunkt unklar.rn
Resumo:
Die großen christlichen Kirchen in Deutschland befinden sich in einem strukturellen Umbruch, der sich zunehmend auf die Pastoral der örtlichen Pfarreien und Kirchengemeinden auswirkt. Durch die Einführung von Verfahren aus dem New Public Management erhoffen sich Kirchenleitungen beider Konfessionen eine innerkirchliche Personalentwicklung, die vor allem das hauptberufliche Seelsorgepersonal neu motivieren soll. Insbesondere in der katholischen Kirche soll so - in Verbindung mit einem möglichst missionarisch wirksamen Neuaufbruch - die Transformation der ehemals volkskirchlich geprägten Pfarrgemeinden in eine sich neu abzeichnende Sozialgestalt von Kirche als Netzwerk größerer pastoraler Einheiten unterstützt werden. Die vorliegende Arbeit untersucht an der interdisziplinären Schnittstelle von Organisationforschung und praktischer Theologie, inwieweit die Einführung von Zielvereinbarungsgesprächen (ZVG) führungsverantwortliche Priester in der Wahrnehmung ihrer Leitungsaufgabe stärkt. Über 300 leitende Priester aus den Erzbistümern Freiburg und Paderborn hatten an der empirischen Studie mit zwei Messzeitpunkten teilgenommen. 73 Priester waren an beiden Messzeitpunkten A (2007) und B (2008) beteiligt. Unmittelbar nach dem Zeitpunkt A besuchten die befragten Priester der Erzdiözese Freiburg eine ZVG-Einführungsschulung, der sich eine einjährige Gesprächspraxis anschloss. Die in der Erzdiözese Paderborn befragten Priester bildeten die Vergleichsgruppe (ohne entsprechendes Treatment).rn rnWesentliches Ergebnis der Studie sind empirische Hinweise auf signifikante Zusammenhänge zwischen dem priesterlichem Leitungsselbstverständnis, der ZVG-Umsetzung und der Einschätzung der eigenen Führungsqualität.rnrnIn den Selbsteinschätzungen der leitenden Priester (z.B. im Hinblick auf Leitungszufriedenheit, Bedeutung bzw. Gelingen von einzelnen Leitungs- und Gesprächsaspekten, etc.) zeigten sich zum Zeitpunkt A im Vergleich zwischen beiden Diözesen nur geringe Unterschiede. Dies gilt auch für die in A erfolgte Auswertung offener Fragen zum priesterlichen Selbstverständnis, welches als leitungs-amtliche Handlungs- und Objektorientierung in beiden Diözesen am wenigsten stark ausgeprägt war.Zum Zeitpunkt B verdeutlichte die Untersuchung des Tätigkeitsfelds Gemeindeleitung, dass dessen Bedeutung in Freiburg größer war als in Paderborn. Der hierfür erbrachte Kraft- bzw. Zeitaufwand war in Freiburg jedoch niedriger als in Paderborn, was als eine Frucht der verbindlichen ZVG-Einführung in Freiburg interpretiert werden kann. Deutlich wird auch, dass Priester, die der ZVG-Einführung eine hohe Bedeutung beimessen, mit ihren Mitarbeitern viele Gespräche planen. Weil Folgegespräche zum Zeitpunkt B im gleichen Umfang wie schon zum Zeitpunkt A geplant wurden, müssen die konkreten Gesprächserfahrungen in der A-Phase hinreichend positiv gewesen sein. Die Umsetzung zum Zeitpunkt B war jedoch nicht in dem zum Zeitpunkt A geplanten Maß erfolgt, was sich mit Prioritätsverschiebungen erklären lässt. Interessanterweise korreliert die Anzahl der geführten Zielvereinbarungsgespräche mit dem Dienst- und Lebensalter der Priester. Erfahrene Priester, die sich auf eine Mitarbeiterführung durch Zielvereinbarung einlassen, machen demnach gute Erfahrungen mit diesem Personalentwicklungsinstrument. rnrnInsgesamt können die Ergebnisse der Studie zu einer weiteren Kultivierung der Zielvereinbarungsgespräche im kirchlichen Dienst ermutigen. Bistümern, die noch keine Zielvereinbarungsgespräche eingeführt haben, kann eine Implementierung angeraten werden. rn
Resumo:
Zeitreihen sind allgegenwärtig. Die Erfassung und Verarbeitung kontinuierlich gemessener Daten ist in allen Bereichen der Naturwissenschaften, Medizin und Finanzwelt vertreten. Das enorme Anwachsen aufgezeichneter Datenmengen, sei es durch automatisierte Monitoring-Systeme oder integrierte Sensoren, bedarf außerordentlich schneller Algorithmen in Theorie und Praxis. Infolgedessen beschäftigt sich diese Arbeit mit der effizienten Berechnung von Teilsequenzalignments. Komplexe Algorithmen wie z.B. Anomaliedetektion, Motivfabfrage oder die unüberwachte Extraktion von prototypischen Bausteinen in Zeitreihen machen exzessiven Gebrauch von diesen Alignments. Darin begründet sich der Bedarf nach schnellen Implementierungen. Diese Arbeit untergliedert sich in drei Ansätze, die sich dieser Herausforderung widmen. Das umfasst vier Alignierungsalgorithmen und ihre Parallelisierung auf CUDA-fähiger Hardware, einen Algorithmus zur Segmentierung von Datenströmen und eine einheitliche Behandlung von Liegruppen-wertigen Zeitreihen.rnrnDer erste Beitrag ist eine vollständige CUDA-Portierung der UCR-Suite, die weltführende Implementierung von Teilsequenzalignierung. Das umfasst ein neues Berechnungsschema zur Ermittlung lokaler Alignierungsgüten unter Verwendung z-normierten euklidischen Abstands, welches auf jeder parallelen Hardware mit Unterstützung für schnelle Fouriertransformation einsetzbar ist. Des Weiteren geben wir eine SIMT-verträgliche Umsetzung der Lower-Bound-Kaskade der UCR-Suite zur effizienten Berechnung lokaler Alignierungsgüten unter Dynamic Time Warping an. Beide CUDA-Implementierungen ermöglichen eine um ein bis zwei Größenordnungen schnellere Berechnung als etablierte Methoden.rnrnAls zweites untersuchen wir zwei Linearzeit-Approximierungen für das elastische Alignment von Teilsequenzen. Auf der einen Seite behandeln wir ein SIMT-verträgliches Relaxierungschema für Greedy DTW und seine effiziente CUDA-Parallelisierung. Auf der anderen Seite führen wir ein neues lokales Abstandsmaß ein, den Gliding Elastic Match (GEM), welches mit der gleichen asymptotischen Zeitkomplexität wie Greedy DTW berechnet werden kann, jedoch eine vollständige Relaxierung der Penalty-Matrix bietet. Weitere Verbesserungen umfassen Invarianz gegen Trends auf der Messachse und uniforme Skalierung auf der Zeitachse. Des Weiteren wird eine Erweiterung von GEM zur Multi-Shape-Segmentierung diskutiert und auf Bewegungsdaten evaluiert. Beide CUDA-Parallelisierung verzeichnen Laufzeitverbesserungen um bis zu zwei Größenordnungen.rnrnDie Behandlung von Zeitreihen beschränkt sich in der Literatur in der Regel auf reellwertige Messdaten. Der dritte Beitrag umfasst eine einheitliche Methode zur Behandlung von Liegruppen-wertigen Zeitreihen. Darauf aufbauend werden Distanzmaße auf der Rotationsgruppe SO(3) und auf der euklidischen Gruppe SE(3) behandelt. Des Weiteren werden speichereffiziente Darstellungen und gruppenkompatible Erweiterungen elastischer Maße diskutiert.
Resumo:
Die Dissertation „Strategisches Innovationsmanagement von Buchverlagen im Kontext konvergierender Medienmärkte“ nimmt sich des Themengebiets der Innovation in Buchverlagen in Zeiten der Digitalisierung an. Grob gliedert die Arbeit sich in einen Theorieteil und einen Empirieteil. Den Einstieg in den Theorieteil bildet eine Einführung in die Themenstellung, in der das Erkenntnisinteresse anhand von vier forschungsleitenden Fragen eingegrenzt wird: rn1) „Welche Anforderungen an die Innovationsfähigkeit von Verlagen ergeben sich aus aktuellen und antizipierten zukünftigen Entwicklungen, insbesondere der Medienkonvergenz?“rn2) „Welchen Beitrag kann strategisches Innovationsmanagement leisten, um diesen Anforderungen mit erfolgreichen Innovationen gerecht zu werden?“ rn3) „Welches sind die kritischen Faktoren für erfolgreiches Innovieren im Buchverlag?“ rn4) „Wie kann erfolgsförderndes Innovationsmanagement in Buchverlage implementiert werden?“rnrnDer Ausgangspunkt ist dabei die Darstellung aktueller Entwicklungen im Buchmarkt, die in ihrer Relevanz für das Thema bewertet werden. Dabei stehen solche Veränderungen im Mediennutzungsverhalten und dem veränderten Marktumfeld im Fokus, aus denen resultiert, dass Verlage sich nicht mehr nur auf ihre tradierten Kernkompetenzen verlassen können. Der Medienkonvergenz wird in dem Kontext als Suprakategorie eine herausgehobene Bedeutung zuerkannt. Am Ende des dritten Kapitels wird resümierend erörtert, woraus für Verlage heute die Notwendigkeit innovativen Handelns erwächst. Damit findet auch eine Überleitung in das folgende Kapitel über Innovation im Buchverlag statt, das inhaltlich den Kern des Theorieteils der Arbeit bildet.rnrnIm Kapitel Innovation im Buchverlag wird zuerst eine definitorische Eingrenzung des Innovationsbegriffs vorgenommen. Dabei wird eine Entscheidung für den mehrdimensionalen Ansatz nach Hauschildt und Salomo als definitorisches Grundraster getroffen. Darauf folgt eine Einführung in theoretische Grundbegriffe und Konzepte des Innovationsmanagements. Im Folgenden finden Erkenntnisse aus der Innovationsforschung Anwendung auf Spezifika in Buchverlagen, wobei zunächst Handlungsfelder identifiziert werden. Eine wesentliche Rolle im Argumentationsgang der Arbeit spielen dann die Erfolgsfaktoren des Innovationsmanagements in Buchverlagen. Eine herausragende Stellung wird dabei dem Wissensmanagement zuerkannt. Es folgt darauf ein Unterkapitel über Innovationskooperation. Darin wird zunächst die strategische Relevanz von Kooperationen beleuchtet, wobei auch eine teils kritische Auseinandersetzung mit dem modernen Begriff der Open Innovation stattfindet. Dann wird dargestellt, wer sich als Kooperationspartner für Buchverlage eignet und welche Modi des kooperativen Innovierens existieren. Es folgen darauf Ausführungen zur Implementierung einer Innovationsstrategie, wobei sowohl aufbau- als auch ablauforganisatorische Aspekte zum Tragen kommen. Im Mittelpunkt steht dabei die Darstellung des Stage-Gate-Modells als Ansatz für die Ablaufplanung von Innovationsprozessen in Buchverlagen. Wegen seiner guten Skalierbarkeit wird diesem Ansatz eine Eignung sowohl für kleine als auch mittelgroße und große Verlage zuerkannt. Den Abschluss des Kapitels über Innovation im Buchverlag bilden Betrachtungen über die rechtliche und technische Absicherung von Innovationen. rnrnDer empirische Teil der Arbeit wird eingeläutet mit einer Herleitung empirischer Fragestellungen. Dies geschieht zum einen auf der Grundlage einer Betrachtung, welche Erkenntnislücken die rein theoretische Auseinandersetzung mit dem Thema offengelassen hat. Die empirischen Fragestellungen bilden das Grundgerüst, auf dem im Folgenden die Ergebnisse einer qualitativen Maßnahme in Form von Interviews und einer quantitativen Maßnahme in Form einer Befragung per Fragebogen dargestellt werden. In der Auswertung der Ergebnisse werden dabei zunächst Hypothesen aus den Fallstudien gebildet, die auf Grundlage der Interviews entstanden sind. Diese Hypothesen werden anhand der Daten, die bei der Erhebung per Fragebogen gewonnen wurden, mit statistischen Methoden überprüft.rnrnDen Abschluss der Arbeit bildet eine Schlussbetrachtung, in der die gewonnenen Erkenntnisse verdichtet und vor dem Hintergrund der eingangs gestellten forschungsleitenden Fragen als Quintessens der Arbeit präsentiert werden. Zu jeder forschungsleitenden Frage findet dabei ein kurzes Resümee statt. Als größte Anforderung an die Innovationsfähigkeit von Verlagen wird darin erkannt, den Modus der eigenen Wertschöpfung kontinuierlich zu aktualisieren und an die dynamischen Veränderungen im Umfeld anzupassen. Dem strategischen Innovationsmanagement kommt dabei vor allem die Bedeutung zu, dass es ein konsistentes Handeln ermöglicht, das als Voraussetzung für die Planbarkeit von Innovationserfolgen gesehen wird. Auch erscheint es zunehmend wichtig, den Paradigmenwechsel weg vom Denken in Produktkategorien hin zu einem Denken in Problemlösungskategorien zu vollziehen, wobei ein strategisches Innovationsmanagement Buchverlagen hilfreich sein kann.rn