134 resultados para Implementierung
Resumo:
Die Deposition von dünnen, metallischen Schichten auf Silizium-Substraten stellt bereits seit Jahrzehnten die wichtigste Möglichkeit dar, um die wachsenden Anforderungen der Speichertechnologien zu erfüllen. Obwohl Multilagenstrukturen aus oxidischen Schichten eine nahezu unerschöpfliche Vielfalt an neuen Effekten bieten, kommen diese aktuell nur in Nischenanwendungen zum Einsatz. Der Fokus dieser Arbeit liegt auf dem Verständnis von Phänomenen, die nur an Grenzflächensystemen zu beobachten sind. Die Basis der Untersuchungen stellten die Präparation der Multilagenstrukturen durch Laserablation dar. Eine Untersuchung der strukturellen Eigenschaften von multiferroischen BiFeO3 (BFO)-Schichten erlaubte eine Analyse der Wachstumsmodi und der Symmetrie der Einheitszelle von BFO unter heteroepitaktischer Verspannung. Durch Piezokraftmikroskopie konnte die ferroelektrische Domänenstruktur dünner BFO-Schichten analysiert werden. Die Abbildung der magnetischen Domänenstruktur der ferromagnetischen La0,67Sr0,33MnO3 (LSMO)-Schicht und der antiferromagnetischen BFO-Schicht einer Bilagenstruktur durch Photoemissionselektronenmikroskopie erlaubte eine Analyse der Austauschkopplung an der Grenzfläche. Durch elektronische Rekonstruktion entsteht an der LaAlO3 (LAO) /SrTiO3 (STO)-Grenzfläche ein leitfähiger, quasi-zweidimensionaler Zustand. Dessen Transporteigenschaften wurden mit einem Schwerpunkt auf deren Beeinflussung durch ein elektrisches Feld charakterisiert. Diese Ergebnisse führten zur Implementierung einer ferroelektrischen BFO-Schicht zur Manipulation der Leitfähigkeit an der LAO/STO-Grenzfläche. Die Kontrolle des Widerstandes eines mikrostrukturierten Bereichs durch die Polarisation der BFO-Schicht erlaubt die Nutzung der Struktur als Speichertechnologie.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit der Modellierung niederenergetischer elektromagnetischer und hadronischer Prozesse im Rahmen einer manifest lorentzinvarianten, chiralen effektiven Feldtheorie unter expliziter, dynamischer Berücksichtigung resonanter, das heißt vektormesonischer Freiheitsgrade. Diese effektive Theorie kann daher als Approximation der grundlegenden Quantenchromodynamik bei kleinen Energien verstanden werden. Besonderes Augenmerk wird dabei auf das verwendete Zähl- sowie Renormierungschema gelegt, wodurch eine konsistente Beschreibung mesonischer Prozesse bis zu Energien von etwa 1GeV ermöglicht wird. Das verwendete Zählschema beruht dabei im Wesentlichen auf einem Argument für großes N_c (Anzahl der Farbfreiheitsgrade) und lässt eine äquivalente Behandlung von Goldstonebosonen (Pionen) und Resonanzen (Rho- und Omegamesonen) zu. Als Renormierungsschema wird das für (bezüglich der starken Wechselwirkung) instabile Teilchen besonders geeignete complex-mass scheme als Erweiterung des extended on-mass-shell scheme verwendet, welches in Kombination mit dem BPHZ-Renormierungsverfahren (benannt nach Bogoliubov, Parasiuk, Hepp und Zimmermann) ein leistungsfähiges Konzept zur Berechnung von Quantenkorrekturen in dieser chiralen effektiven Feldtheorie darstellt. Sämtliche vorgenommenen Rechnungen schließen Terme der chiralen Ordnung vier sowie einfache Schleifen in Feynman-Diagrammen ein. Betrachtet werden unter anderem der Vektorformfaktor des Pions im zeitartigen Bereich, die reelle Compton-Streuung (beziehungsweise Photonenfusion) im neutralen und geladenen Kanal sowie die virtuelle Compton-Streuung, eingebettet in die Elektron-Positron-Annihilation. Zur Extraktion der Niederenergiekopplungskonstanten der Theorie wird letztendlich eine Reihe experimenteller Datensätze verschiedenartiger Observablen verwendet. Die hier entwickelten Methoden und Prozeduren - und insbesondere deren technische Implementierung - sind sehr allgemeiner Natur und können daher auch an weitere Problemstellungen aus diesem Gebiet der niederenergetischen Quantenchromodynamik angepasst werden.
Resumo:
In der Erdöl– und Gasindustrie sind bildgebende Verfahren und Simulationen auf der Porenskala im Begriff Routineanwendungen zu werden. Ihr weiteres Potential lässt sich im Umweltbereich anwenden, wie z.B. für den Transport und Verbleib von Schadstoffen im Untergrund, die Speicherung von Kohlendioxid und dem natürlichen Abbau von Schadstoffen in Böden. Mit der Röntgen-Computertomografie (XCT) steht ein zerstörungsfreies 3D bildgebendes Verfahren zur Verfügung, das auch häufig für die Untersuchung der internen Struktur geologischer Proben herangezogen wird. Das erste Ziel dieser Dissertation war die Implementierung einer Bildverarbeitungstechnik, die die Strahlenaufhärtung der Röntgen-Computertomografie beseitigt und den Segmentierungsprozess dessen Daten vereinfacht. Das zweite Ziel dieser Arbeit untersuchte die kombinierten Effekte von Porenraumcharakteristika, Porentortuosität, sowie die Strömungssimulation und Transportmodellierung in Porenräumen mit der Gitter-Boltzmann-Methode. In einer zylindrischen geologischen Probe war die Position jeder Phase auf Grundlage der Beobachtung durch das Vorhandensein der Strahlenaufhärtung in den rekonstruierten Bildern, das eine radiale Funktion vom Probenrand zum Zentrum darstellt, extrahierbar und die unterschiedlichen Phasen ließen sich automatisch segmentieren. Weiterhin wurden Strahlungsaufhärtungeffekte von beliebig geformten Objekten durch einen Oberflächenanpassungsalgorithmus korrigiert. Die Methode der „least square support vector machine” (LSSVM) ist durch einen modularen Aufbau charakterisiert und ist sehr gut für die Erkennung und Klassifizierung von Mustern geeignet. Aus diesem Grund wurde die Methode der LSSVM als pixelbasierte Klassifikationsmethode implementiert. Dieser Algorithmus ist in der Lage komplexe geologische Proben korrekt zu klassifizieren, benötigt für den Fall aber längere Rechenzeiten, so dass mehrdimensionale Trainingsdatensätze verwendet werden müssen. Die Dynamik von den unmischbaren Phasen Luft und Wasser wird durch eine Kombination von Porenmorphologie und Gitter Boltzmann Methode für Drainage und Imbibition Prozessen in 3D Datensätzen von Böden, die durch synchrotron-basierte XCT gewonnen wurden, untersucht. Obwohl die Porenmorphologie eine einfache Methode ist Kugeln in den verfügbaren Porenraum einzupassen, kann sie dennoch die komplexe kapillare Hysterese als eine Funktion der Wassersättigung erklären. Eine Hysterese ist für den Kapillardruck und die hydraulische Leitfähigkeit beobachtet worden, welche durch die hauptsächlich verbundenen Porennetzwerke und der verfügbaren Porenraumgrößenverteilung verursacht sind. Die hydraulische Konduktivität ist eine Funktion des Wassersättigungslevels und wird mit einer makroskopischen Berechnung empirischer Modelle verglichen. Die Daten stimmen vor allem für hohe Wassersättigungen gut überein. Um die Gegenwart von Krankheitserregern im Grundwasser und Abwässern vorhersagen zu können, wurde in einem Bodenaggregat der Einfluss von Korngröße, Porengeometrie und Fluidflussgeschwindigkeit z.B. mit dem Mikroorganismus Escherichia coli studiert. Die asymmetrischen und langschweifigen Durchbruchskurven, besonders bei höheren Wassersättigungen, wurden durch dispersiven Transport aufgrund des verbundenen Porennetzwerks und durch die Heterogenität des Strömungsfeldes verursacht. Es wurde beobachtet, dass die biokolloidale Verweilzeit eine Funktion des Druckgradienten als auch der Kolloidgröße ist. Unsere Modellierungsergebnisse stimmen sehr gut mit den bereits veröffentlichten Daten überein.
Resumo:
In der vorliegenden Arbeit wird die Theorie der analytischen zweiten Ableitungen für die EOMIP-CCSD-Methode formuliert sowie die durchgeführte Implementierung im Quantenchemieprogramm CFOUR beschrieben. Diese Ableitungen sind von Bedeutung bei der Bestimmung statischer Polarisierbarkeiten und harmonischer Schwingungsfrequenzen und in dieser Arbeit wird die Genauigkeit des EOMIP-CCSD-Ansatzes bei der Berechnung dieser Eigenschaften für verschiedene radikalische Systeme untersucht. Des Weiteren können mit Hilfe der ersten und zweiten Ableitungen vibronische Kopplungsparameter berechnet werden, welche zur Simulation von Molekülspektren in Kombination mit dem Köppel-Domcke-Cederbaum (KDC)-Modell - in der Arbeit am Beispiel des Formyloxyl (HCO2)-Radikals demonstriert - benötigt werden.rnrnDer konzeptionell einfache EOMIP-CC-Ansatz wurde gewählt, da hier die Wellenfunktion eines Radikalsystems ausgehend von einem stabilen geschlossenschaligen Zustand durch die Entfernung eines Elektrons gebildet wird und somit die Problematik der Symmetriebrechung umgangen werden kann. Im Rahmen der Implementierung wurden neue Programmteile zur Lösung der erforderlichen Gleichungen für die gestörten EOMIP-CC-Amplituden und die gestörten Lagrange-Multiplikatoren zeta zum Quantenchemieprogramm CFOUR hinzugefügt. Die unter Verwendung des Programms bestimmten Eigenschaften werden hinsichtlich ihrer Leistungsfähigkeit im Vergleich zu etablierten Methoden wie z.B. CCSD(T) untersucht. Bei der Berechnung von Polarisierbarkeiten und harmonischen Schwingungsfrequenzen liefert die EOMIP-CCSD-Theorie meist gute Resultate, welche nur wenig von den CCSD(T)-Ergebnissen abweichen. Einzig bei der Betrachtung von Radikalen, für die die entsprechenden Anionen nicht stabil sind (z.B. NH2⁻ und CH3⁻), liefert der EOMIP-CCSD-Ansatz aufgrund methodischer Nachteile keine aussagekräftige Beschreibung. rnrnDie Ableitungen der EOMIP-CCSD-Energie lassen sich auch zur Simulation vibronischer Kopplungen innerhalb des KDC-Modells einsetzen.rnZur Kopplung verschiedener radikalischer Zustände in einem solchen Modellpotential spielen vor allem die Ableitungen von Übergangsmatrixelementen eine wichtige Rolle. Diese sogenannten Kopplungskonstanten können in der EOMIP-CC-Theorie besonders leicht definiert und berechnet werden. Bei der Betrachtung des Photoelektronenspektrums von HCO2⁻ werden zwei Alternativen untersucht: Die vertikale Bestimmung an der Gleichgewichtsgeometrie des HCO2⁻-Anions und die Ermittlung adiabatischer Kraftkonstanten an den Gleichgewichtsgeometrien des Radikals. Lediglich das adiabatische Modell liefert bei Beschränkung auf harmonische Kraftkonstanten eine qualitativ sinnvolle Beschreibung des Spektrums. Erweitert man beide Modelle um kubische und quartische Kraftkonstanten, so nähern sich diese einander an und ermöglichen eine vollständige Zuordnung des gemessenen Spektrums innerhalb der ersten 1500 cm⁻¹. Die adiabatische Darstellung erreicht dabei nahezu quantitative Genauigkeit.
Resumo:
In dieser Arbeit wird die Entwicklung und experimentelle Umsetzung einer kontinuierlichen, kohärenten Lichtquelle im vakuumultravioletten Wellenlängenbereich um 122 nm präsentiert. Diese basiert auf der nichtlinearen optischen Summenfrequenzmischung dreier Fundamentallaserstrahlen in einer mit Quecksilberdampf gefüllten Hohlfaser. Die Wellenlängen der fundamentalen Laser sind dabei an der Niveaustruktur des Quecksilbers orientiert, um eine mehrfach resonante Überhöhung der nichtlinearen Suszeptibilität zu erreichen. Der transversale Einschluss der Lichtfelder in der Faser verlängert die Wechselwirkungszone mit dem nichtlinearen Medium um mehrere Größenordnungen gegenüber dem Regime fokussierter Strahlen und erlaubt so signifikante Steigerungen der Mischeffizienz.rnrnIm Zuge dieser Arbeit wurde neben einer umfassenden mathematischen Analyse des nichtlinearen Mischprozesses unter Einfluss der Fasercharakteristika eine Apparatur zur Erzeugung und Detektion vakuumultravioletter Strahlung entwickelt. Die Generierung ausreichend hoher Dampfdichten innerhalb des 50 µm durchmessenden Faserkerns konnten spektroskopisch nachgewiesen werden.rnrnDas erste erfolgreiche Summenfrequenzmischen zu 121,26 nm in der Faser wurde demonstriert. Die erzielten Mischeffizienzen sind bereits mit denen vergleichbar, welche unter Verwendung fokussierter Strahlen erreicht werden, obwohl eine Phasenanpassung in der Faser bisher nicht möglich war. Die Ergebnisse dieser Arbeit markieren damit einen wichtigen Schritt hin zu Leistungssteigerungen kohärenter, kontinuierlicher vakuumultravioletter Lichtquellen.rnrnEine solche Quelle wird für zukünftige Laserkühlung von magnetisch gefangenem Antiwasserstoff auf dem Lyman-Alpha Übergang, sowie die Rydberganregung von Calciumionen in einer Paulfalle zur Implementierung quantenlogischer Operationen benötigt.rnrnFerner hat eine Untersuchung der, für eine effiziente Konversion essentiellen, 6^1S_0 - 7^1S_0 Zwei-Photonen Resonanz in Quecksilber Hinweise auf eine bis dato experimentell nicht beobachtete, auf einer Mehr-Photonen Anregung beruhende Licht-induzierte Drift ergeben.
Resumo:
Die Herzinsuffizienz (HI) ist eine der häufigsten und teuersten medizinischen Indikationen in der heutigen Zeit. rnIn der vorliegenden Arbeit konnte zum ersten Mal die Topoisomerase 2b (Top2b) in Zusammenhang mit der Entstehung einer dilatativen Kardiomyopathie gebracht werden. rnIn einem speziellen Mausmodell war es möglich, die Top2b gewebsspezifisch und zeitspezifisch nur in Kardiomyozyten zu deletieren. Dies geschah mittels eines Tamoxifen-induzierten Cre-Rekombinase-Gendeletionsmodells. Phänotypisch zeigten die Top2b-deletierten Mäuse 8 Wochen nach der Tamoxifen-Gabe signifikant reduzierte kardiale Ejektionsfraktionen sowie erhöhte linksventrikuläre enddiastolische und endsystolische Volumina. Weder Schlagvolumen noch Körpergewicht waren verändert. Die natriuretischen Peptide ANP und BNP waren in den Top2b-deletierten Tieren ebenfalls signifikant erhöht. Zusätzlich zeigten sowohl elektronenmikroskopische Untersuchungen als auch klassische histologische Verfahren fibrotische Veränderungen und erhöhte Kollagenablagerungen in Top2b-deletierten Tieren. Begleitend dazu stiegen die mRNA-Expressionslevel von Col1a1, Col3a1, Tgfβ1 und Tgfβ2 in den deletierten Tieren 8 Wochen nach der Implementierung der Deletion signifikant an. rnIn einer genomweiten Hochdurchsatz-Sequenzierung waren bereits 2 Wochen nach Tamoxifen-Gabe 128 Gene mindestens 2-fach gegenüber der Kontrollgruppe differentiell exprimiert. Eine genauere Analyse der veränderten Genexpression ließ bereits 14 Tage nach Implementierung der Deletion kardiale Verschlechterungen vermuten. So waren neben dem atrialen natriuretischen Peptid ANP die beiden häufigsten Kollagenarten im Herzen, Col3a1 und Col1a1, hochreguliert. rnInteressanterweise beinhalteten die 37 herunterregulierten Gene 11 Transkriptionsfaktoren. Da der Top2b in den letzten Jahren eine immer stärker werdende Bedeutung in der Transkription zugesprochen wird, sollte mittels Chromatin-Immunpräzipitation ein direkter Zusammenhang zwischen der Top2b-Deletion und der Herunterregulierung der 11 Transkriptionsfaktoren sowie die Bindung der Top2b an Promotoren ausgewählter, differentiell-exprimierter Gene untersucht werden. Generell konnte keine vermehrte Bindung von Top2b an Promotorbereiche gezeigt werden, was aber nicht dem generellen Fehlen einer Bindung gleichkommen muss. Vielmehr gab es methodische Schwierigkeiten, weshalb die Bedeutung der Top2b in der Transkription im Rahmen der vorliegenden Arbeit nicht ausreichend geklärt werden konnte.rnEine Kardiomyozyten-spezifische Top2b-Deletion mündete 8 Wochen nach Tamoxifen-Gabe in eine dilatative Kardiomyopathie. Zum gegenwärtigen Zeitpunkt sind keine klaren Aussagen zum zugrundeliegenden Mechanismus der entstehenden Herzschädigung in Folge einer Top2b-Deletion zu treffen. Es gibt jedoch Hinweise darauf, dass der Tumorsuppressormarker p53 eine wichtige Rolle in der Entstehung der dilatativen Kardiomyopathie spielen könnte. So konnte 8 Wochen nach der Top2b-Deletion mittels Chromatin-Immunpräzipitation eine erhöhte Bindung von p53 an Promotorregionen von Col1a1, Tgfβ2 und Mmp2 detektiert werden. Die Bedeutung dieser Bindung, und ob aufgrund dessen die Entstehung der Fibrose erklärt werden könnte, ist zum jetzigen Zeitpunkt unklar.rn
Resumo:
Die großen christlichen Kirchen in Deutschland befinden sich in einem strukturellen Umbruch, der sich zunehmend auf die Pastoral der örtlichen Pfarreien und Kirchengemeinden auswirkt. Durch die Einführung von Verfahren aus dem New Public Management erhoffen sich Kirchenleitungen beider Konfessionen eine innerkirchliche Personalentwicklung, die vor allem das hauptberufliche Seelsorgepersonal neu motivieren soll. Insbesondere in der katholischen Kirche soll so - in Verbindung mit einem möglichst missionarisch wirksamen Neuaufbruch - die Transformation der ehemals volkskirchlich geprägten Pfarrgemeinden in eine sich neu abzeichnende Sozialgestalt von Kirche als Netzwerk größerer pastoraler Einheiten unterstützt werden. Die vorliegende Arbeit untersucht an der interdisziplinären Schnittstelle von Organisationforschung und praktischer Theologie, inwieweit die Einführung von Zielvereinbarungsgesprächen (ZVG) führungsverantwortliche Priester in der Wahrnehmung ihrer Leitungsaufgabe stärkt. Über 300 leitende Priester aus den Erzbistümern Freiburg und Paderborn hatten an der empirischen Studie mit zwei Messzeitpunkten teilgenommen. 73 Priester waren an beiden Messzeitpunkten A (2007) und B (2008) beteiligt. Unmittelbar nach dem Zeitpunkt A besuchten die befragten Priester der Erzdiözese Freiburg eine ZVG-Einführungsschulung, der sich eine einjährige Gesprächspraxis anschloss. Die in der Erzdiözese Paderborn befragten Priester bildeten die Vergleichsgruppe (ohne entsprechendes Treatment).rn rnWesentliches Ergebnis der Studie sind empirische Hinweise auf signifikante Zusammenhänge zwischen dem priesterlichem Leitungsselbstverständnis, der ZVG-Umsetzung und der Einschätzung der eigenen Führungsqualität.rnrnIn den Selbsteinschätzungen der leitenden Priester (z.B. im Hinblick auf Leitungszufriedenheit, Bedeutung bzw. Gelingen von einzelnen Leitungs- und Gesprächsaspekten, etc.) zeigten sich zum Zeitpunkt A im Vergleich zwischen beiden Diözesen nur geringe Unterschiede. Dies gilt auch für die in A erfolgte Auswertung offener Fragen zum priesterlichen Selbstverständnis, welches als leitungs-amtliche Handlungs- und Objektorientierung in beiden Diözesen am wenigsten stark ausgeprägt war.Zum Zeitpunkt B verdeutlichte die Untersuchung des Tätigkeitsfelds Gemeindeleitung, dass dessen Bedeutung in Freiburg größer war als in Paderborn. Der hierfür erbrachte Kraft- bzw. Zeitaufwand war in Freiburg jedoch niedriger als in Paderborn, was als eine Frucht der verbindlichen ZVG-Einführung in Freiburg interpretiert werden kann. Deutlich wird auch, dass Priester, die der ZVG-Einführung eine hohe Bedeutung beimessen, mit ihren Mitarbeitern viele Gespräche planen. Weil Folgegespräche zum Zeitpunkt B im gleichen Umfang wie schon zum Zeitpunkt A geplant wurden, müssen die konkreten Gesprächserfahrungen in der A-Phase hinreichend positiv gewesen sein. Die Umsetzung zum Zeitpunkt B war jedoch nicht in dem zum Zeitpunkt A geplanten Maß erfolgt, was sich mit Prioritätsverschiebungen erklären lässt. Interessanterweise korreliert die Anzahl der geführten Zielvereinbarungsgespräche mit dem Dienst- und Lebensalter der Priester. Erfahrene Priester, die sich auf eine Mitarbeiterführung durch Zielvereinbarung einlassen, machen demnach gute Erfahrungen mit diesem Personalentwicklungsinstrument. rnrnInsgesamt können die Ergebnisse der Studie zu einer weiteren Kultivierung der Zielvereinbarungsgespräche im kirchlichen Dienst ermutigen. Bistümern, die noch keine Zielvereinbarungsgespräche eingeführt haben, kann eine Implementierung angeraten werden. rn
Resumo:
Zeitreihen sind allgegenwärtig. Die Erfassung und Verarbeitung kontinuierlich gemessener Daten ist in allen Bereichen der Naturwissenschaften, Medizin und Finanzwelt vertreten. Das enorme Anwachsen aufgezeichneter Datenmengen, sei es durch automatisierte Monitoring-Systeme oder integrierte Sensoren, bedarf außerordentlich schneller Algorithmen in Theorie und Praxis. Infolgedessen beschäftigt sich diese Arbeit mit der effizienten Berechnung von Teilsequenzalignments. Komplexe Algorithmen wie z.B. Anomaliedetektion, Motivfabfrage oder die unüberwachte Extraktion von prototypischen Bausteinen in Zeitreihen machen exzessiven Gebrauch von diesen Alignments. Darin begründet sich der Bedarf nach schnellen Implementierungen. Diese Arbeit untergliedert sich in drei Ansätze, die sich dieser Herausforderung widmen. Das umfasst vier Alignierungsalgorithmen und ihre Parallelisierung auf CUDA-fähiger Hardware, einen Algorithmus zur Segmentierung von Datenströmen und eine einheitliche Behandlung von Liegruppen-wertigen Zeitreihen.rnrnDer erste Beitrag ist eine vollständige CUDA-Portierung der UCR-Suite, die weltführende Implementierung von Teilsequenzalignierung. Das umfasst ein neues Berechnungsschema zur Ermittlung lokaler Alignierungsgüten unter Verwendung z-normierten euklidischen Abstands, welches auf jeder parallelen Hardware mit Unterstützung für schnelle Fouriertransformation einsetzbar ist. Des Weiteren geben wir eine SIMT-verträgliche Umsetzung der Lower-Bound-Kaskade der UCR-Suite zur effizienten Berechnung lokaler Alignierungsgüten unter Dynamic Time Warping an. Beide CUDA-Implementierungen ermöglichen eine um ein bis zwei Größenordnungen schnellere Berechnung als etablierte Methoden.rnrnAls zweites untersuchen wir zwei Linearzeit-Approximierungen für das elastische Alignment von Teilsequenzen. Auf der einen Seite behandeln wir ein SIMT-verträgliches Relaxierungschema für Greedy DTW und seine effiziente CUDA-Parallelisierung. Auf der anderen Seite führen wir ein neues lokales Abstandsmaß ein, den Gliding Elastic Match (GEM), welches mit der gleichen asymptotischen Zeitkomplexität wie Greedy DTW berechnet werden kann, jedoch eine vollständige Relaxierung der Penalty-Matrix bietet. Weitere Verbesserungen umfassen Invarianz gegen Trends auf der Messachse und uniforme Skalierung auf der Zeitachse. Des Weiteren wird eine Erweiterung von GEM zur Multi-Shape-Segmentierung diskutiert und auf Bewegungsdaten evaluiert. Beide CUDA-Parallelisierung verzeichnen Laufzeitverbesserungen um bis zu zwei Größenordnungen.rnrnDie Behandlung von Zeitreihen beschränkt sich in der Literatur in der Regel auf reellwertige Messdaten. Der dritte Beitrag umfasst eine einheitliche Methode zur Behandlung von Liegruppen-wertigen Zeitreihen. Darauf aufbauend werden Distanzmaße auf der Rotationsgruppe SO(3) und auf der euklidischen Gruppe SE(3) behandelt. Des Weiteren werden speichereffiziente Darstellungen und gruppenkompatible Erweiterungen elastischer Maße diskutiert.
Resumo:
Die Dissertation „Strategisches Innovationsmanagement von Buchverlagen im Kontext konvergierender Medienmärkte“ nimmt sich des Themengebiets der Innovation in Buchverlagen in Zeiten der Digitalisierung an. Grob gliedert die Arbeit sich in einen Theorieteil und einen Empirieteil. Den Einstieg in den Theorieteil bildet eine Einführung in die Themenstellung, in der das Erkenntnisinteresse anhand von vier forschungsleitenden Fragen eingegrenzt wird: rn1) „Welche Anforderungen an die Innovationsfähigkeit von Verlagen ergeben sich aus aktuellen und antizipierten zukünftigen Entwicklungen, insbesondere der Medienkonvergenz?“rn2) „Welchen Beitrag kann strategisches Innovationsmanagement leisten, um diesen Anforderungen mit erfolgreichen Innovationen gerecht zu werden?“ rn3) „Welches sind die kritischen Faktoren für erfolgreiches Innovieren im Buchverlag?“ rn4) „Wie kann erfolgsförderndes Innovationsmanagement in Buchverlage implementiert werden?“rnrnDer Ausgangspunkt ist dabei die Darstellung aktueller Entwicklungen im Buchmarkt, die in ihrer Relevanz für das Thema bewertet werden. Dabei stehen solche Veränderungen im Mediennutzungsverhalten und dem veränderten Marktumfeld im Fokus, aus denen resultiert, dass Verlage sich nicht mehr nur auf ihre tradierten Kernkompetenzen verlassen können. Der Medienkonvergenz wird in dem Kontext als Suprakategorie eine herausgehobene Bedeutung zuerkannt. Am Ende des dritten Kapitels wird resümierend erörtert, woraus für Verlage heute die Notwendigkeit innovativen Handelns erwächst. Damit findet auch eine Überleitung in das folgende Kapitel über Innovation im Buchverlag statt, das inhaltlich den Kern des Theorieteils der Arbeit bildet.rnrnIm Kapitel Innovation im Buchverlag wird zuerst eine definitorische Eingrenzung des Innovationsbegriffs vorgenommen. Dabei wird eine Entscheidung für den mehrdimensionalen Ansatz nach Hauschildt und Salomo als definitorisches Grundraster getroffen. Darauf folgt eine Einführung in theoretische Grundbegriffe und Konzepte des Innovationsmanagements. Im Folgenden finden Erkenntnisse aus der Innovationsforschung Anwendung auf Spezifika in Buchverlagen, wobei zunächst Handlungsfelder identifiziert werden. Eine wesentliche Rolle im Argumentationsgang der Arbeit spielen dann die Erfolgsfaktoren des Innovationsmanagements in Buchverlagen. Eine herausragende Stellung wird dabei dem Wissensmanagement zuerkannt. Es folgt darauf ein Unterkapitel über Innovationskooperation. Darin wird zunächst die strategische Relevanz von Kooperationen beleuchtet, wobei auch eine teils kritische Auseinandersetzung mit dem modernen Begriff der Open Innovation stattfindet. Dann wird dargestellt, wer sich als Kooperationspartner für Buchverlage eignet und welche Modi des kooperativen Innovierens existieren. Es folgen darauf Ausführungen zur Implementierung einer Innovationsstrategie, wobei sowohl aufbau- als auch ablauforganisatorische Aspekte zum Tragen kommen. Im Mittelpunkt steht dabei die Darstellung des Stage-Gate-Modells als Ansatz für die Ablaufplanung von Innovationsprozessen in Buchverlagen. Wegen seiner guten Skalierbarkeit wird diesem Ansatz eine Eignung sowohl für kleine als auch mittelgroße und große Verlage zuerkannt. Den Abschluss des Kapitels über Innovation im Buchverlag bilden Betrachtungen über die rechtliche und technische Absicherung von Innovationen. rnrnDer empirische Teil der Arbeit wird eingeläutet mit einer Herleitung empirischer Fragestellungen. Dies geschieht zum einen auf der Grundlage einer Betrachtung, welche Erkenntnislücken die rein theoretische Auseinandersetzung mit dem Thema offengelassen hat. Die empirischen Fragestellungen bilden das Grundgerüst, auf dem im Folgenden die Ergebnisse einer qualitativen Maßnahme in Form von Interviews und einer quantitativen Maßnahme in Form einer Befragung per Fragebogen dargestellt werden. In der Auswertung der Ergebnisse werden dabei zunächst Hypothesen aus den Fallstudien gebildet, die auf Grundlage der Interviews entstanden sind. Diese Hypothesen werden anhand der Daten, die bei der Erhebung per Fragebogen gewonnen wurden, mit statistischen Methoden überprüft.rnrnDen Abschluss der Arbeit bildet eine Schlussbetrachtung, in der die gewonnenen Erkenntnisse verdichtet und vor dem Hintergrund der eingangs gestellten forschungsleitenden Fragen als Quintessens der Arbeit präsentiert werden. Zu jeder forschungsleitenden Frage findet dabei ein kurzes Resümee statt. Als größte Anforderung an die Innovationsfähigkeit von Verlagen wird darin erkannt, den Modus der eigenen Wertschöpfung kontinuierlich zu aktualisieren und an die dynamischen Veränderungen im Umfeld anzupassen. Dem strategischen Innovationsmanagement kommt dabei vor allem die Bedeutung zu, dass es ein konsistentes Handeln ermöglicht, das als Voraussetzung für die Planbarkeit von Innovationserfolgen gesehen wird. Auch erscheint es zunehmend wichtig, den Paradigmenwechsel weg vom Denken in Produktkategorien hin zu einem Denken in Problemlösungskategorien zu vollziehen, wobei ein strategisches Innovationsmanagement Buchverlagen hilfreich sein kann.rn
Resumo:
STUDY AIM: A pilot study was conducted to implement and evaluate a routine gradual psycho-diagnostic programme to improve diagnostics and treatment of mental disorders in somatic rehabilitation centres. First of all, implementation strategies were acquired in trainings together with psychologists and physicians. The psycho-diagnostic programme consists of a screening instrument (PHQ-9) designed to permit time-effective detection of comorbid mental disorders. Besides evaluation of the training, the aim of the study was to analyze the extent to which it is possible to implement the routine gradual psycho-diagnostic programme in practice. Additionally, it was intended to identify beneficial and obstructive conditions for implementation. METHODOLOGY: The pilot study was conducted in two orthopaedic and one cardiological rehabilitation centre. The training was evaluated directly after its completion using a questionnaire. Three months after its implementation, the introduction of the psycho-diagnostic programme was evaluated using interviews with n=11 physicians and psychologists. RESULTS: The training was rated positively by the participants . Implementation of the entire gradual psycho-diagnostic programme was possible in one centre and to some degree in the other two. Beneficial for implementation were a frank organisational climate, sufficient time resources, and physicians' biopsychosocial understanding of disease. A dismissive attitude towards psycho-diagnostics, little communication between staff members, little perceived advantage for one's own work and fear to stigmatise patients by psychiatric diagnoses were obstructive. CONCLUSION: Essential for a successful implementation are sufficient time and personal resources, a motivation for change in staff and centre management, and a positive attitude regarding psycho-diagnostics in clinic staff. Furthermore, flexibility in implementation strategies and the opportunity to participate in the implementation process are important.
Resumo:
Mit zunehmender Komplexität und Vielfalt der Logistikprozesse steigt der Stellenwert der eingesetzten Informationstechnologien. Die den Warenfluss begleitenden bzw. vorhereilenden Informationen sind erforderlich, um Waren identifizieren und Unternehmensressourcen optimal einsetzen zu können. Als Beispiel ist der klassische Wareneingang zu nennen. Durch die Avisierung von Menge und Art eingehender Waren können der Einsatz des Personals zur Entladung und Vereinnahmung sowie die erforderlichen Ressourcen (Ladehilfsmittel, Flurförderzeuge, usw.) im Vorfeld geplant und bereitgestellt werden. Der Informationsfluss ist demnach als Qualitätsmerkmal und als Wirtschaftlichkeitsfaktor zu verstehen. Die Schnittstelle zwischen dem physischen Warenfluss und dem Informationsfluss auf EDV-Basis bildet die Identifikationstechnologien. In der Industrie verbreitete Identifikationstechnologien bestehen in der Regel aus einem Datenträger und einem Erfassungsgerät. Der Datenträger ist am physischen Objekt fixiert. Das Erfassungsgerät liest die auf dem Datenträger befindlichen Objektinformationen und wandelt sie in einen Binär-Code um, der durch nachgelagerte EDV weiterverarbeitet wird. Die momentan in der Industrie und im Handel am häufigsten verwendete Identifikationstechnologie ist der Barcode. In den letzten Jahren tritt die RFID-Technologie in den Fokus der Industrie und des Handels im Bereich Materialfluss und Logistik. Unter „Radio Frequency IDentification“ wird die Kommunikation per Funkwellen zwischen Datenträger (Transponder) und Lesegerät verstanden. Mittels der RFID-Technologie ist der Anwender, im Gegensatz zum Barcode, in der Lage, Informationen auf dem Transponder ohne Sichtkontakt zu erfassen. Eine Ausrichtung der einzelnen Artikel ist nicht erforderlich. Zudem können auf bestimmten Transpondertypen weitaus größere Datenmengen als auf einem Barcode hinterlegt werden. Transponder mit hoher Speicherkapazität eignen sich in der Regel, um die auf ihnen hinterlegten Daten bei Bedarf aktualisieren zu k��nnen. Eine dezentrale Datenorganisation ist realisierbar. Ein weiterer Vorteil der RFID-Technologie ist die Möglichkeit, mehrere Datenträger im Bruchteil einer Sekunde zu erfassen. In diesem Fall spricht man von einer Pulkerfassung. Diese Eigenschaft ist besonders im Bereich Warenein- und -ausgang von Interesse. Durch RFID ist es möglich, Ladeeinheiten, z. B. Paletten mit Waren, durch einen Antennenbereich zu fördern, und die mit Transpondern versehenen Artikel zu identifizieren und in die EDV zu übertragen. Neben der Funktionalität einer solchen Technologie steht in der Industrie vor allem die Wirtschaftlichkeit im Vordergrund. Transponder sind heute teuerer als Barcodes. Zudem müssen Investitionen in die für den Betrieb von RFID erforderliche Hard- und Software einkalkuliert werden. Daher muss der Einsatz der RFID-Technologie Einsparungen durch die Reorganisation der Unternehmensprozesse nach sich ziehen. Ein Schwachpunkt der RFID-Technologie ist momentan je nach Anwendung die mangelnde Zuverlässigkeit und Wiederholgenauigkeit bei Pulklesungen. Die Industrie und der Handel brauchen Identifikationstechnologien, deren Erfassungsrate im Bereich nahe 100 % liegt. Die Gefahr besteht darin, dass durch ein unzuverlässiges RFID-System unvollständige bzw. fehlerhafte Datensätze erzeugt werden können. Die Korrektur der Daten kann teurer sein als die durch die Reorganisation der Prozesse mittels RFID erzielten Einsparungen. Die Erfassungsrate der Transponder bei Pulkerfassungen wird durch mehrere Faktoren beeinflusst, die im Folgenden detailliert dargestellt werden. Das Institut für Fördertechnik und Logistik (IFT) in Stuttgart untersucht m��gliche Einflussgrößen auf die Erkennungsraten bei Pulkerfassungen. Mit den gewonnenen Erkenntnissen sollen mögliche Schwachstellen bei der Erkennung mehrerer Transponder im Vorfeld einer Implementierung in die Logistikprozesse eines Unternehmens eliminiert werden. With increasing complexity and variety of the logistics processes the significance of the used information technologies increases. The information accompanying the material flow is necessary in order to be able to identify goods and to be able to use corporate resources optimally. The classical goods entrance is to be mentioned as an example. The notification of amount and kind of incoming goods can be used for previously planning and providing of the personnel and necessary resources. The flow of information is to be understood accordingly as a high-quality feature and as an economic efficiency factor. With increasing complexity and variety of the logistics processes the significance of the used information technologies increases. The information accompanying the material flow is necessary in order to be able to identify goods and to be able to use corporate resources optimally. The classical goods entrance is to be mentioned as an example. The notification of amount and kind of incoming goods can be used for previously planning and providing of the personnel and necessary resources. The flow of information is to be understood accordingly as a high-quality feature and as an economic efficiency factor.
Resumo:
eLearning wird durch seine Flexibilität und Zugänglichkeit als bedeutendes Instrument für die Implementierung lebenslangen Lernens (LLL) angesehen. Es kann für kleine und mittelgroße Unternehmen (KMU) einen Katalysator des Wandels sein und bietet damit die Chance zur Verbesserung der wirtschaftlichen Leistungsfähigkeit. Darüber hinaus kann eLearning dazu dienen, die Integration von KMU in den europäischen Markt zu fördern. Bis jetzt wird eLearning im Rahmen der beruflichen Aus- und Weiterbildung jedoch nahezu ausschließlich in Großunternehmen genutzt, während es in KMU allenfalls eine marginale Rolle spielt. Im ersten Kapitel dieses Artikels wird auf den Perspektivenwechsel in der beruflichen Aus- und Weiterbildung eingegangen. Im Anschluss daran werden die zentralen Elemente von eLearning vorgestellt (Kap. 2). Die mit eLearning verbundenen Chancen und Herausforderungen für KMU diskutiert (Kap. 3). Abschließend wird auf Erfahrungen mit eLearning in der Praxis am Beispiel von drei EU-finanzierten Projekten eingegangen. Das Hauptaugenmerk liegt dabei auf dem laufenden Projekt ARIEL -Analysing and Reporting the Implementation of Electronic Learning in Europe -, das vom Institut Arbeit und Technik, Gelsenkirchen, (IAT) koordiniert wird.
Resumo:
Dezentrale Steuerungstechnologien lassen Vorteile sowohl für die Implementierung als auch den späteren Betrieb des Steuerungsverbundes von Stetigfördersystemen erwarten. Gestützt werden solche Konzepte wesentlich durch die RFID-Technologie. Der verringerte Aufwand für Gerätetechnik und Softwarerealisierung bedeutet aber auch, dass das Anlagenverhalten nicht mehr - wie in zentral gesteuerten Systemen - vollständig determiniert ist. In diesem Artikel wird ein simulationsbasiertes Verfahren vorgestellt, mit dem strategieinduzierte Leistungsunterschiede dieser beiden Steuerungskonzepte vereinfachend, aber umfassend untersucht werden können, um die Eignung des dezentralen Konzeptes zu überprüfen.
Resumo:
Der Lehrstuhl Förder- und Lagerwesen der Universität Dortmund hat zusammen mit einem Industriepartner ein neuartiges, dezentrales Steuerungssystem entwickelt. In diesem modularen, hochflexiblen System wird der gesamte Material¬fluss durch dezentral organisierte, autonome Einheiten in Echtzeit gesteuert. Das System wurde erfolgreich in eine am Lehrstuhl betriebene Stückgutförder- und Sortieranlage integriert, welche als Prototyp dient und für weitere Forschungen im Bereich dezentrale Automatisierung zur Verfügung stehen wird. Dieses Dokument beschreibt die Zielsetzung und Implementierung des dezentralen Steuerungssystems.