23 resultados para automatisierte Planung


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the present thesis I examined individual and sex-specific habitat use and site fidelity in the western barbastelle bat, Barbastella barbastellus, using data from a four-year monitoring in a Special Area of Conservation in Rhineland-Palatinate, Germany. The western barbastelle occurs in central and southern Europe from Portugal to the Caucasus, but is considered to be rare in large parts of its range. Up to now, long-term field studies to assess interannual site fidelity and the possible effects of intra- and interspecific competition have not been studied in this species. Nevertheless, such data provide important details to estimate the specific spatial requirements of its populations, which in turn can be incorporated in extended conservation actions. I used radio-telemetry, home range analyses und automated ultrasound detection to assess the relation between landscape elements and western barbastelle bats and their roosts. In addition, I estimated the degree of interspecific niche overlap with two selected forest-dwelling bat species, Bechstein's bat (Myotis bechsteinii) and the brown long-eared bat (Plecotus auritus). Intra- and interannual home range overlap analyses of female B. barbastellus revealed that fidelity to individual foraging grounds, i.e. a traditional use of particular sites, seems to effect the spatial distribution of home ranges more than intraspecific competition among communally roosting females. The results of a joint analysis of annual maternity roost selection and flight activities along commuting corridors highlight the necessity to protect roost complexes in conjunction with commuting corridors. Using radio-tracking data and an Euclidean distance approach I quantified the sex-specific and individual habitat use by female and male western barbastelle bats within their home ranges. My data indicated a partial sexual segregation in summer habitats. Females were found in deciduous forest patches and preferably foraged along linear elements within the forest. Males foraged closer to forest edges and in open habitats. Finally, I examined the resource partitioning between the western barbastelle bat and two syntopic bat species with a potential for interspecific competition due to similarities in foraging strategies, prey selection and roost preferences. Simultaneous radio-tracking of mixed-species pairs revealed a partial spatial separation of the three syntopic bat species along a gradient from the forest to edge habitats and open landscape. Long-eared bats were found close to open habitats which were avoided by the other two species. B. barbastellus preferred linear landscape elements (edge habitats) and forests, M. bechsteinii also preferred forest habitats. Only little overlap in terms of roost structure and tree species selection was found.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die intrazelluläre Lokalisation von Proteinen und Makromolekülen unterliegt in Eukaryoten einer strengen Regulation. Insbesondere erlaubt die Kompartimentierung eukaryotischer Zellen in Zellkern und Zytoplasma den simultanen Ablauf räumlich getrennter biochemischer Reaktionen, und damit die unabhängige Regulation zellulärer Programme. Da trotz intensiver Forschungsbemühungen bis dato die molekularen Details sowie die (patho)biologische Bedeutung von Kern-Zytoplasma-Transportprozessen noch immer nicht vollkommen verstanden sind, wurde im Rahmen der vorliegenden Arbeit ein Fokus auf die Identifizierung von chemischen Transportinhibitoren gelegt. Das zu diesem Zweck entwickelte Translokations-Biosensor-System basiert auf der Kombination von autofluoreszierenden Proteinen, sowie spezifisch ausgewählten Kernexport- und Kernimportsignalen. Nach Etablierung geeigneter Zellmodelle, die effizient und stabil die Translokations-Biosensoren exprimieren, wurde die 17 000 Substanzen umfassende Bibliothek der ChemBioNet-Initiative nach Kernexportinhibitoren mittels einer Fluoreszenzmikroskopie-basierten Hochdurchsatzanalyse-Plattform durchmustert. Zunächst wurden Translokations-Algorithmen, welche eine zuverlässige automatisierte Erkennung von Zellkern und Zytoplasma erlauben, optimiert. Im Folgenden konnten acht neue niedermolekulare Kernexport-Inhibitoren identifiziert werden, die sich in der Stärke, der Geschwindigkeit, sowie in der Beständigkeit der vermittelten Inhibition unterscheiden. Die Aktivität der Inhibitoren konnte auf den isolierten nukleären Exportsignalen (NES) von HIV-1 Rev und Survivin als auch auf den entsprechenden Volllängeproteinen mittels Mikroinjektionsexperimenten sowie durch umfassende in vitro und biochemische Methoden bestätigt werden. Zur Untersuchung der funktionellen Einheiten der Inhibitoren wurden homologe Substanzen auf Ihre Aktivität hin getestet. Dabei konnten für die Aktivität wichtige chemische Gruppen definiert werden. Alle Substanzen stellen neue Inhibitoren des Crm1-abhängigen Exports dar und zeigen keine nachweisbare NES-Selektivität. Interessanterweise konnte jedoch eine zytotoxische und Apoptose-induzierende Wirkung auf verschiedene Krebszellarten festgestellt werden. Da diese Wirkung unabhängig vom p53-Status der Tumorzellen ist und die Inhibitoren C3 und C5 die Vitalität nicht-maligner humaner Zellen signifikant weniger beeinträchtigen, wurden diese Substanzen zum internationalen Patent angemeldet. Da der nukleäre Export besonders für Tumorzellen einen wichtigen Überlebenssignalweg darstellt, könnte dessen reversible Hemmung ausgenutzt werden, um besonders in Kombination mit gängigen Krebstherapien eine therapeutisch relevante Tumorinhibition zu erzeugen. Eine weitere Anwendungsmöglichkeit der neuen Exportinhibitoren ist auf dem Gebiet der Infektionskrankheiten zu sehen, da auch die Aktivität des essentiellen HIV-1 Rev-Proteins inhibiert wird. Zusätzlich konnte in der Arbeit gezeigt werden, dass der zelluläre Kofaktor des Crm1-abhängigen Exports des HIV-1 Rev-Proteins, die RNA-Helikase DDX3, ein eigenes NES enthält. Der Nachweis einer direkten Interaktion des HIV-1 Rev- mit dem DDX3-Protein impliziert, dass multiple Angriffstellen für chemische Modulatoren hinsichtlich einer antiviralen Therapie gegeben sind. Da die Vielfalt des chemischen Strukturraums es unmöglich macht diesen experimentell vollständig zu durchmustern, wurden im Rahmen dieser Arbeit auch Naturstoffe als vielversprechende Wirkstoffquelle untersucht. Um zukünftig umfassend bioaktive Substanzen aus diesen hochkomplexen Stoffgemischen experimentell identifizieren zu können, wurde eine Fluoreszenzmikroskopie-basierte Hochdurchsatzanalyse-Plattform am Mainz Screening Center (MSC) etabliert. Damit konnte bereits ein weiterer, bisher unbekannter Exportinhibitor aus Cyphellopsis anomala identifiziert werden. Neben einer Anwendung dieser Substanz als chemisches Werkzeug zur Aufklärung der Regulation von Transportvorgängen, stellt sich auch die evolutionsbiologisch relevante Frage, wie es dem Pilzproduzenten gelingt die Blockierung des eigenen Kernexports zu umgehen. Weiterführende Projekte müssen sich neben der Aufklärung der molekularen Wirkmechanismen der gefundenen Substanzen mit der Identifizierung spezifischer chemischer „Funktionseinheiten“ beschäftigen. Neben einem verbesserten mechanistischen Verständnis von Transportvorgängen stellen die erarbeiteten Transportinhibitoren Vorstufen zur Weiterentwicklung möglicher Wirkstoffe dar. Die im Rahmen dieser Arbeit etablierte Technologie-Plattform und molekularen Werkzeuge stellen darüber hinaus eine wichtige Voraussetzung dar, um eine systematische Suche nach möglichen Wirkstoffen im Forschungsfeld der „Chemischen Biomedizin“ voranzutreiben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Institut für Kernphysik der Universität Mainz betreibt seit 1990 eine weltweit einzigartige Beschleunigeranlage für kern- und teilchenphysikalische Experimente – das Mainzer Mikrotron (MAMI-B). Diese Beschleunigerkaskade besteht aus drei Rennbahn-Mikrotrons (RTMs) mit Hochfrequenzlinearbeschleunigern bei 2.45 GHz, mit denen ein quasi kontinuierlicher Elektronenstrahl von bis zu 100 μA auf 855MeV beschleunigt werden kann.rnrnIm Jahr 1999 wurde die Umsetzung der letzten Ausbaustufe – ein Harmonisches Doppelseitiges Mikrotron (HDSM, MAMI-C) – mit einer Endenergie von 1.5 GeV begonnen. Die Planung erforderte einige mutige Schritte, z.B. Umlenkmagnete mit Feldgradient und ihren daraus resultierenden strahloptischen Eigenschaften, die einen großen Einfluss auf die Longitudinaldynamik des Beschleunigers haben. Dies erforderte die Einführung der „harmonischen“ Betriebsweise mit zwei Frequenzen der zwei Linearbeschleuniger.rnrnViele Maschinenparameter (wie z.B. HF-Amplituden oder -Phasen) wirken direkt auf den Beschleunigungsprozess ein, ihre physikalischen Größen sind indes nicht immer auf einfache Weise messtechnisch zugänglich. Bei einem RTM mit einer verhältnismäßig einfachen und wohldefinierten Strahldynamik ist das im Routinebetrieb unproblematisch, beim HDSM hingegen ist schon allein wegen der größeren Zahl an Parametern die Kenntnis der physikalischen Größen von deutlich größerer Bedeutung. Es gelang im Rahmen dieser Arbeit, geeignete Methoden der Strahldiagnose zu entwickeln, mit denen diese Maschinenparameter überprüft und mit den Planungsvorgaben verglichen werden können.rnrnDa die Anpassung des Maschinenmodells an eine einzelne Phasenmessung aufgrund der unvermeidlichen Messfehler nicht immer eindeutige Ergebnisse liefert, wird eine Form der Tomographie verwendet. Der longitudinale Phasenraum wird dann in Form einer Akzeptanzmessung untersucht. Anschließend kann ein erweitertes Modell an die gewonnene Datenvielfalt angepasst werden, wodurch eine größere Signifikanz der Modellparameter erreicht wird.rnrnDie Ergebnisse dieser Untersuchungen zeigen, dass sich der Beschleuniger als Gesamtsystem im Wesentlichen wie vorhergesagt verhält und eine große Zahl unterschiedlicher Konfigurationen zum Strahlbetrieb möglich sind – im Routinebetrieb wird dies jedoch vermieden und eine bewährte Konfiguration für die meisten Situationen eingesetzt. Das führt zu einer guten Reproduzierbarkeit z.B. der Endenergie oder des Spinpolarisationswinkels an den Experimentierplätzen.rnrnDie Erkenntnisse aus diesen Untersuchungen wurden teilweise automatisiert, so dass nun den Operateuren zusätzliche und hilfreiche Diagnose zur Verfügung steht, mit denen der Maschinenbetrieb noch zuverlässiger durchgeführt werden kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fine powders commonly have poor flowability and dispersibility due to interparticle adhesion that leads to formation of agglomerates. Knowing about adhesion in particle collectives is indispensable to gain a deeper fundamental understanding of particle behavior in powders. Especially in pharmaceutical industry a control of adhesion forces in powders is mandatory to improve the performance of inhalation products. Typically the size of inhalable particles is in the range of 1 - 5 µm. In this thesis, a new method was developed to measure adhesion forces of particles as an alternative to the established colloidal probe and centrifuge technique, which are both experimentally demanding, time consuming and of limited practical applicability. The new method is based on detachment of individual particles from a surface due to their inertia. The required acceleration in the order of 500 000 g is provided by a Hopkinson bar shock excitation system and measured via laser vibrometry. Particle detachment events are detected on-line by optical video microscopy. Subsequent automated data evaluation allows obtaining a statistical distribution of particle adhesion forces. To validate the new method, adhesion forces for ensembles of single polystyrene and silica microspheres on a polystyrene coated steel surface were measured under ambient conditions. It was possible to investigate more than 150 individual particles in one experiment and obtain adhesion values of particles in a diameter range of 3 - 13 µm. This enables a statistical evaluation while measuring effort and time are considerably lower compared to the established techniques. Measured adhesion forces of smaller particles agreed well with values from colloidal probe measurements and theoretical predictions. However, for the larger particles a stronger increase of adhesion with diameter was observed. This discrepancy might be induced by surface roughness and heterogeneity that influence small and large particles differently. By measuring adhesion forces of corrugated dextran particles with sizes down to 2 µm it was demonstrated that the Hopkinson bar method can be used to characterize more complex sample systems as well. Thus, the new device will be applicable to study a broad variety of different particle-surface combinations on a routine basis, including strongly cohesive powders like pharmaceutical drugs for inhalation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der technische Fortschritt konfrontiert die medizinische Bildgebung wie keine andere Sparte der Medizin mit einem rasanten Anstieg zu speichernder Daten. Anschaffung, Wartung und Ausbau der nötigen Infrastruktur entwickeln sich zunehmend zu einem ökonomischen Faktor. Ein Verfahren, welches diesem Trend etwas entgegensetzten könnte ist die irreversible Bilddatenkompression. Sie ist seit über 10 Jahren Gegenstand vieler Studien, deren Ergebnisse sich wiederum in Empfehlungen zum Einsatz irreversibler Kompression mehrerer nationaler und internationaler Organisation, wie CAR, DRG, RCR und ESR wiederspiegeln. Tenor dieser Empfehlungen ist, dass der Einsatz von moderater irreversibler Bilddatenkompression sicher und sinnvoll ist. Teil dieser Empfehlungen sind auch Angaben über das Maß an Kompression, ausgedrückt in Kompressionsraten, welche je nach Untersuchung und anatomischer Region als sicher anwendbar gelten und keinen diagnostisch relevanten Verlust der komprimierten Bilder erzeugen.rnVerschiedene Kompressionsalgorithmen wurden vorgeschlagen. Letztendlich haben sich vor allem die beiden weit verbreiteten Algorithmen JPEG und JPEG2000 bewährt. Letzterer erfährt in letzter Zeit zunehmen Anwendung, aufgrund seiner einfacheren Handhabung und seiner umfangreichen Zusatzfunktionen.rnAufgrund rechtlich-ethischer Bedenken hat die irreversible Kompression keine breite praktische Anwendung finden können. Dafür verantwortlich ist unter anderem auch die Unklarheit, wie sich irreversible Kompression auf Nach- und Weiterverarbeitung (sog. Postprocessing) medizinischer Bilder, wie Segmentierung, Volumetrie oder 3D-Darstellung, auswirkt. Bisherige Studien zu diesem Thema umfassen vier verschiedene Postprocessing-Algorithmen. Die untersuchten Algorithmen zeigten sich bei verlustbehafteter Kompression im Bereich der erwähnten, publizierten Kompressionsraten weitgehend unbeeinflusst. Lediglich die computergestützte Messung von Stenosegraden in der digitalen Koronarangiographie kollidiert mit den in Großbritannien geltenden Empfehlungen. Die Verwendung unterschiedlicher Kompressionsalgorithmen schränkt die allgemeinernAussagekraft dieser Studienergebnisse außerdem ein.rnZur Erweiterung der Studienlage wurden vier weitere Nach- und Weiterverarbeitungsalgorithmen auf ihre Kompressionstoleranz untersucht. Dabei wurden die Kompressionsraten von 8:1, 10:1 und 15:1 verwendet, welche um die empfohlenen Kompressionsraten von CAR, DRG, RCR und ESR liegen und so ein praxisnahes Setting bieten. Als Kompressionsalgorithmus wurde JPEG2000 verwendet, aufgrund seiner zunehmenden Nutzung in Studien sowie seiner bereits erwähnten Vorzüge in Sachen Handhabung und Zusatzfunktionen. Die vier Algorithmen umfassten das 3D-Volume rendering von CT-Angiographien der Becken-Bein-Gefäße, die Computer-assistierte Detektion von Lungenrundherden, die automatisierte Volumetrie von Leberrundherden und die funktionelle Bestimmung der Ejektionsfraktion in computertomographischen Aufnahmen des Herzens.rnAlle vier Algorithmen zeigten keinen Einfluss durch irreversibler Bilddatenkompression in denrngewählten Kompressionsraten (8:1, 10:1 und 15:1). Zusammen mit der bestehenden Literatur deuten die Ergebnisse an, dass moderate irreversible Kompression im Rahmen aktueller Empfehlungen keinen Einfluss auf Nach- und Weiterverarbeitung medizinischer Bilder hat. Eine explizitere Vorhersage zu einem bestimmten, noch nicht untersuchten Algorithmus ist jedoch aufgrund der unterschiedlichen Funktionsweisen und Programmierungen nicht sicher möglich.rnSofern ein Postprocessing Algorithmus auf komprimiertes Bildmaterial angewendet werden soll, muss dieser zunächst auf seine Kompressionstoleranz getestet werden. Dabei muss der Test eine rechtlich-ethische Grundlage für den Einsatz des Algorithmus bei komprimiertem Bildmaterial schaffen. Es sind vor allem zwei Optionen denkbar, die Testung institutsintern, eventuell unter Zuhilfenahme von vorgefertigten Bibliotheken, oder die Testung durch den Hersteller des Algorithmus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Webbasierte Medien haben in den letzten Jahren eine stetig steigende Bedeutung im Alltag Jugendlicher. Konträr zu diesem Befund haben mediendidaktische Modelle kaum Eingang in die Politische Bildung, speziell die Politikdidaktik der Schule, gefunden. Zudem wird kritisch vermerkt, dass beim Einsatz digitaler Medien an klassischen lerntheoretischen Konzepten festgehalten wird, obwohl instruktionale Lehr-Lern-Settings als kontraproduktiv im Zusammenhang mit webbasierten Medien angesehen werden. Dagegen ist die in der Politikdidaktik äußerste kontrovers rezipierte konstruktivistische Lerntheorie äußerst anschlussfähig an eine Planung und Durchführung von Unterricht, welche den Fokus speziell auf den Einsatz webbasierter Medien richtet. rnAufgrund dieser Ausgangslage ist es das Erkenntnisinteresse dieser Arbeit, konstruktivistische Bedingungen des Politikunterrichts auf theoretischer Ebene zu formulieren. Dazu werden zunächst die erkenntnistheoretischen Grundlagen des Konstruktivismus anhand der zentralen Begriffe Autopoiesis, Soziale Konstruktion und Viabilität erörtert. In einem zweiten Schritt wird anhand der erkenntnistheoretischen Grundlagen gezeigt, wie eine konstruktivistische Lerntheorie formuliert werden kann. Dabei wird der Lernvorgang im Gegensatz zu den gängigen Modellen des Behaviorismus und Kognitivismus aus Schülersicht beschrieben. Im Anschluss wird der Einfluss des konstruktivistischen Paradigmas und einer konstruktivistischen Lerntheorie auf die Politikdidaktik aufgezeigt. rnAus dieser Analyse folgt, dass Schülerorientierung und Kontroversität sich als Kernprinzipien der Politischen Bildung uneingeschränkt anschlussfähig an die konstruktivistische Ausrichtung von Unterricht erweisen. Dabei wird die didaktische Rezeption und Umsetzungsproblematik dieser beiden didaktischen Prinzipien als Planungstools vor dem Hintergrund der Ziele des Politikunterrichts kritisch reflektiert. rnAus diesen lerntheoretischen Bedingungen wird abschließend analysiert, inwieweit webbasierte Medien bei der Umsetzung eines konstruktivistischen Politikunterrichts sinnvoll eingesetzt werden können. Dabei wird aufgezeigt, dass sich vor allem die in dieser Arbeit vorgestellten Medien Blog und Wiki für ein solches Vorhaben eignen. Die Analyse zeigt, dass eine enge Verzahnung von konstruktivistischer Lerntheorie und dem Einsatz webbasierter Medien im Politikunterricht möglich ist. Blogs und Wikis erweisen sich als geeignete Medien, um schülerorientierten und kontroversen Politikunterricht umzusetzen und den von Konstruktivisten geforderten grundlegenden Perspektivwechsel vorzunehmen. rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der Archäologie werden elektrische Widerstandsmessungen routinemäßig zur Prospektion von Fundstellen eingesetzt. Die Methode ist kostengünstig, leicht anwendbar und liefert in den meisten Fällen zuverlässige und leicht zu interpretierende Ergebnisse. Dennoch kann die Methode die archäologischen Strukturen in manchen Fällen nur teilweise oder gar nicht abbilden, wenn die bodenphysikalischen und bodenchemischen Eigenschaften des Bodens und der archäologischen Strukturen dies nicht zulassen. Der spezifische elektrische Widerstand wird durch Parameter wie Wassergehalt, Bodenstruktur, Bodenskelett, Bodentextur, Salinität und Bodentemperatur beeinflusst. Manche dieser Parameter, wie z.B. der Wassergehalt und die Bodentemperatur, unterliegen einer saisonalen Veränderung. Die vorliegende Arbeit untersucht den spezifischen elektrischen Widerstand von archäologischen Steinstrukturen und evaluiert die Möglichkeit, auf Grundlage von Geländemessungen und Laboranalysen archäologische Strukturen und Böden als numerische Modelle darzustellen. Dazu wurde eine Kombination von verschiedenen bodenkundlichen, geoarchäologischen und geophysikalischen Methoden verwendet. Um archäologische Strukturen und Bodenprofile als numerische Widerstandsmodelle darstellen zu können, werden Informationen zur Geometrie der Strukturen und ihren elektrischen Widerstandswerten benötigt. Dabei ist die Qualität der Hintergrundinformationen entscheidend für die Genauigkeit des Widerstandsmodells. Die Geometrie der Widerstandsmodelle basiert auf den Ergebnissen von Rammkernsondierungen und archäologische Ausgrabungen. Die an der Ausbildung des elektrischen Widerstands beteiligten Parameter wurden durch die Analyse von Bodenproben gemessen und ermöglichen durch Pedotransfer-Funktion, wie die Rhoades-Formel, die Abschätzung des spezifischen elektrischen Widerstandes des Feinbodens. Um den Einfluss des Bodenskeletts auf den spezifischen elektrischen Widerstand von Bodenprofilen und archäologischen Strukturen zu berechnen, kamen die Perkolationstheorie und die Effective Medium Theory zum Einsatz. Die Genauigkeit und eventuelle Limitierungen der Methoden wurden im Labor durch experimentelle Widerstandsmessungen an ungestörten Bodenproben und synthetischen Materialien überprüft. Die saisonale Veränderung des Wassergehalts im Boden wurde durch numerische Modelle mit der Software HYDRUS simuliert. Die hydraulischen Modelle wurden auf Grundlage der ermittelten bodenkundlichen und archäologischen Stratigraphie erstellt und verwenden die Daten von lokalen Wetterstationen als Eingangsparameter. Durch die Kombination der HYDRUS-Ergebnisse mit den Pedotransfer-Funktionen konnte der Einfluss dieser saisonalen Veränderung auf die Prospektionsergebnisse von elektrischen Widerstandsmethoden berechnet werden. Die Ergebnisse der Modellierungsprozesse wurden mit den Geländemessungen verglichen. Die beste Übereinstimmung zwischen Modellergebnissen und den Prospektionsergebnissen konnte für die Fallstudie bei Katzenbach festgestellt werden. Bei dieser wurden die Modelle auf Grundlage von archäologischen Grabungsergebnissen und detaillierten bodenkundlichen Analysen erstellt. Weitere Fallstudien zeigen, dass elektrische Widerstandsmodelle eingesetzt werden können, um den Einfluss von ungünstigen Prospektionsbedingungen auf die Ergebnisse der elektrischen Widerstandsmessungen abzuschätzen. Diese Informationen unterstützen die Planung und Anwendung der Methoden im Gelände und ermöglichen eine effektivere Interpretation der Prospektionsergebnisse. Die präsentierten Modellierungsansätze benötigen eine weitere Verifizierung durch den Vergleich der Modellierungsergebnisse mit detailliertem geophysikalischem Gelände-Monitoring von archäologischen Fundstellen. Zusätzlich könnten elektrische Widerstandsmessungen an künstlichen Mauerstrukturen unter kontrollierten Bedingungen zur Überprüfung der Modellierungsprozesse genutzt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zeitreihen sind allgegenwärtig. Die Erfassung und Verarbeitung kontinuierlich gemessener Daten ist in allen Bereichen der Naturwissenschaften, Medizin und Finanzwelt vertreten. Das enorme Anwachsen aufgezeichneter Datenmengen, sei es durch automatisierte Monitoring-Systeme oder integrierte Sensoren, bedarf außerordentlich schneller Algorithmen in Theorie und Praxis. Infolgedessen beschäftigt sich diese Arbeit mit der effizienten Berechnung von Teilsequenzalignments. Komplexe Algorithmen wie z.B. Anomaliedetektion, Motivfabfrage oder die unüberwachte Extraktion von prototypischen Bausteinen in Zeitreihen machen exzessiven Gebrauch von diesen Alignments. Darin begründet sich der Bedarf nach schnellen Implementierungen. Diese Arbeit untergliedert sich in drei Ansätze, die sich dieser Herausforderung widmen. Das umfasst vier Alignierungsalgorithmen und ihre Parallelisierung auf CUDA-fähiger Hardware, einen Algorithmus zur Segmentierung von Datenströmen und eine einheitliche Behandlung von Liegruppen-wertigen Zeitreihen.rnrnDer erste Beitrag ist eine vollständige CUDA-Portierung der UCR-Suite, die weltführende Implementierung von Teilsequenzalignierung. Das umfasst ein neues Berechnungsschema zur Ermittlung lokaler Alignierungsgüten unter Verwendung z-normierten euklidischen Abstands, welches auf jeder parallelen Hardware mit Unterstützung für schnelle Fouriertransformation einsetzbar ist. Des Weiteren geben wir eine SIMT-verträgliche Umsetzung der Lower-Bound-Kaskade der UCR-Suite zur effizienten Berechnung lokaler Alignierungsgüten unter Dynamic Time Warping an. Beide CUDA-Implementierungen ermöglichen eine um ein bis zwei Größenordnungen schnellere Berechnung als etablierte Methoden.rnrnAls zweites untersuchen wir zwei Linearzeit-Approximierungen für das elastische Alignment von Teilsequenzen. Auf der einen Seite behandeln wir ein SIMT-verträgliches Relaxierungschema für Greedy DTW und seine effiziente CUDA-Parallelisierung. Auf der anderen Seite führen wir ein neues lokales Abstandsmaß ein, den Gliding Elastic Match (GEM), welches mit der gleichen asymptotischen Zeitkomplexität wie Greedy DTW berechnet werden kann, jedoch eine vollständige Relaxierung der Penalty-Matrix bietet. Weitere Verbesserungen umfassen Invarianz gegen Trends auf der Messachse und uniforme Skalierung auf der Zeitachse. Des Weiteren wird eine Erweiterung von GEM zur Multi-Shape-Segmentierung diskutiert und auf Bewegungsdaten evaluiert. Beide CUDA-Parallelisierung verzeichnen Laufzeitverbesserungen um bis zu zwei Größenordnungen.rnrnDie Behandlung von Zeitreihen beschränkt sich in der Literatur in der Regel auf reellwertige Messdaten. Der dritte Beitrag umfasst eine einheitliche Methode zur Behandlung von Liegruppen-wertigen Zeitreihen. Darauf aufbauend werden Distanzmaße auf der Rotationsgruppe SO(3) und auf der euklidischen Gruppe SE(3) behandelt. Des Weiteren werden speichereffiziente Darstellungen und gruppenkompatible Erweiterungen elastischer Maße diskutiert.