13 resultados para Segmentierung


Relevância:

10.00% 10.00%

Publicador:

Resumo:

We compare the effect of different text segmentation strategies on speech based passage retrieval of video. Passage retrieval has mainly been studied to improve document retrieval and to enable question answering. In these domains best results were obtained using passages defined by the paragraph structure of the source documents or by using arbitrary overlapping passages. For the retrieval of relevant passages in a video, using speech transcripts, no author defined segmentation is available. We compare retrieval results from 4 different types of segments based on the speech channel of the video: fixed length segments, a sliding window, semantically coherent segments and prosodic segments. We evaluated the methods on the corpus of the MediaEval 2011 Rich Speech Retrieval task. Our main conclusion is that the retrieval results highly depend on the right choice for the segment length. However, results using the segmentation into semantically coherent parts depend much less on the segment length. Especially, the quality of fixed length and sliding window segmentation drops fast when the segment length increases, while quality of the semantically coherent segments is much more stable. Thus, if coherent segments are defined, longer segments can be used and consequently less segments have to be considered at retrieval time.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Automobilindustrie reagiert mit Modularisierungsstrategien auf die zunehmende Produktkomplexität, getrieben durch die wachsenden Individualisierungsanforde-rungen auf der Kundenseite und der Modellpolitik mit neuen Fahrzeuganläufen. Die Hersteller verlagern die Materialbereitstellungskomplexität durch Outsourcing an die nächste Zulieferebene, den First Tier Suppliern, die seit Beginn der 90er Jahre zunehmend in Zulieferparks in unmittelbarer Werknähe integriert werden. Typische Merkmale eines klassischen Zulieferparks sind: Bereitstellung einer Halleninfrastruktur mit Infrastrukturdienstleistungen, Anlieferung der Teileumfänge im JIS-Verfahren (Just-in-Sequence = reihenfolgegenaue Synchronisation), lokale Wertschöpfung (Vormontagen, Sequenzierung) des Zulieferers, Vertragsbindung der First Tier Zulieferer für die Dauer eines Produktlebenszyklus und Einbindung eines Logistikdienstleisters. Teilweise werden zur Finanzierung Förderprojekte des öffent-lichen Sektors initiiert. Bisher fehlte eine wissenschaftliche Bearbeitung dieses Themas "Zulieferpark". In der Arbeit werden die in Europa entstandenen Zulieferparks näher untersucht, um Vor- und Nachteile dieses Logistikkonzeptes zu dokumentieren und Entwicklungs-trends aufzuzeigen. Abgeleitet aus diesen Erkenntnissen werden Optimierungs-ansätze aufgezeigt und konkrete Entwicklungspfade zur Verbesserung der Chancen-Risikoposition der Hauptakteure Automobilhersteller, Zulieferer und Logistikdienst-leister beschrieben. Die Arbeit gliedert sich in vier Haupteile, einer differenzierten Beschreibung der Ausgangssituation und den Entwicklungstrends in der Automobilindustrie, dem Vorgehensmodell, der Dokumentation der Analyseergebnisse und der Bewertung von Zulieferparkmodellen. Im Rahmen der Ergebnisdokumentation des Analyseteils werden vier Zulieferparkmodelle in detaillierten Fallstudien anschaulich dargestellt. Zur Erarbeitung der Analyseergebnisse wurde eine Befragung der Hauptakteure mittels strukturierten Fragebögen durchgeführt. Zur Erhebung von Branchentrends und zur relativen Bewertung der Parkmodelle wurden zusätzlich Experten befragt. Zur Segmentierung der Zulieferparklandschaft wurde die Methode der Netzwerk-analyse eingesetzt. Die relative Bewertung der Nutzenposition basiert auf der Nutzwertanalyse. Als Ergebnisse der Arbeit liegen vor: · Umfassende Analyse der Zulieferparklandschaft in Europa, · Segmentierung der Parks in Zulieferparkmodelle, Optimierungsansätze zur Verbesserung einer Win-Win-Situation der beteiligten Hauptakteure, · Relative Nutzenbewertung der Zulieferparkmodelle, · Entwicklungspfade für klassische Zulieferparks.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die medienpädagogische Förderung junger Menschen aus problematischen Familien, sozio-kulturellen Problemlagen, der sogenannten neuen Unterschicht bzw. die Förderung von Hauptschülern, insbesondere Jungen, ist das zentrale Anliegen dieses Buches. Das sind diejenigen Lerner, die die Anforderungen für einen qualifizierten Schulabschluss, die Basiskompetenzen im Sinne der PISA-Studien, nicht oder kaum erfüllen, Distanz zur Schule haben bzw. aus schwierigen sozio-ökonomischen Bevölkerungsgruppen stammen. Diese Gruppe, meist Jungen, häufig mit Migrationshintergrund, versucht der Begriff Risikolerner zu fassen. Die Frage nach Risikolernern eröffnet die Perspektive auf Kompetenzen und kulturelle Ressourcen, mit denen es Risikolernern gelingt, Medien selbstbestimmt und reflexiv für die eigene Persönlichkeitsentwicklung sowie Lebens- und Alltagsbewältigung aktiv zu nutzen (Niesyto, 2010, S. 315). Zentrales Thema und Fragestellung dieses Buches ist, welche Bildungschancen in den Mediennutzungsmustern der Risikolerner stecken. Aus theoretischer Perspektive geht es um die Frage, wie und mit welchen Mustern sich Risikolerner Medien als Kulturgüter aneignen. Die pädagogische Leitfrage, die an den Gedanken der Bildung geknüpft ist, lautet, wie die Entwicklung und damit das Lernen der Risikolerner mit ihren Mediennutzungsmustern, also ihren Aneignungsmustern in Bezug auf Medien, verbunden ist. Die medienpädagogische Frage nach den Chancen für Medienbildung von Risikolernern fundiert auf der Theorie der Medienbildung und auf dem kulturtheoretischen Modell der Sozio-kulturellen Ökologie, wie sie von der London Mobile Learning Group (LMLG; www.londonmobilelearning.net) entwickelt wurde (Pachler, Bachmair, & Cook, 2010). Auf der Grundlage dieser Theorien verortet diese Arbeit die Gruppe der Risikolerner im Zusammenhang von Lebenswelt und Lebenslagen und ordnet diese spezifische Gruppe von Lernern mit Bezug auf individuelle, schulische und gesellschaftliche Risiken ein. Die Gender-Perspektive öffnet den Blick für bestimmte jungenspezifische Aneignungsmuster im Zusammenhang mit Medien und eröffnet im nächsten Schritt die Möglichkeit, Bildungschancen speziell für Jungen zu formulieren. Ein genderbezogener Entwicklungsprozess, der die Lebenswelt der Jungen betrifft, ist die Auflösung hegemonialer Männlichkeit und die Transformation hin zu multioptionalen und situierten Männlichkeiten, die es von Jungen auszubalancieren gilt. Die Sozialstrukturanalyse der Soziologie dient als methodischer Zugang, um Risikolerner systematisch zu identifizieren und um mithilfe der sozialen Segmentierung entsprechende Ergebnisse in Bezug auf Mediennutzung und Alltagsbewältigung zu formulieren. Diese medienpädagogische Forschung ist eine Rekonstruktion der Mediennutzung über die Spuren der Artikulation und Aneignung, wie sie in den Konsumdaten repräsentiert sind, mit dem Ziel, die Aneignungsprozesse und die darin inhärenten Bildungschancen sichtbar zu machen. Risikolerner sind in der Perspektive gesellschaftlicher und alltagsästhetischer Strukturen ein eher hedonistischer, widerständiger Lifestyle, geprägt von sozialer Benachteiligung und von aktivem Risikoverhalten sowie von einer Mediennutzung, die schulischen Aneignungsformen eher entgegengesetzt ist. Die zentralen Ergebnisse und damit Chancen für Medienbildung der Risikolerner entstehen in drei Bereichen der Mediennutzungsmuster: im Downloaden, Speichern und Tauschen vielfältiger Formate; im (mobilen) Gaming; sowie im vielfältigen Produzieren und Verarbeiten von auditivem und visuellem Material. Mit diesen Mustern sind drei bedeutsame Bildungschancen verknüpft: durch Risikolerner generierte alternative Räume der Medienbildung, die strukturell entgegen der Lernwelt Schule ausgerichtet sind; das kommunikative Organisieren des Alltags und der Mediennutzung; sowie das Generieren von digitalen Sammlungen und Archiven als persönlicher Besitz.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die phylogenetische Position der Mollusken innerhalb der Trochozoa sowie die interne Evolution der Klassen der Mollusca sind weitgehend unbekannt und wurden in meiner Arbeit anhand molekularer Merkmale untersucht. Phylogenomische Analysen zeigten in der Vergangenheit eine gute Auflösung für ursprüngliche Speziationsereignisse. Daher wurden hier drei neue EST Datensätze generiert: für Sipunculus nudus (Sipuncula), Barentsia elongata (Kamptozoa) und Lepidochitona cinerea, (Polyplacophora, Mollusca). Zusätzlich wurden gezielt Gene verschiedener Mollusken mittels RT-PCR amplifiziert. rnSowohl Kamptozoen als auch Sipunculiden wurden aufgrund morphologischer Kriterien bisher als mögliche Schwestergruppe der Mollusken gehandelt, aber die hier erzielten Ergebnisse zur Evolution der Hämerythrine, Gen-Anordnungen der mitochondrialen Genome und phylogenetische Analysen der ribosomalen und der mitochondriellen Proteine stützen diese Hypothese nicht. Die Position der Kamptozoa erwies sich hier generell als unbeständig; phylogenomische Analysen deuten eine Nähe zu den Bryozoen an, aber diese Position wird stark durch die Auswahl der Taxa beeinflusst. Dagegen weisen meine Analysen klar auf eine nähere Beziehung zwischen Annelida und Sipuncula hin. Die ribosomalen Proteine zeigen Sipuncula (und Echiura) sogar als Subtaxa der Anneliden. Wie den Mollusken fehlt den Sipunculiden jegliche Segmentierung und meine Ergebnisse legen hier die Möglichkeit des Verlusts dieses Merkmals innerhalb der Anneliden bei den Sipunculiden nahe. Innerhalb der Mollusken wurden die Solenogastren bereits als Schwestergruppe aller rezenten Mollusken vorgeschlagen. Im Rahmen meiner Arbeit wurden von drei verschiedenen Solenogastren-Arten die ersten zuverlässigen 18S rRNA-Sequenzen ermittelt, und es zeigte sich, dass alle bisher veröffentlichten 18S-Sequenzen dieser Molluskenklasse höchst unvollständig oder fehlerhaft sind. rnRibosomale Proteine sind gute phylogenetische Marker und hier wurden die Auswahl und Anzahl dieser Gene für phylogenetische Analysen optimiert. Über Sonden-basierte Detektion wurde eine sampling-Strategie getestet, die im Vergleich mit standard-phylogenomischen Ansätzen zukünftige molekulare Stammbaumrekonstruktionen mit größerem Taxonsampling ermöglicht.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Dissertation "Konsekutivdolmetschen und Notation" (Andres 2002) ist eine experimentelle Studie. Mit Hilfe einer von den Germersheimer Technikern konzipierten Spezialkamera wurde die Notizennahme von insgesamt 28 ProbandInnen, denen über Video die Fernsehansprache des französischen Staatspräsidenten zum Jahreswechsel 1996/1997 eingespielt wurde, gefilmt. Das Besondere an diesen Filmaufnahmen der Notizen war die mitlaufende Zeitschaltuhr. Damit konnte der zeitliche Abstand (Décalage) zur Originalrede gemessen werden. In der Verschriftung wurden die Originalrede, die Notizen und die Wiedergabe in ihrem temporalen Verlauf aufgezeichnet. Auch nonverbale Elemente wurden durch in Klammern hinter die jeweilige Äußerung gesetzte Anmerkungen integriert. Die Leistungen der ProbandInnen wurden von drei Dozentinnen bewertet. Die Auswertung der empirischen Daten erfolgte unter den Aspekten Effizienz und Knappheit, Quantität und Auswahl, Informationsstrukturierung, Décalage, Wissen und Erfahrung, Text als kommunikatives Ganzes. Auswertung der Dolmetschleistungen: Konsekutivdolmetschen ist eine komplexe Gesamtoperation, die sich aus zahlreichen miteinander vernetzten Teilen zusammensetzt. Faktoren wie Übung, Erfahrung, Wissen, das Verfügen über Sachkenntnis und Problemlösestrategien, spielen in diesem Prozess eine erhebliche Rolle. Daher ist es sinnvoll, im didaktischen Ansatz Einzeloperationen aus der Gesamtoperation herauszulösen und für Einzelbereiche die Fähigkeit zum Problemlösen zu trainieren. Die Grundvoraussetzung ist Verstehen, so dass vor allem Verstehenstechniken zu vermitteln sind. Insgesamt geht es darum, den Lernprozess so zu gestalten, dass Studierenden Strategien vermittelt werden, die es ihnen ermöglichen, defizitäre Daten der Textoberfläche durch differenzierte Erwartungsstrukturen zu ergänzen und zu lernen, Sinn zu konstruieren. In Bezug auf die Notation lassen die in der Untersuchung enthaltenen Daten den Schluss zu, dass es bei der Notation nicht um Fragen wie zielsprachliches oder ausgangssprachliches Notieren oder die Anzahl von Symbolen geht, sondern darum zu vermitteln, dass: (1) ein deutlich geschriebenes Notationssystem mit automatisierten Abkürzungsregeln und einem eindeutigen Stamm an Symbolen Zeitersparnis bewirkt, die für andere Operationen genutzt werden kann; (2) Verben und Tempusangaben für die Rekonstruktion des Gesagten ein wesentlicher Faktor sind; (3) Informationsgewichtung und -strukturierung in den Notizen die Verstehensoperationen intensivieren und die Textproduktion erleichtern; (4) Segmentierung und räumliche Anordnung in den Notizen das Zuordnen erleichtern und die Sprachproduktion positiv beeinflussen; (5) die Notation von Verknüpfungsmitteln ein wesentliches Element für die Herstellung von Kohäsion ist; (6) das Décalage in Abhängigkeit vom Faktor Verstehen Schwankungen unterworfen ist und sein darf; (7) jede Person das für sie individuelle Décalage herausfinden muss; (8) ein anhaltendes Décalage von mehr als 7 Sekunden zu Defiziten im Verstehens- oder im Notationsprozess führt; (9) diskontinuierliches Notieren zur Informationsstrukturierung oder -vervollständigung hilfreich sein kann; (10) rhetorische Merkmale in der Textproduktion leichter berücksichtigt werden, wenn diese in den Notizen markiert sind.rnSchließlich haben die Beobachtungen gezeigt, wie hilfreich für die Studierenden eine intensive Auseinandersetzung mit der Notation ist, wie wichtig ein trainiertes, verlässliches, effizientes Notationssystem als eine Teiloperation ist, die den Verstehensprozess stützt und damit entscheidenden Einfluss auf die Qualität der zielsprachlichen Umsetzung nimmt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In den westlichen Industrieländern ist das Mammakarzinom der häufigste bösartige Tumor der Frau. Sein weltweiter Anteil an allen Krebserkrankungen der Frau beläuft sich auf etwa 21 %. Inzwischen ist jede neunte Frau bedroht, während ihres Lebens an Brustkrebs zu erkranken. Die alterstandardisierte Mortalitätrate liegt derzeit bei knapp 27 %.rnrnDas Mammakarzinom hat eine relative geringe Wachstumsrate. Die Existenz eines diagnostischen Verfahrens, mit dem alle Mammakarzinome unter 10 mm Durchmesser erkannt und entfernt werden, würden den Tod durch Brustkrebs praktisch beseitigen. Denn die 20-Jahres-Überlebungsrate bei Erkrankung durch initiale Karzinome der Größe 5 bis 10 mm liegt mit über 95 % sehr hoch.rnrnMit der Kontrastmittel gestützten Bildgebung durch die MRT steht eine relativ junge Untersuchungsmethode zur Verfügung, die sensitiv genug zur Erkennung von Karzinomen ab einer Größe von 3 mm Durchmesser ist. Die diagnostische Methodik ist jedoch komplex, fehleranfällig, erfordert eine lange Einarbeitungszeit und somit viel Erfahrung des Radiologen.rnrnEine Computer unterstützte Diagnosesoftware kann die Qualität einer solch komplexen Diagnose erhöhen oder zumindest den Prozess beschleunigen. Das Ziel dieser Arbeit ist die Entwicklung einer vollautomatischen Diagnose Software, die als Zweitmeinungssystem eingesetzt werden kann. Meines Wissens existiert eine solche komplette Software bis heute nicht.rnrnDie Software führt eine Kette von verschiedenen Bildverarbeitungsschritten aus, die dem Vorgehen des Radiologen nachgeahmt wurden. Als Ergebnis wird eine selbstständige Diagnose für jede gefundene Läsion erstellt: Zuerst eleminiert eine 3d Bildregistrierung Bewegungsartefakte als Vorverarbeitungsschritt, um die Bildqualität der nachfolgenden Verarbeitungsschritte zu verbessern. Jedes kontrastanreichernde Objekt wird durch eine regelbasierte Segmentierung mit adaptiven Schwellwerten detektiert. Durch die Berechnung kinetischer und morphologischer Merkmale werden die Eigenschaften der Kontrastmittelaufnahme, Form-, Rand- und Textureeigenschaften für jedes Objekt beschrieben. Abschließend werden basierend auf den erhobenen Featurevektor durch zwei trainierte neuronale Netze jedes Objekt in zusätzliche Funde oder in gut- oder bösartige Läsionen klassifiziert.rnrnDie Leistungsfähigkeit der Software wurde auf Bilddaten von 101 weiblichen Patientinnen getested, die 141 histologisch gesicherte Läsionen enthielten. Die Vorhersage der Gesundheit dieser Läsionen ergab eine Sensitivität von 88 % bei einer Spezifität von 72 %. Diese Werte sind den in der Literatur bekannten Vorhersagen von Expertenradiologen ähnlich. Die Vorhersagen enthielten durchschnittlich 2,5 zusätzliche bösartige Funde pro Patientin, die sich als falsch klassifizierte Artefakte herausstellten.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Data sets describing the state of the earth's atmosphere are of great importance in the atmospheric sciences. Over the last decades, the quality and sheer amount of the available data increased significantly, resulting in a rising demand for new tools capable of handling and analysing these large, multidimensional sets of atmospheric data. The interdisciplinary work presented in this thesis covers the development and the application of practical software tools and efficient algorithms from the field of computer science, aiming at the goal of enabling atmospheric scientists to analyse and to gain new insights from these large data sets. For this purpose, our tools combine novel techniques with well-established methods from different areas such as scientific visualization and data segmentation. In this thesis, three practical tools are presented. Two of these tools are software systems (Insight and IWAL) for different types of processing and interactive visualization of data, the third tool is an efficient algorithm for data segmentation implemented as part of Insight.Insight is a toolkit for the interactive, three-dimensional visualization and processing of large sets of atmospheric data, originally developed as a testing environment for the novel segmentation algorithm. It provides a dynamic system for combining at runtime data from different sources, a variety of different data processing algorithms, and several visualization techniques. Its modular architecture and flexible scripting support led to additional applications of the software, from which two examples are presented: the usage of Insight as a WMS (web map service) server, and the automatic production of a sequence of images for the visualization of cyclone simulations. The core application of Insight is the provision of the novel segmentation algorithm for the efficient detection and tracking of 3D features in large sets of atmospheric data, as well as for the precise localization of the occurring genesis, lysis, merging and splitting events. Data segmentation usually leads to a significant reduction of the size of the considered data. This enables a practical visualization of the data, statistical analyses of the features and their events, and the manual or automatic detection of interesting situations for subsequent detailed investigation. The concepts of the novel algorithm, its technical realization, and several extensions for avoiding under- and over-segmentation are discussed. As example applications, this thesis covers the setup and the results of the segmentation of upper-tropospheric jet streams and cyclones as full 3D objects. Finally, IWAL is presented, which is a web application for providing an easy interactive access to meteorological data visualizations, primarily aimed at students. As a web application, the needs to retrieve all input data sets and to install and handle complex visualization tools on a local machine are avoided. The main challenge in the provision of customizable visualizations to large numbers of simultaneous users was to find an acceptable trade-off between the available visualization options and the performance of the application. Besides the implementational details, benchmarks and the results of a user survey are presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der technische Fortschritt konfrontiert die medizinische Bildgebung wie keine andere Sparte der Medizin mit einem rasanten Anstieg zu speichernder Daten. Anschaffung, Wartung und Ausbau der nötigen Infrastruktur entwickeln sich zunehmend zu einem ökonomischen Faktor. Ein Verfahren, welches diesem Trend etwas entgegensetzten könnte ist die irreversible Bilddatenkompression. Sie ist seit über 10 Jahren Gegenstand vieler Studien, deren Ergebnisse sich wiederum in Empfehlungen zum Einsatz irreversibler Kompression mehrerer nationaler und internationaler Organisation, wie CAR, DRG, RCR und ESR wiederspiegeln. Tenor dieser Empfehlungen ist, dass der Einsatz von moderater irreversibler Bilddatenkompression sicher und sinnvoll ist. Teil dieser Empfehlungen sind auch Angaben über das Maß an Kompression, ausgedrückt in Kompressionsraten, welche je nach Untersuchung und anatomischer Region als sicher anwendbar gelten und keinen diagnostisch relevanten Verlust der komprimierten Bilder erzeugen.rnVerschiedene Kompressionsalgorithmen wurden vorgeschlagen. Letztendlich haben sich vor allem die beiden weit verbreiteten Algorithmen JPEG und JPEG2000 bewährt. Letzterer erfährt in letzter Zeit zunehmen Anwendung, aufgrund seiner einfacheren Handhabung und seiner umfangreichen Zusatzfunktionen.rnAufgrund rechtlich-ethischer Bedenken hat die irreversible Kompression keine breite praktische Anwendung finden können. Dafür verantwortlich ist unter anderem auch die Unklarheit, wie sich irreversible Kompression auf Nach- und Weiterverarbeitung (sog. Postprocessing) medizinischer Bilder, wie Segmentierung, Volumetrie oder 3D-Darstellung, auswirkt. Bisherige Studien zu diesem Thema umfassen vier verschiedene Postprocessing-Algorithmen. Die untersuchten Algorithmen zeigten sich bei verlustbehafteter Kompression im Bereich der erwähnten, publizierten Kompressionsraten weitgehend unbeeinflusst. Lediglich die computergestützte Messung von Stenosegraden in der digitalen Koronarangiographie kollidiert mit den in Großbritannien geltenden Empfehlungen. Die Verwendung unterschiedlicher Kompressionsalgorithmen schränkt die allgemeinernAussagekraft dieser Studienergebnisse außerdem ein.rnZur Erweiterung der Studienlage wurden vier weitere Nach- und Weiterverarbeitungsalgorithmen auf ihre Kompressionstoleranz untersucht. Dabei wurden die Kompressionsraten von 8:1, 10:1 und 15:1 verwendet, welche um die empfohlenen Kompressionsraten von CAR, DRG, RCR und ESR liegen und so ein praxisnahes Setting bieten. Als Kompressionsalgorithmus wurde JPEG2000 verwendet, aufgrund seiner zunehmenden Nutzung in Studien sowie seiner bereits erwähnten Vorzüge in Sachen Handhabung und Zusatzfunktionen. Die vier Algorithmen umfassten das 3D-Volume rendering von CT-Angiographien der Becken-Bein-Gefäße, die Computer-assistierte Detektion von Lungenrundherden, die automatisierte Volumetrie von Leberrundherden und die funktionelle Bestimmung der Ejektionsfraktion in computertomographischen Aufnahmen des Herzens.rnAlle vier Algorithmen zeigten keinen Einfluss durch irreversibler Bilddatenkompression in denrngewählten Kompressionsraten (8:1, 10:1 und 15:1). Zusammen mit der bestehenden Literatur deuten die Ergebnisse an, dass moderate irreversible Kompression im Rahmen aktueller Empfehlungen keinen Einfluss auf Nach- und Weiterverarbeitung medizinischer Bilder hat. Eine explizitere Vorhersage zu einem bestimmten, noch nicht untersuchten Algorithmus ist jedoch aufgrund der unterschiedlichen Funktionsweisen und Programmierungen nicht sicher möglich.rnSofern ein Postprocessing Algorithmus auf komprimiertes Bildmaterial angewendet werden soll, muss dieser zunächst auf seine Kompressionstoleranz getestet werden. Dabei muss der Test eine rechtlich-ethische Grundlage für den Einsatz des Algorithmus bei komprimiertem Bildmaterial schaffen. Es sind vor allem zwei Optionen denkbar, die Testung institutsintern, eventuell unter Zuhilfenahme von vorgefertigten Bibliotheken, oder die Testung durch den Hersteller des Algorithmus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zentrales Thema der Arbeit war die Aufklärung von Verwandtschaftsverhältnissen im „Tree of Life“ der vielzelligen Tiere (Metazoa) unter Einsatz großer DNA-Sequenzdatensätze und phylogenomischer Methoden. Zur Untersuchung der internen Phylogenie der Syndermata (= meist freilebende Rädertiere („Rotifera“) + endoparasitische Kratzwürmer (Acanthocephala)) sowie ihrer Position im Metazoen-Stammbaum wurden insgesamt sieben neue mitochondriale (mt) Genome sowie neue Transkriptom-Sequenzdaten von sieben verschiedenen Syndermata-Spezies generiert und/oder analysiert. Die Stammbaumrekonstruktionen auf Grundlage dieser sowie orthologer Sequenzen anderer Spezies in Form von phylogenomischen Datensätzen mit bis zu 82.000 Aminosäurepositionen ergaben folgende Aussagen zur Evolution: (i) Innerhalb der Acanthocephala bilden monophyletische Palaeacanthocephala das Schwestertaxon zu den Eoacanthocephala. Die Archiacanthocephala sind Schwestertaxon zu allen vorgenannten. (ii) Innerhalb der Syndermata bilden die epizoisch lebenden Seisonidea das Schwestertaxon zu den endoparasitischen Acanthocephala (= Pararotatoria), die Bdelloidea sind das Schwestertaxon zu den Pararotatoria (= Hemirotifera) und die Monogononta das Schwestertaxon zu den Hemirotifera. Die klassischen Eurotatoria (= Bdelloidea + Monogononta) sind demnach paraphyletisch. (iii) Innerhalb der Metazoa bilden die Syndermata gemeinsam mit den Gnathostomulida die Gnathifera. Diese sind die Schwestergruppe zu allen anderen Spiralia-Taxa, welche sich in Rouphozoa (= Platyhelminthes + Gastrotricha) sowie die Lophotrochozoa aufspalten. Die Platyzoa (= Gnathifera + Platyhelminthes + Gastrotricha) sind demnach paraphyletisch. Diese phylogenetischen Hypothesen wurden im Hinblick auf ihre Implikationen für die Evolution morphologischer und ökologischer Merkmale interpretiert. Demnach sind während der Evolution dieser Tiergruppen mehrfach sekundäre Verlustereignisse von komplexen morphologischen Merkmalen aufgetreten (laterale sensorische Organe innerhalb der Acanthocephala und das Räderorgan (Corona) innerhalb der Syndermata), was die Verwendung dieser Merkmale im Sinne einer klassisch-morphologischen Phylogenetik kritisch erscheinen lässt. Der Endoparasitismus der Acanthocephala hat sich wahrscheinlich über ein epizoisches Zwischenstadium, wie man es heute noch bei den Seisonidea findet, entwickelt. Der letzte gemeinsame Vorfahre der Spiralia war vermutlich klein und unsegmentiert und besaß keine echte Leibeshöhle (Coelom). Demnach hätten sich Segmentierung und Coelome innerhalb der Metazoa mehrfach unabhängig voneinander (konvergent) entwickelt. Die Arbeit beinhaltete folgende weitere, zum Teil methodische Aspekte: (i) die Analyse der Architektur der mt Genome der Monogononta bestätigte die aberrante Organisation in zwei Subgenomen für die Brachionidae. (ii) Eine Prüfung der Tauglichkeit ribosomaler Proteine für molekular-phylogenetische Arbeiten ergab das Vorhandensein widersprüchlicher phylogenetischer Signale in diesen speziellen Proteinsequenzen. (iii) Es konnte nachgewiesen werden, dass systematische Fehler wie „long-branch attraction“ bei der Positionierung der Syndermata im Stammbaum der Metazoa eine große Rolle spielen und adressiert werden müssen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zeitreihen sind allgegenwärtig. Die Erfassung und Verarbeitung kontinuierlich gemessener Daten ist in allen Bereichen der Naturwissenschaften, Medizin und Finanzwelt vertreten. Das enorme Anwachsen aufgezeichneter Datenmengen, sei es durch automatisierte Monitoring-Systeme oder integrierte Sensoren, bedarf außerordentlich schneller Algorithmen in Theorie und Praxis. Infolgedessen beschäftigt sich diese Arbeit mit der effizienten Berechnung von Teilsequenzalignments. Komplexe Algorithmen wie z.B. Anomaliedetektion, Motivfabfrage oder die unüberwachte Extraktion von prototypischen Bausteinen in Zeitreihen machen exzessiven Gebrauch von diesen Alignments. Darin begründet sich der Bedarf nach schnellen Implementierungen. Diese Arbeit untergliedert sich in drei Ansätze, die sich dieser Herausforderung widmen. Das umfasst vier Alignierungsalgorithmen und ihre Parallelisierung auf CUDA-fähiger Hardware, einen Algorithmus zur Segmentierung von Datenströmen und eine einheitliche Behandlung von Liegruppen-wertigen Zeitreihen.rnrnDer erste Beitrag ist eine vollständige CUDA-Portierung der UCR-Suite, die weltführende Implementierung von Teilsequenzalignierung. Das umfasst ein neues Berechnungsschema zur Ermittlung lokaler Alignierungsgüten unter Verwendung z-normierten euklidischen Abstands, welches auf jeder parallelen Hardware mit Unterstützung für schnelle Fouriertransformation einsetzbar ist. Des Weiteren geben wir eine SIMT-verträgliche Umsetzung der Lower-Bound-Kaskade der UCR-Suite zur effizienten Berechnung lokaler Alignierungsgüten unter Dynamic Time Warping an. Beide CUDA-Implementierungen ermöglichen eine um ein bis zwei Größenordnungen schnellere Berechnung als etablierte Methoden.rnrnAls zweites untersuchen wir zwei Linearzeit-Approximierungen für das elastische Alignment von Teilsequenzen. Auf der einen Seite behandeln wir ein SIMT-verträgliches Relaxierungschema für Greedy DTW und seine effiziente CUDA-Parallelisierung. Auf der anderen Seite führen wir ein neues lokales Abstandsmaß ein, den Gliding Elastic Match (GEM), welches mit der gleichen asymptotischen Zeitkomplexität wie Greedy DTW berechnet werden kann, jedoch eine vollständige Relaxierung der Penalty-Matrix bietet. Weitere Verbesserungen umfassen Invarianz gegen Trends auf der Messachse und uniforme Skalierung auf der Zeitachse. Des Weiteren wird eine Erweiterung von GEM zur Multi-Shape-Segmentierung diskutiert und auf Bewegungsdaten evaluiert. Beide CUDA-Parallelisierung verzeichnen Laufzeitverbesserungen um bis zu zwei Größenordnungen.rnrnDie Behandlung von Zeitreihen beschränkt sich in der Literatur in der Regel auf reellwertige Messdaten. Der dritte Beitrag umfasst eine einheitliche Methode zur Behandlung von Liegruppen-wertigen Zeitreihen. Darauf aufbauend werden Distanzmaße auf der Rotationsgruppe SO(3) und auf der euklidischen Gruppe SE(3) behandelt. Des Weiteren werden speichereffiziente Darstellungen und gruppenkompatible Erweiterungen elastischer Maße diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Anwendungsbereich für Modelle und Prototypen hat sich mittlerweile auch auf unterschiedlichste medizinische Fragestellungen ausgedehnt. Der vorliegende Beitrag zeigt an verschiedenen Praxisbeispielen und Verfahren Möglichkeiten eines in der Technik etablierten Verfahrens für eine erweiterte Anwendung auf.