697 resultados para Adaptives Verfahren


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Selbstorganisation von amphiphilen Molekülen wird genutzt, um in Lösung, auf der Oberfläche, in der festen Phase und an der Flüssig/Fest-Grenzfläche nanoskopisch strukturierte Materialien zu erhalten. Ziel hierbei ist es, die Dynamik der niedermolekularen Amphiphile mit der Stabilität der hochmolekularen Amphiphile zu vereinigen, um damit die Selbstorganisation der Moleküle zu kontrollieren. Drei Konzepte zur Strukturierung von Kohlenstoff durch Selbstorganisation werden vorgestellt. Im ersten Konzept werden aus Hexaphenylbenzol-Polyethylenglykol- (HPB-PEG) und Hexa-peri-hexabenzocoronen- (HBC-PEG) Derivaten wurmähnliche bzw. faserförmige Strukturen in wässriger Lösung erhalten. Der Wassergehalt in den Hydrogelfasern aus den HPB-PEG-Derivaten kann durch das Substitutionsmuster der Amphiphile und die Länge der PEG-Ketten eingestellt werden. Die Hydrogelfasern ähneln anders als die bisherigen Verfahren, die zur Faserherstellung verwendet werden (Extrudieren, Mikrofluid-Verarbeitung oder Elektrospinning), Systemen in der Natur. Der Beweis für die Bildung von Hydrogelfasern wird mittels spezieller Methoden der polarisierten und depolarisierten dynamischen Lichtstreuung erbracht. Im zweiten Konzept werden durch Elektronenbestrahlung und Pyrolyse von 3',4',5',6'-Tetraphenyl-[1,1':2',1''-terphenyl]-4,4''-dithiol homogene Kohlenstoffmembranen mit Poren erzeugt, die Anwendung in der Filtration finden können und im dritten Konzept wird die Selbstorganisation von einem ortho-verknüpften HPB-Trimer an der Flüssig/Fest-Grenzfläche untersucht. Auf diese Weise werden hochgeordnete lamellare Strukturen erhalten. In allen drei Konzepten sind die Geometrie und die Größe der Moleküle die entscheidenden Parameter zur Erzeugung definierter Strukturen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Herz-Kreislauf-Erkrankungen zählen weltweit zu den Hauptursachen, die zu frühzeitigem Tod führen. Pathophysiologisch liegt eine Gefäßwandverdickung durch Ablagerung arteriosklerotischer Plaques (Arteriosklerose) vor. Die molekulare Bildgebung mit den nuklearmedizinischen Verfahren SPECT und PET zielt darauf ab, minderperfundierte Myokardareale zu visualisieren, um den Krankheitsverlauf durch frühzeitige Therapie abschwächen zu können. Routinemäßig eingesetzt werden die SPECT-Perfusionstracer [99mTc]Sestamibi und [99mTc]Tetrofosmin. Zum Goldstandard für die Quantifizierung der Myokardperfusion werden allerdings die PET-Tracer [13N]NH3 und [15O]H2O, da eine absolute Bestimmung des Blutflusses in mL/min/g sowohl in der Ruhe als auch bei Belastung möglich ist. 2007 wurde [18F]Flurpiridaz als neuer Myokardtracer vorgestellt, dessen Bindung an den MC I sowohl in Ratten, Hasen, Primaten als auch in ersten klinischen Humanstudien eine selektive Myokardaufnahme zeigte. Um eine Verfügbarkeit des Radionuklids über einen Radionuklidgenerator gewährleisten zu können, sollten makrozyklische 68Ga-Myokard-Perfusionstracer auf Pyridaben-Basis synthetisiert und evaluiert werden. Die neue Tracer-Klasse setzte sich aus dem makrozyklischen Chelator, einem Linker und dem Insektizid Pyridaben als Targeting-Vektor zusammen. Struktur-Affinitätsbeziehungen konnten auf Grund von Variation des Linkers (Länge und Polarität), der Komplexladung (neutral und einfach positiv geladen), des Chelators (DOTA, NODAGA, DO2A) sowie durch einen Multivalenzansatz (Monomer und Dimer) aufgestellt werden. Insgesamt wurden 16 neue Verbindungen synthetisiert. Ihre 68Ga-Markierung wurde hinsichtlich pH-Wert, Temperatur, Vorläufermenge und Reaktionszeit optimiert. Die DOTA/NODAGA-Pyridaben-Derivate ließen sich mit niedrigen Substanzmengen (6 - 25 nmol) in 0,1 M HEPES-Puffer (pH 3,4) bei 95°C innerhalb 15 min mit Ausbeuten > 95 % markieren. Für die DO2A-basierenden Verbindungen bedurfte es einer mikrowellengestützen Markierung (300 W, 1 min, 150°C), um vergleichbare Ausbeuten zu erzielen. Die in vitro-Stabilitätstests aller Verbindungen erfolgten in EtOH, NaCl und humanem Serum. Es konnten keine Instabilitäten innerhalb 80 min bei 37°C festgestellt werden. Unter Verwendung der „shake flask“-Methode wurden die Lipophilien (log D = -1,90 – 1,91) anhand des Verteilungs-quotienten in Octanol/PBS-Puffer ermittelt. Die kalten Referenzsubstanzen wurden mit GaCl3 hergestellt und zur Bestimmung der IC50-Werte (34,1 µM – 1 µM) in vitro auf ihre Affinität zum MC I getestet. In vivo-Evaluierungen erfolgten mit den zwei potentesten Verbindungen [68Ga]VN160.MZ und [68Ga]VN167.MZ durch µ-PET-Aufnahmen (n=3) in gesunden Ratten über 60 min. Um die Organverteilung ermitteln zu können, wurden ex vivo-Biodistributionsstudien (n=3) vorgenommen. Sowohl die µ-PET-Untersuchungen als auch die Biodistributionsstudien zeigten, dass es bei [68Ga]VN167.MZ zwar zu einer Herzaufnahme kam, die jedoch eher perfusionsabhängig ist. Eine Retention des Tracers im Myokard konnte in geringem Umfang festgestellt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit behandelt Fragen des Dreistufentests, der mit dem Inkrafttreten des 12. Rundfunkänderungsstaatsvertrages am 1.6.2009 Eingang in das deutsche Rundfunkrecht gefunden hat. Voraus ging eine Auseinandersetzung der Bundesrepublik Deutschland mit der Europäischen Kommission im Rahmen von Beschwerden über die Zulässigkeit der deutschen Rundfunkfinanzierung. Das Verfahren endete mit Auflagen, die durch den deutschen Rundfunkgesetzgeber umgesetzt wurden, nicht zuletzt, um den Vorgaben des europäischen Beihilfenrechts zu entsprechen. Anders als zu dem Verfahren des Dreistufentests zuvor erschienenen Monografien setzt die vorliegende Arbeit an dessen Abschluss an und stellt die Frage, wie eine den Dreistufentest beendende Entscheidung überprüft werden kann, inwieweit und für wen sie justiziabel ist. rnrnDer Autor untersucht zunächst die Überprüfung des Dreistufentests durch die für die Rechtsaufsicht zuständige Stelle, die der Rundfunkstaatsvertrag vorsieht, um den europarechtlich geforderten staatlichen Betrauungsakt zu garantieren. Eingehend behandelt werden Fragen zur Verfassungsmäßigkeit einer obligatorischen rechtsaufsichtlichen Prüfung programmbezogener Thematiken unter den Gesichtspunkten der Staatsferne und Subsidiarität. Der Autor kommt zu dem Ergebnis, dass die Prüfung der für die Rechtsaufsicht zuständigen Stelle keine Aufsicht im eigentlichen Sinne darstellt, sondern eine Aufgabe sui generis und dass aufgrund einer durch Beurteilungsspielräume und Defizite in den Handlungsmitteln doppelt beschränkten Prüfungskompetenz der für die Rechtsaufsicht zuständigen Stelle den verfassungsmäßigen Vorgaben genügt wird. Die für die Rechtsaufsicht zuständige Stelle entscheidet durch einen Verwaltungsakt.rnrnSodann werden die Möglichkeiten eines verwaltungsgerichtlichen Vorgehens in verschiedenen theoretischen prozessualen Situationen untersucht. Im Ergebnis stellt sich eine Verpflichtungsklage einer Rundfunkanstalt gegen die Ablehnung der Bestätigung eines Dreistufentestergebnisses als zulässig und begründbar heraus. Gleiches gilt für eine Konkurrenten-Anfechtungsklage gegen die Bestätigung eines Dreistufentestergebnisses. In beiden Fällen ist für eine gute Erfolgsaussicht ein hohes Maß an argumentativer Kraft erforderlich. Untersucht werden schließlich Organstreitverfahren innerhalb einer Rundfunkanstalt. rnrnEin gerichtliches Vorgehen gegen den Dreistufentest auf der Basis des Wettbewerbsrechts vor ordentlichen Gerichten ist möglich. Exemplarisch wird der aktuelle Rechtsstreit um die Tagesschau-App behandelt, der auf § 4 Nr. 11 UWG basiert. Der gerichtlich überprüfbare Vorwurf wird in der konkreten Ausgestaltung eines Telemedienangebots in dem Verstoß einer Regelung des Rundfunkstaatsvertrages erhoben, etwa als nicht sendungsbezogen oder presseähnlich. Ergebnis der eingehenden Bewertung dieses Falles ist die Feststellung, dass nicht der Dreistufentest selbst Gegenstand einer Überprüfung ist, sondern die praktische Umsetzung seines Ergebnisses. Diskutiert werden insbesondere die Fragestellungen, inwieweit eine zumal bestandskräftige behördliche Entscheidung überhaupt durch ordentliche Gerichte zu überprüfen ist und ob ein solches behördliches Handeln als unlauter bewertet werden kann. rnrnSchließlich stellen sich die Erfolgsaussichten gerichtlicher Maßnahmen auf der Ebene der europäischen Gerichtsbarkeit im Ergebnis als gering heraus.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Basisproblem von Arc-Routing Problemen mit mehreren Fahrzeugen ist das Capacitated Arc-Routing Problem (CARP). Praktische Anwendungen des CARP sind z.B. in den Bereichen Müllabfuhr und Briefzustellung zu finden. Das Ziel ist es, einen kostenminimalen Tourenplan zu berechnen, bei dem alle erforderlichen Kanten bedient werden und gleichzeitig die Fahrzeugkapazität eingehalten wird. In der vorliegenden Arbeit wird ein Cut-First Branch-and-Price Second Verfahren entwickelt. In der ersten Phase werden Schnittebenen generiert, die dem Master Problem in der zweiten Phase hinzugefügt werden. Das Subproblem ist ein kürzeste Wege Problem mit Ressourcen und wird gelöst um neue Spalten für das Master Problem zu liefern. Ganzzahlige CARP Lösungen werden durch ein neues hierarchisches Branching-Schema garantiert. Umfassende Rechenstudien zeigen die Effektivität dieses Algorithmus. Kombinierte Standort- und Arc-Routing Probleme ermöglichen eine realistischere Modellierung von Zustellvarianten bei der Briefzustellung. In dieser Arbeit werden jeweils zwei mathematische Modelle für Park and Loop und Park and Loop with Curbline vorgestellt. Die Modelle für das jeweilige Problem unterscheiden sich darin, wie zulässige Transfer Routen modelliert werden. Während der erste Modelltyp Subtour-Eliminationsbedingungen verwendet, werden bei dem zweiten Modelltyp Flussvariablen und Flusserhaltungsbedingungen eingesetzt. Die Rechenstudie zeigt, dass ein MIP-Solver den zweiten Modelltyp oft in kürzerer Rechenzeit lösen kann oder bei Erreichen des Zeitlimits bessere Zielfunktionswerte liefert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Graphene nanoribbons (GNRs), which are defined as nanometer-wide strips of graphene, are attracting an increasing attention as one on the most promising materials for future nanoelectronics. Unlike zero-bandgap graphene that cannot be switched off in transistors, GNRs possess open bandgaps that critically depend on their width and edge structures. GNRs were predominantly prepared through “top-down” methods such as “cutting” of graphene and “unzipping” of carbon nanotubes, but these methods cannot precisely control the structure of the resulting GNRs. In contrast, “bottom-up” chemical synthetic approach enables fabrication of structurally defined and uniform GNRs from tailor-made polyphenylene precursors. Nevertheless, width and length of the GNRs obtainable by this method were considerably limited. In this study, lateral as well as longitudinal extensions of the GNRs were achieved while preserving the high structural definition, based on the bottom-up solution synthesis. Initially, wider (~2 nm) GNRs were synthesized by using laterally expanded monomers through AA-type Yamamoto polymerization, which proved more efficient than the conventional A2B2-type Suzuki polymerization. The wider GNRs showed broad absorption profile extending to the near-infrared region with a low optical bandgap of 1.12 eV, which indicated a potential of such GNRs for the application in photovoltaic cells. Next, high longitudinal extension of narrow (~1 nm) GNRs over 600 nm was accomplished based on AB-type Diels–Alder polymerization, which provided corresponding polyphenylene precursors with the weight-average molecular weight of larger than 600,000 g/mol. Bulky alkyl chains densely installed on the peripheral positions of these GNRs enhanced their liquid-phase processability, which allowed their formation of highly ordered self-assembled monolayers. Furthermore, non-contact time-resolved terahertz spectroscopy measurements demonstrated high charge-carrier mobility within individual GNRs. Remarkably, lateral extension of the AB-type monomer enabled the fabrication of wider (~2 nm) and long (>100 nm) GNRs through the Diels–Alder polymerization. Such longitudinally extended and structurally well-defined GNRs are expected to allow the fabrication of single-ribbon transistors for the fundamental studies on the electronic properties of the GNRs as well as contribute to the development of future electronic devices.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Materialverfolgung gewinnt in der Metallindustrie immer mehr an Bedeutung:rnEs ist notwendig, dass ein Metallband im Fertigungsprozess ein festgelegtes Programm durchläuft - erst dann ist die Qualität des Endprodukts garantiert. Die bisherige Praxis besteht darin, jedem Metallband eine Nummer zuzuordnen, mit der dieses Band beschriftet wird. Bei einer tagelangen Lagerung der Bänder zwischen zwei Produktionsschritten erweist sich diese Methode als fehleranfällig: Die Beschriftungen können z.B. verloren gehen, verwechselt, falsch ausgelesen oder unleserlich werden. 2007 meldete die iba AG das Patent zur Identifikation der Metallbänder anhand ihres Dickenprofils an (Anhaus [3]) - damit kann die Identität des Metallbandes zweifelsfrei nachgewiesen werden, eine zuverlässige Materialverfolgung wurde möglich.Es stellte sich jedoch heraus, dass die messfehlerbehafteten Dickenprofile, die als lange Zeitreihen aufgefasst werden können, mit Hilfe von bisherigen Verfahren (z.B. L2-Abstandsminimierung oder Dynamic Time Warping) nicht erfolgreich verglichen werden können.Diese Arbeit stellt einen effizienten feature-basierten Algorithmus zum Vergleichrnzweier Zeitreihen vor. Er ist sowohl robust gegenüber Rauschen und Messausfällen als auch invariant gegenüber solchen Koordinatentransformationen der Zeitreihen wie Skalierung und Translation. Des Weiteren sind auch Vergleiche mit Teilzeitreihen möglich. Unser Framework zeichnet sich sowohl durch seine hohe Genauigkeit als auch durch seine hohe Geschwindigkeit aus: Mehr als 99.5% der Anfragen an unsere aus realen Profilen bestehende Testdatenbank werden richtig beantwortet. Mit mehreren hundert Zeitreihen-Vergleichen pro Sekunde ist es etwa um den Faktor 10 schneller als die auf dem Gebiet der Zeitreihenanalyse etablierten Verfahren, die jedoch nicht im Stande sind, mehr als 90% der Anfragen korrekt zu verarbeiten. Der Algorithmus hat sich als industrietauglich erwiesen. Die iba AG setzt ihn in einem weltweit einzigartigen dickenprofilbasierten Überwachungssystemrnzur Materialverfolgung ein, das in ersten Stahl- und Aluminiumwalzwerkenrnbereits erfolgreich zum Einsatz kommt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Biobanken sind Sammlungen von Körpersubstanzen, die mit umfangreichen gesundheits- und lebensstilbezogenen sowie geneologischen Daten ihrer Spender verknüpft sind. Sie dienen der Erforschung weit verbreiteter Krankheiten. Diese sog. Volkskrankheiten sind multifaktoriell bedingte Krankheiten. Dies bedeutet, dass diese Krankheiten das Ergebnis eines komplizierten Zusammenspiels von umwelt- und verhaltensrelevanten Faktoren mit individuellen genetischen Prädispositionen sind. Forschungen im Bereich von Pharmakogenomik und Pharmakogenetik untersuchen den Einfluss von Genen und Genexpressionen auf die individuelle Wirksamkeit von Medikamenten sowie auf die Entstehung ungewollter Nebenwirkungen und könnten so den Weg zu einer individualisierten Medizin ebnen. Menschliches Material ist ein wichtiger Bestandteil dieser Forschungen und die Nachfrage nach Sammlungen, die Proben mit Daten verknüpfen, steigt. Einerseits sehen Mediziner in Biobanken eine Chance für die Weiterentwicklung der medizinischen Forschung und des Gesundheitswesens. Andererseits lösen Biobanken auch Ängste und Misstrauen aus. Insbesondere wird befürchtet, dass Proben und Daten unkontrolliert verwendet werden und sensible Bereiche des Persönlichkeitsrechts und der persönlichen Identität betroffen sind. Diese Gefahren und Befürchtungen sind nicht neu, sondern bestanden schon in der Vergangenheit bei jeglicher Form der Spende von Körpersubstanzen. Neu ist aber der Umfang an Informationen, der durch die Genanalyse entsteht und den Spender in ganz besonderer Weise betreffen kann. Bei der Speicherung und Nutzung der medizinischen und genetischen Daten ergibt sich somit ein Spannungsfeld insbesondere zwischen dem Recht der betroffenen Datenspender auf informationelle Selbstbestimmung und den Forschungsinteressen der Datennutzer. Im Kern dreht sich die ethisch-rechtliche Bewertung der Biobanken um die Frage, ob diese Forschung zusätzliche Regeln braucht, und falls ja, wie umfassend diese sein müssten. Im Zentrum dieser Diskussion stehen dabei v.a. ethische Fragen im Zusammenhang mit der informierten Einwilligung, dem Datenschutz, der Wiederverwendung von Proben und Daten, der Information der Spender über Forschungsergebnisse und der Nutzungsrechte an den Daten. Ziel dieser Arbeit ist es, vor dem Hintergrund des Verfassungsrechts, insbesondere dem Recht auf informationelle Selbstbestimmung, das Datenschutzrecht im Hinblick auf die Risiken zu untersuchen, die sich aus der Speicherung, Verarbeitung und Kommunikation von persönlichen genetischen Informationen beim Aufbau von Biobanken ergeben. Daraus ergibt sich die weitere Untersuchung, ob und unter welchen Voraussetzungen die sich entgegenstehenden Interessen und Rechte aus verfassungsrechtlichem Blickwinkel in Einklang zu bringen sind. Eine wesentliche Frage lautet, ob die bisherigen rechtlichen Rahmenbedingungen ausreichen, um den Schutz der gespeicherten höchstpersönlichen Daten und zugleich ihre angemessene Nutzung zu gewährleisten. Das Thema ist interdisziplinär im Schnittfeld von Datenschutz, Verfassungsrecht sowie Rechts- und Medizinethik angelegt. Aus dem Inhalt: Naturwissenschaftliche und empirische Grundlagen von Biobanken – Überblick über Biobankprojekte in Europa und im außereuropäischen Ausland – Rechtsgrundlagen für Biobanken - Recht auf informationelle Selbstbestimmung - Recht auf Nichtwissen - Forschungsfreiheit - Qualitätssicherung und Verfahren – informierte Einwilligung – globale Einwilligung - Datenschutzkonzepte - Forschungsgeheimnis –– Biobankgeheimnis - Biobankgesetz

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This dissertation describes the synthesis of surface attached hydrogel biomaterials, characterization of their properties, evaluation of structuring concepts and the investigation of these materials in the isolation of DNA from human whole blood. Photosensitive hydrogel precursor materials on the basis of hydroxyethylmethacrylate (HEMA) were synthesized by free radical polymerization. In order to obtain surface bound hydrogel films, the precursors were deposited on a suitable substrate and subsequently irradatiated with UV - light to accomplish the formation of crosslinks in the film and create surface attachment. The composition of the polymerization precursor materials was determined by comprehensive NMR and GPC studies, revealing the copolymerizationrnbehaviour of the used monomers - HEMA derivatives and the photocrosslinkerrnMABP - and their respective distribution in the hydrogel precursors. The degree of crosslinking of the hydrogels was characterized with UV/vis spectroscopy. Stress-strain measurements were conducted in order to investigate the mechanical properties of the biomaterials. Moreover, the swelling process and biomolecule adsorption properties of the hydrogels were investigated with SPR/OW spectroscopy. For this, the deposition and binding of the hydrogels on gold or SiO2 surfaces was facilitated with photocrosslinkable adhesion promotors. The produced hydrogels were mechanically rigid and stablernunder the conditions of PCR and blood lysis. Furthermore, strategies towards the increase of hydrogel surface structure and porosity with porosigens, 2D laser interference lithography and photocleavable blockcopolymers were investigated. At last, a combinatorial strategy was used for the determination of the usefulness of hydrogels for the isolation from DNA from blood. A series of functionalized hydrogel precursors were synthesized, transferred to the surface inside a PCR tube and subsequently screened in regard to DNA adsorption properties with Taqman quantitative PCR. This approach yielded a promising candidate for a functional PCR tube coating that would allow the entire DNA isolation procedure being carried out in a single reaction container.rnThereforce, the practical application of such macromolecular architectures can be envisioned to improve industrial DNA diagnostic processes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der Erdöl– und Gasindustrie sind bildgebende Verfahren und Simulationen auf der Porenskala im Begriff Routineanwendungen zu werden. Ihr weiteres Potential lässt sich im Umweltbereich anwenden, wie z.B. für den Transport und Verbleib von Schadstoffen im Untergrund, die Speicherung von Kohlendioxid und dem natürlichen Abbau von Schadstoffen in Böden. Mit der Röntgen-Computertomografie (XCT) steht ein zerstörungsfreies 3D bildgebendes Verfahren zur Verfügung, das auch häufig für die Untersuchung der internen Struktur geologischer Proben herangezogen wird. Das erste Ziel dieser Dissertation war die Implementierung einer Bildverarbeitungstechnik, die die Strahlenaufhärtung der Röntgen-Computertomografie beseitigt und den Segmentierungsprozess dessen Daten vereinfacht. Das zweite Ziel dieser Arbeit untersuchte die kombinierten Effekte von Porenraumcharakteristika, Porentortuosität, sowie die Strömungssimulation und Transportmodellierung in Porenräumen mit der Gitter-Boltzmann-Methode. In einer zylindrischen geologischen Probe war die Position jeder Phase auf Grundlage der Beobachtung durch das Vorhandensein der Strahlenaufhärtung in den rekonstruierten Bildern, das eine radiale Funktion vom Probenrand zum Zentrum darstellt, extrahierbar und die unterschiedlichen Phasen ließen sich automatisch segmentieren. Weiterhin wurden Strahlungsaufhärtungeffekte von beliebig geformten Objekten durch einen Oberflächenanpassungsalgorithmus korrigiert. Die Methode der „least square support vector machine” (LSSVM) ist durch einen modularen Aufbau charakterisiert und ist sehr gut für die Erkennung und Klassifizierung von Mustern geeignet. Aus diesem Grund wurde die Methode der LSSVM als pixelbasierte Klassifikationsmethode implementiert. Dieser Algorithmus ist in der Lage komplexe geologische Proben korrekt zu klassifizieren, benötigt für den Fall aber längere Rechenzeiten, so dass mehrdimensionale Trainingsdatensätze verwendet werden müssen. Die Dynamik von den unmischbaren Phasen Luft und Wasser wird durch eine Kombination von Porenmorphologie und Gitter Boltzmann Methode für Drainage und Imbibition Prozessen in 3D Datensätzen von Böden, die durch synchrotron-basierte XCT gewonnen wurden, untersucht. Obwohl die Porenmorphologie eine einfache Methode ist Kugeln in den verfügbaren Porenraum einzupassen, kann sie dennoch die komplexe kapillare Hysterese als eine Funktion der Wassersättigung erklären. Eine Hysterese ist für den Kapillardruck und die hydraulische Leitfähigkeit beobachtet worden, welche durch die hauptsächlich verbundenen Porennetzwerke und der verfügbaren Porenraumgrößenverteilung verursacht sind. Die hydraulische Konduktivität ist eine Funktion des Wassersättigungslevels und wird mit einer makroskopischen Berechnung empirischer Modelle verglichen. Die Daten stimmen vor allem für hohe Wassersättigungen gut überein. Um die Gegenwart von Krankheitserregern im Grundwasser und Abwässern vorhersagen zu können, wurde in einem Bodenaggregat der Einfluss von Korngröße, Porengeometrie und Fluidflussgeschwindigkeit z.B. mit dem Mikroorganismus Escherichia coli studiert. Die asymmetrischen und langschweifigen Durchbruchskurven, besonders bei höheren Wassersättigungen, wurden durch dispersiven Transport aufgrund des verbundenen Porennetzwerks und durch die Heterogenität des Strömungsfeldes verursacht. Es wurde beobachtet, dass die biokolloidale Verweilzeit eine Funktion des Druckgradienten als auch der Kolloidgröße ist. Unsere Modellierungsergebnisse stimmen sehr gut mit den bereits veröffentlichten Daten überein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der technische Fortschritt konfrontiert die medizinische Bildgebung wie keine andere Sparte der Medizin mit einem rasanten Anstieg zu speichernder Daten. Anschaffung, Wartung und Ausbau der nötigen Infrastruktur entwickeln sich zunehmend zu einem ökonomischen Faktor. Ein Verfahren, welches diesem Trend etwas entgegensetzten könnte ist die irreversible Bilddatenkompression. Sie ist seit über 10 Jahren Gegenstand vieler Studien, deren Ergebnisse sich wiederum in Empfehlungen zum Einsatz irreversibler Kompression mehrerer nationaler und internationaler Organisation, wie CAR, DRG, RCR und ESR wiederspiegeln. Tenor dieser Empfehlungen ist, dass der Einsatz von moderater irreversibler Bilddatenkompression sicher und sinnvoll ist. Teil dieser Empfehlungen sind auch Angaben über das Maß an Kompression, ausgedrückt in Kompressionsraten, welche je nach Untersuchung und anatomischer Region als sicher anwendbar gelten und keinen diagnostisch relevanten Verlust der komprimierten Bilder erzeugen.rnVerschiedene Kompressionsalgorithmen wurden vorgeschlagen. Letztendlich haben sich vor allem die beiden weit verbreiteten Algorithmen JPEG und JPEG2000 bewährt. Letzterer erfährt in letzter Zeit zunehmen Anwendung, aufgrund seiner einfacheren Handhabung und seiner umfangreichen Zusatzfunktionen.rnAufgrund rechtlich-ethischer Bedenken hat die irreversible Kompression keine breite praktische Anwendung finden können. Dafür verantwortlich ist unter anderem auch die Unklarheit, wie sich irreversible Kompression auf Nach- und Weiterverarbeitung (sog. Postprocessing) medizinischer Bilder, wie Segmentierung, Volumetrie oder 3D-Darstellung, auswirkt. Bisherige Studien zu diesem Thema umfassen vier verschiedene Postprocessing-Algorithmen. Die untersuchten Algorithmen zeigten sich bei verlustbehafteter Kompression im Bereich der erwähnten, publizierten Kompressionsraten weitgehend unbeeinflusst. Lediglich die computergestützte Messung von Stenosegraden in der digitalen Koronarangiographie kollidiert mit den in Großbritannien geltenden Empfehlungen. Die Verwendung unterschiedlicher Kompressionsalgorithmen schränkt die allgemeinernAussagekraft dieser Studienergebnisse außerdem ein.rnZur Erweiterung der Studienlage wurden vier weitere Nach- und Weiterverarbeitungsalgorithmen auf ihre Kompressionstoleranz untersucht. Dabei wurden die Kompressionsraten von 8:1, 10:1 und 15:1 verwendet, welche um die empfohlenen Kompressionsraten von CAR, DRG, RCR und ESR liegen und so ein praxisnahes Setting bieten. Als Kompressionsalgorithmus wurde JPEG2000 verwendet, aufgrund seiner zunehmenden Nutzung in Studien sowie seiner bereits erwähnten Vorzüge in Sachen Handhabung und Zusatzfunktionen. Die vier Algorithmen umfassten das 3D-Volume rendering von CT-Angiographien der Becken-Bein-Gefäße, die Computer-assistierte Detektion von Lungenrundherden, die automatisierte Volumetrie von Leberrundherden und die funktionelle Bestimmung der Ejektionsfraktion in computertomographischen Aufnahmen des Herzens.rnAlle vier Algorithmen zeigten keinen Einfluss durch irreversibler Bilddatenkompression in denrngewählten Kompressionsraten (8:1, 10:1 und 15:1). Zusammen mit der bestehenden Literatur deuten die Ergebnisse an, dass moderate irreversible Kompression im Rahmen aktueller Empfehlungen keinen Einfluss auf Nach- und Weiterverarbeitung medizinischer Bilder hat. Eine explizitere Vorhersage zu einem bestimmten, noch nicht untersuchten Algorithmus ist jedoch aufgrund der unterschiedlichen Funktionsweisen und Programmierungen nicht sicher möglich.rnSofern ein Postprocessing Algorithmus auf komprimiertes Bildmaterial angewendet werden soll, muss dieser zunächst auf seine Kompressionstoleranz getestet werden. Dabei muss der Test eine rechtlich-ethische Grundlage für den Einsatz des Algorithmus bei komprimiertem Bildmaterial schaffen. Es sind vor allem zwei Optionen denkbar, die Testung institutsintern, eventuell unter Zuhilfenahme von vorgefertigten Bibliotheken, oder die Testung durch den Hersteller des Algorithmus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Volatile amines are prominent indicators of food freshness, as they are produced during many microbiological food degradation processes. Monitoring and indicating the volatile amine concentration within the food package by intelligent packaging solutions might therefore be a simple yet powerful way to control food safety throughout the distribution chain.rnrnIn this context, this work aims to the formation of colourimetric amine sensing surfaces on different substrates, especially transparent PET packaging foil. The colour change of the deposited layers should ideally be discernible by the human eye to facilitate the determination by the end-user. rnrnDifferent tailored zinc(II) and chromium(III) metalloporphyrins have been used as chromophores for the colourimetric detection of volatile amines. A new concept to increase the porphyrins absorbance change upon exposure to amines is introduced. Moreover, the novel porphyrins’ processability during the deposition process is increased by their enhanced solubility in non-polar solvents.rnrnThe porphyrin chromophores have successfully been incorporated into polysiloxane matrices on different substrates via a dielectric barrier discharge enhanced chemical vapour deposition. This process allows the use of nitrogen as a cheap and abundant plasma gas, produces minor amounts of waste and by-products and can be easily introduced into (existing) roll-to-roll production lines. The formed hybrid sensing layers tightly incorporate the porphyrins and moreover form a porous structure to facilitate the amines diffusion to and interaction with the chromophores.rnrnThe work is completed with the thorough analysis of the porphyrins’ amine sensing performance in solution as well as in the hybrid coatings . To reveal the underlying interaction mechanisms, the experimental results are supported by DFT calculations. The deposited layers could be used for the detection of NEt3 concentrations below 10 ppm in the gas phase. Moreover, the coated foils have been tested in preliminary food storage experiments. rnrnThe mechanistic investigations on the interaction of amines with chromium(III) porphyrins revealed a novel pathway to the formation of chromium(IV) oxido porphyrins. This has been used for electrochemical epoxidation reactions with dioxygen as the formal terminal oxidant.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the year 2013, the detection of a diffuse astrophysical neutrino flux with the IceCube neutrino telescope – constructed at the geographic South Pole – was announced by the IceCube collaboration. However, the origin of these neutrinos is still unknown as no sources have been identified to this day. Promising neutrino source candidates are blazars, which are a subclass of active galactic nuclei with radio jets pointing towards the Earth. In this thesis, the neutrino flux from blazars is tested with a maximum likelihood stacking approach, analyzing the combined emission from uniform groups of objects. The stacking enhances the sensitivity w.r.t. the still unsuccessful single source searches. The analysis utilizes four years of IceCube data including one year from the completed detector. As all results presented in this work are compatible with background, upper limits on the neutrino flux are given. It is shown that, under certain conditions, some hadronic blazar models can be challenged or even rejected. Moreover, the sensitivity of this analysis – and any other future IceCube point source search – was enhanced by the development of a new angular reconstruction method. It is based on a detailed simulation of the photon propagation in the Antarctic ice. The median resolution for muon tracks, induced by high-energy neutrinos, is improved for all neutrino energies above IceCube’s lower threshold at 0.1TeV. By reprocessing the detector data and simulation from the year 2010, it is shown that the new method improves IceCube’s discovery potential by 20% to 30% depending on the declination.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit behandelt die Entwicklung und Verbesserung von linear skalierenden Algorithmen für Elektronenstruktur basierte Molekulardynamik. Molekulardynamik ist eine Methode zur Computersimulation des komplexen Zusammenspiels zwischen Atomen und Molekülen bei endlicher Temperatur. Ein entscheidender Vorteil dieser Methode ist ihre hohe Genauigkeit und Vorhersagekraft. Allerdings verhindert der Rechenaufwand, welcher grundsätzlich kubisch mit der Anzahl der Atome skaliert, die Anwendung auf große Systeme und lange Zeitskalen. Ausgehend von einem neuen Formalismus, basierend auf dem großkanonischen Potential und einer Faktorisierung der Dichtematrix, wird die Diagonalisierung der entsprechenden Hamiltonmatrix vermieden. Dieser nutzt aus, dass die Hamilton- und die Dichtematrix aufgrund von Lokalisierung dünn besetzt sind. Das reduziert den Rechenaufwand so, dass er linear mit der Systemgröße skaliert. Um seine Effizienz zu demonstrieren, wird der daraus entstehende Algorithmus auf ein System mit flüssigem Methan angewandt, das extremem Druck (etwa 100 GPa) und extremer Temperatur (2000 - 8000 K) ausgesetzt ist. In der Simulation dissoziiert Methan bei Temperaturen oberhalb von 4000 K. Die Bildung von sp²-gebundenem polymerischen Kohlenstoff wird beobachtet. Die Simulationen liefern keinen Hinweis auf die Entstehung von Diamant und wirken sich daher auf die bisherigen Planetenmodelle von Neptun und Uranus aus. Da das Umgehen der Diagonalisierung der Hamiltonmatrix die Inversion von Matrizen mit sich bringt, wird zusätzlich das Problem behandelt, eine (inverse) p-te Wurzel einer gegebenen Matrix zu berechnen. Dies resultiert in einer neuen Formel für symmetrisch positiv definite Matrizen. Sie verallgemeinert die Newton-Schulz Iteration, Altmans Formel für beschränkte und nicht singuläre Operatoren und Newtons Methode zur Berechnung von Nullstellen von Funktionen. Der Nachweis wird erbracht, dass die Konvergenzordnung immer mindestens quadratisch ist und adaptives Anpassen eines Parameters q in allen Fällen zu besseren Ergebnissen führt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Herzinsuffizienz (HI) ist eine der häufigsten und teuersten medizinischen Indikationen in der heutigen Zeit. rnIn der vorliegenden Arbeit konnte zum ersten Mal die Topoisomerase 2b (Top2b) in Zusammenhang mit der Entstehung einer dilatativen Kardiomyopathie gebracht werden. rnIn einem speziellen Mausmodell war es möglich, die Top2b gewebsspezifisch und zeitspezifisch nur in Kardiomyozyten zu deletieren. Dies geschah mittels eines Tamoxifen-induzierten Cre-Rekombinase-Gendeletionsmodells. Phänotypisch zeigten die Top2b-deletierten Mäuse 8 Wochen nach der Tamoxifen-Gabe signifikant reduzierte kardiale Ejektionsfraktionen sowie erhöhte linksventrikuläre enddiastolische und endsystolische Volumina. Weder Schlagvolumen noch Körpergewicht waren verändert. Die natriuretischen Peptide ANP und BNP waren in den Top2b-deletierten Tieren ebenfalls signifikant erhöht. Zusätzlich zeigten sowohl elektronenmikroskopische Untersuchungen als auch klassische histologische Verfahren fibrotische Veränderungen und erhöhte Kollagenablagerungen in Top2b-deletierten Tieren. Begleitend dazu stiegen die mRNA-Expressionslevel von Col1a1, Col3a1, Tgfβ1 und Tgfβ2 in den deletierten Tieren 8 Wochen nach der Implementierung der Deletion signifikant an. rnIn einer genomweiten Hochdurchsatz-Sequenzierung waren bereits 2 Wochen nach Tamoxifen-Gabe 128 Gene mindestens 2-fach gegenüber der Kontrollgruppe differentiell exprimiert. Eine genauere Analyse der veränderten Genexpression ließ bereits 14 Tage nach Implementierung der Deletion kardiale Verschlechterungen vermuten. So waren neben dem atrialen natriuretischen Peptid ANP die beiden häufigsten Kollagenarten im Herzen, Col3a1 und Col1a1, hochreguliert. rnInteressanterweise beinhalteten die 37 herunterregulierten Gene 11 Transkriptionsfaktoren. Da der Top2b in den letzten Jahren eine immer stärker werdende Bedeutung in der Transkription zugesprochen wird, sollte mittels Chromatin-Immunpräzipitation ein direkter Zusammenhang zwischen der Top2b-Deletion und der Herunterregulierung der 11 Transkriptionsfaktoren sowie die Bindung der Top2b an Promotoren ausgewählter, differentiell-exprimierter Gene untersucht werden. Generell konnte keine vermehrte Bindung von Top2b an Promotorbereiche gezeigt werden, was aber nicht dem generellen Fehlen einer Bindung gleichkommen muss. Vielmehr gab es methodische Schwierigkeiten, weshalb die Bedeutung der Top2b in der Transkription im Rahmen der vorliegenden Arbeit nicht ausreichend geklärt werden konnte.rnEine Kardiomyozyten-spezifische Top2b-Deletion mündete 8 Wochen nach Tamoxifen-Gabe in eine dilatative Kardiomyopathie. Zum gegenwärtigen Zeitpunkt sind keine klaren Aussagen zum zugrundeliegenden Mechanismus der entstehenden Herzschädigung in Folge einer Top2b-Deletion zu treffen. Es gibt jedoch Hinweise darauf, dass der Tumorsuppressormarker p53 eine wichtige Rolle in der Entstehung der dilatativen Kardiomyopathie spielen könnte. So konnte 8 Wochen nach der Top2b-Deletion mittels Chromatin-Immunpräzipitation eine erhöhte Bindung von p53 an Promotorregionen von Col1a1, Tgfβ2 und Mmp2 detektiert werden. Die Bedeutung dieser Bindung, und ob aufgrund dessen die Entstehung der Fibrose erklärt werden könnte, ist zum jetzigen Zeitpunkt unklar.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The focus of this thesis is to contribute to the development of new, exact solution approaches to different combinatorial optimization problems. In particular, we derive dedicated algorithms for a special class of Traveling Tournament Problems (TTPs), the Dial-A-Ride Problem (DARP), and the Vehicle Routing Problem with Time Windows and Temporal Synchronized Pickup and Delivery (VRPTWTSPD). Furthermore, we extend the concept of using dual-optimal inequalities for stabilized Column Generation (CG) and detail its application to improved CG algorithms for the cutting stock problem, the bin packing problem, the vertex coloring problem, and the bin packing problem with conflicts. In all approaches, we make use of some knowledge about the structure of the problem at hand to individualize and enhance existing algorithms. Specifically, we utilize knowledge about the input data (TTP), problem-specific constraints (DARP and VRPTWTSPD), and the dual solution space (stabilized CG). Extensive computational results proving the usefulness of the proposed methods are reported.