37 resultados para Technische Hogeschool Delft. Mijnbouwkundige Vereniging

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die vorliegende Arbeit untersucht die Möglichkeiten und Limitierungen der MR-Lungenbildgebung mit hyperpolarisiertem 3-He bei gegenüber üblichen Magnetfeldstärken reduzierten magnetischen Führungsfeldern. Dabei werden insbesondere auch die funktionellen Bildgebungstechniken (dynamische Bildgebung, diffusionsgewichtete Bildgebung und Bestimmung des Sauerstoff-Partialdrucks) berücksichtigt. Experimentell geschieht dies durch in vivo Messungen an einem 0.1 T-Ganzkörpertomographen. Zur systematischen Untersuchung der MR-Bildgebung unter dem Einfluss diffundierender Kontrastmittel werden analytische Simulationen, Monte-Carlo-Studien und Referenzexperimente durchgeführt. Hier wird das Augenmerk besonders auf den Einfluss von Diffusions- und Suszeptibilitätsartefakten auf die morphologische und die diffusionsgewichtete Bildgebung gerichtet. Die Entwicklung und der Vergleich verschiedener Konzepte zur Erzeugung von MR-Führungsmagnetfeldern führt zur Erfindung eines neuartigen Prinzips zur weiträumigen Homogenisierung von Magnetfeldern. Die Umsetzung dieses Prinzips erfolgt in Form eines besonders kompakten Transportbehälters für kernspinpolarisierte Edelgase. Die Arbeit beinhaltet eine ausführliche Diskussion der MR-Bildgebungstechnik in Theorie und Praxis, um die Anknüpfungspunkte an die angestellten Untersuchungen herauszuarbeiten. Teile dieser Studien wurden von der Europäischen Raumfahrtorganisation ESA finanziert (Contract No.15308/01/NL/PA).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Frage wie großmotorische Bewegungen gelernt werden beschäftigt nicht nur Sportler, Trainer und Sportlehrer sondern auch Ärzte und Physiotherapeuten. Die sportwissenschaftlichen Teildisziplinen Bewegungs- und Trainingswissenschaft versuchen diese Frage sowohl im Sinne der Grundlagenforschung (Wie funktioniert Bewegungslernen?) als auch hinsichtlich der praktischen Konsequenzen (Wie lehrt man Bewegungen?) zu beantworten. Innerhalb dieser Themenfelder existieren Modelle, die Bewegungslernen als gezielte und extern unterstützte Ausbildung zentralnervöser Bewegungsprogramme verstehen und solche, die Lernen als Selbstorganisationsprozess interpretieren. Letzteren ist das Differenzielle Lernen und Lehren (Schöllhorn, 1999) zuzuordnen, das die Notwendigkeit betont, Bewegungen durch die Steigerung der Variationen während der Aneignungsphase zu lernen und zu lehren. Durch eine Vielzahl an Variationen, so die Modellannahme, findet der Lernende ohne externe Vorgaben selbstorganisiert ein individuelles situatives Optimum. Die vorliegende Arbeit untersucht, welchen Einfluss Variationen verschiedener Art und Größe auf die Lern- und Aneignungsleistung großmotorischer Bewegungen haben und in wie fern personenübergreifende Optima existieren. In zwei Experimenten wird der Einfluss von räumlichen (Bewegungsausführung, Bewegungsergebnis) und zeitlichen Variationen (zeitliche Verteilung der Trainingsreize) auf die Aneignungs- und Lernleistung großmotorischer sportlicher Bewegungen am Beispiel zweier technischer Grundfertigkeiten des Hallenhockeys untersucht. Die Ergebnisse der Experimente stützen die bisherige Befundlage zum Differenziellen Lernen und Lehren, wonach eine Zunahme an Variation in der Aneignungsphase zu größeren Aneignungs- und Lernleistungen führt. Zusätzlich wird die Annahme bestätigt, dass ein Zusammenhang von Variationsbereich und Lernrate in Form eines Optimaltrends vorliegt. Neu sind die Hinweise auf die Dynamik von motorischen Lernprozessen (Experiment 1). Hier scheinen individuelle Faktoren (z. B. die Lernbiografie) als auch die Phase im Lernprozess (Aneignung, Lernen) Einfluss zu haben auf den Umfang und die Struktur eines für die optimale Adaptation notwendigen Variationsbereichs. Darüber hinaus weisen die Befunde auf verschiedene Aneignungs- und Lerneffekte aufgrund alleiniger Variation der zeitlichen Verteilung bei ansonsten gleichen Trainingsreizen hin (Experiment 2). Für zukünftige Forschungsarbeiten zum Erlernen großmotorischer Bewegungen und für die sportliche Praxis dürfte es daher erkenntnisreich sein, die Historie der intrinsischen Dynamik der lernenden Systeme stärker zu berücksichtigen. Neben Fragestellungen für die Grundlagenforschung zum (Bewegungs-)Lernen ließen sich hieraus unmittelbar praxisrelevante Erkenntnisse darüber ableiten, wie Bewegungslernprozesse mittels verschiedener Variationsbereiche strukturiert und gesteuert werden könnten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zusammenfassung:In dieser Arbeit werden die Abzweigung stationärer Punkte und periodischer Lösungen von isolierten stationären Punkten rein nichtlinearer Differentialgleichungen in der reellenEbene betrachtet.Das erste Kapitel enthält einige technische Hilfsmittel, während im zweiten ausführlich das Verhalten von Differentialgleichungen in der Ebene mit zwei homogenen Polynomen gleichen Grades als rechter Seite diskutiert wird.Im dritten Kapitel beginnt der Hauptteil der Arbeit. Hier wird eine Verallgemeinerung des Hopf'schen Verzweigungssatzes bewiesen, der den klassischen Satz als Spezialfall enthält.Im vierten Kapitel untersuchen wir die Abzweigung stationärer Punkte und im letzten Kapitel die Abzweigung periodischer Lösungen unter Störungen, deren Ordnung echt kleiner ist, als die erste nichtverschwindende Näherung der ungestörten Gleichung.Alle Voraussetzungen in dieser Arbeit sind leicht nachzurechnen und es werden zahlreiche Beispiele ausführlich diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit versteht sich als Beitrag zur Modellierung von Parallelrechnern. Ein solcher Parallelrechner kann als makroskopisches physikalisches dynamisches System mit einer sehr großen Anzahl von Freiheitsgraden, diskretem Zustandsraum und diskreter Zeit aufgefasst werden. Derartige Systeme werden von der Nichtlinearen Dynamik behandelt. Jede modellmäßige Behandlung eines Systems mit derart differenzierten Wechselwirkungen muss sich auf bestimmte, dem Ziel und Zweck der Untersuchung angepasste Aspekte beschränken. Dabei müssen sowohl allgemeine Vorstellungen als auch konkretes Wissen in ein mathematisch behandelbares Modell umgesetzt werden. Die in dieser Arbeit vorgestellten Beiträge zur Modellierung von Parallelrechnern dienen mehreren Zielen. Zum einen wird ein Modell kritisch untersucht und weiterentwickelt, das dazu dienen soll, die Ausführungszeit eines konkreten parallelen Programmes auf einem konkreten Parallelrechner brauchbar vorherzusagen. Zum anderen soll die Untersuchung eines konkreten Problems aus dem Bereich von Computerwissenschaft und -technik dazu genutzt werden, ein tieferes Verständnis für das zu modellierende System zu entwickeln und daraus neue Aspekte für die Modellierung dynamischer Systeme im Allgemeinen zu gewinnen. In dieser Arbeit wird gezeigt, dass es bei der Modellierung von Parallelrechnern notwendig ist, viele technische Konstruktionseigenschaften in das Modell zu integrieren. Diese aber folgen der sehr raschen Entwicklung der Technik auf diesem Gebiet. Damit Formulierung, Test und Validierung des Modells mit der Entwicklung des Objektbereiches Schritt halten können, müssen in Zukunft neue Modellierungsverfahren entwickelt und angewendet werden, die bei Änderungen im Objektbereich eine rasche Anpassung ermöglichen. Diese Untersuchung entspricht einem interdisziplinären Ansatz, in dem einerseits Inhalte der Computerwissenschaften und andererseits Grundmethoden der experimentellen Physik verwendet werden. Dazu wurden die Vorhersagen der abstrakten Modelle mit den experimentell gewonnen Messergebnissen von realen Systemen verglichen. Auf dieser Basis wird gezeigt, dass der hierarchische Aufbau des Speichers Einflüsse von mehreren Größenordnungen auf die Ausführungsgeschwindigkeit einer Anwendung ausüben kann. Das im Rahmen der vorliegenden Arbeit entwickelte Modell der einzelnen Rechenknoten eines Parallelrechners gibt diese Effekte innerhalb eines relativen Vorhersagefehlers von nur wenigen Prozent korrekt wieder.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gegenstand dieser Arbeit war die Untersuchung von metallischen gemischtvalenten Manganaten und magnetischen Doppelperowskiten. Aufgrund ihres großen negativen Magnetowiderstandes (MW) sind diese halbmetallischen Oxide interessant für mögliche technische Anwendungen, z.B. als Leseköpfe in Festplatten. Es wurden die kristallographischen, elektronischen und magnetischen Eigenschaften von epitaktischen Dünnschichten und polykristallinen Pulverproben bestimmt.Epitaktische Dünnschichten der Verbindungen La0.67Ca0.33MnO3 und La0.67Sr0.33MnO3 wurdenmit Kaltkathodenzerstäubung und Laserablation auf einkristallinen Substraten wie SrTiO3abgeschieden. Mit Hall-Effekt Messungen wurde ein Zusammenbruch der Ladungsträgerdichte bei der Curie-Temperatur TC beobachtet.Mit dem Wechsel des Dotierungsatoms A von Ca (TC=232 K) zu Sr (TC=345 K)in La0.67A0.33MnO3 konnte die Feldsensitivität des Widerstandes bei Raumtemperatur gesteigert werden. Um die Sensitivität weiter zu erhöhen wurde die hohe Spinpolarisation von nahezu 100% in Tunnelexperimenten ausgenutzt. Dazu wurden biepitaktische La0.67Ca0.33MnO3 Schichten auf SrTiO3 Bikristallsubstraten hergestellt. Die Abhängigkeit des Tunnelmagnetowiderstandes (TMW) vom magnetischen Feld, Temperatur und Strum war ein Schwerpunkt der Untersuchung. Mittels spinpolarisierten Tunnelns durch die künstliche Korngrenze konnte ein hysteretischer TMW von 70% bei 4 K in kleinen Magnetfeldern von 120 Oe gemessen werden. Eine weitere magnetische Oxidverbindung, der Doppelperowskit Sr2FeMoO6 miteine Curie-Temperatur oberhalb 400 K und einem großen MW wurde mittels Laserablation hergestellt. Die Proben zeigten erstmals das Sättigunsmoment, welches von einer idealen ferrimagnetischen Anordnung der Fe und Mo Ionen erwartet wird. Mit Hilfe von Magnetotransportmessungen und Röntgendiffraktometrie konnte eine Abhängigkeit zwischen Kristallstruktur (Ordnung oder Unordnung im Fe, Mo Untergitter) und elektronischem Transport (metallisch oder halbleitend) aufgedeckt werden.Eine zweiter Doppelperowskit Ca2FeReO6 wurde im Detail als Pulverprobe untersucht. Diese Verbindung besitzt die höchste Curie-Temperatur von 540 K, die bis jetzt in magnetischen Perowskiten gefunden wurde. Mit Neutronenstreuung wurde eine verzerrte monoklinische Struktur und eine Phasenseparation aufgedeckt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Synthese und Reaktivität styrylsubstituierter p-Benzochinone Oligo- und Poly(1,4-phenylenvinylene) (OPV, PPV) stellen eine für die Materialwissenschaft äußerst interessante Verbindungsklasse dar, die in Form von Halbleitern, Photoleitern, elektrolumineszierenden Systemen und negativen Photoresists breitgefächerte Anwendung findet. Allerdings stellt die Alterung dieser Materialien in Gegenwart von Sauerstoff und anderen Oxidationsmitteln ein signifikantes Problem dar. So wird z. B. die technische Anwendung von Leuchtdioden auf Polymerbasis durch ihre geringe Betriebsdauer eingeschränkt. Als Beitrag zur Untersuchung des oxidativen Abbaus von Poly- bzw. Oligo(p-phenylenvinylenen) [PPV, OPV] wurden verschiedene 2-Styryl-1,4-benzochinone - sowie höhere Oligomere - synthetisiert, die das Strukturelement einer hoch oxidierten Form von OPV's aufweisen. Durch Einführung einer Cyanogruppe an der olefinischen Doppelbindung wurde die Reaktivität der Modellsysteme gezielt beeinflußt. Die 2-Styryl-1,4-benzochinone mit unsubstituierter Doppelbindung dimerisieren in Lösung quantitativ im Sinne von Diels-Alder-Reaktionen zu den entsprechenden Cycloaddukten. Die Dimerisierungen verlaufen chemo-, regio- und stereoselektiv, was sich anhand von Grenzorbital-Betrachtungen erklären läßt.An der Oberfläche von Kieselgel erfolgt eine vollständige Umwandlung der Dimere, deren zwei Hauptprodukte identifiziert werden konnten: Neben Verbindungen, die durch eine intramolekulare [4+2]-Cycloaddition nach erfolgter Dehydrierung / Oxidation gebildet werden, entstehen verschiedene Additionsprodukte der Dimere mit Nucleophilen (Wasser, Ethanol). Cyanosubstitution führt bereits bei den als Vorstufe dienenden Stilbenen zu einer erleichterten (E/Z)-Photoisomerisierung in Lösung, die zu einem photostationären Gleichgewicht führt, welches sich durch einen hohen Anteil der (E)-Konfiguration auszeichnet. Nach erfolgter Oxidation kann ebenfalls eine Dimerisierung beobachtet werden. Bei direkter Nachbarschaft der Cyanogruppe zum Chinonring erfolgt stattdessen ein intramolekularer Ringschluß unter Ausbildung eines Benzofuranderivats.Die beobachtete Reaktivität der synthetisierten Chinonsysteme steht in Einklang mit einem möglichen sekundären Abbaumechanismus, der nach primärer Oxidation zu der Alterung von PPV's beitragen kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Heusler- und Halb-Heusler-Phasen konnten als Verbindungsklasse identifiziert werden, neue Materialien für die Magnetoelektronik bereitzustellen. Auf Basis eines theoretischen Modells konnte das Auftreten eines hohen MR-Effekts auf bestimmte Valenzelektronenzahlen (VEK) präzisiert werden. Dazu muß ein dreiteiliger 'Fingerabdruck' in der Bandstruktur (Sattelpunkt, Spindichtewelle, lokales magnetisches Moment) vorliegen. Es existieren eine Vielzahl von halbmetallischen Ferromagneten in dieser Verbindungsklasse. Die variable Valenzelektronenkonzentrationen, die sich auch aus den hochsymmetrischen Strukturen ergeben, erlauben eine gute Dotierbarkeit der Phasen. Dadurch ist die Möglichkeit gegeben, die Phase exakt mit der geforderten VEK zu synthetisieren. Curietemperaturen > 500 K sind in Hinblick auf die technische Anwendbarkeit notwendig. PdMnTe hat nicht die Voraussetzungen für einen PMR-Effekt in der Bandstrukturrechnung, doch die Nähe zu einer halbmetallischen Zustandsdichte resultiert in einen negativen CMR-Effekt unterhalb des magnetischen Übergangs von MR0 = 18 % bei 4 K. Die Zusammenhänge von Probenpräparation zum magnetischen Sättigungsmoment konnten an Co2CrAl aufgedeckt werden. Die unter Anwendung des vorgestellten Modells synthetisierte Heusler-Phase Co2Cr0.6Fe0.4Al (VEK = 27.8) weisen den erwarteten MR-Effekt auf. Der gemessene PMR-Effekt ist größer als bei den GMR-Systemen (bei geringerer Feldempfindlichkeit) und anderen granularen Materialien wie CrO2 bei 295 K. Co2Cr0.6Fe0.4Al zeigt bei 295 K einen hohen negativen Magnetowiderstand von 30 % bei einem Sättigungsfeld von 0.2 Tesla. Durch die Beimischung von Oxiden und Polymeren sind Komposit-Materialien entwickelt worden, die MR0-Effekte von bis zu 88% mit einer verbesserten Feldempfindlichkeit von 0.1 Tesla bei Al2O3 und 0.05 Tesla bei den Oberflächenbeschichtungen zeigen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Experiment zur Überprüfung der Gerasimov-Drell-Hearn(GDH)-Summenregel am Mainzer Mikrotron diente zur Messunghelizitätsabhängiger Eigenschaften der Photoproduktion amProton. Hierbei konnten neben den totalen Photoabsorptionswirkungsquerschnitten auch Querschnitte partieller Kanäle der Einpion-, Zweipion- und Eta-Produktion bestimmt werden. Für die möglichen Doppel-Pion-Reaktionen sind zur Zeit nur wenig Information vorhanden. Daher sind die Reaktionsmechanismen der Doppel-Pion-Photoproduktion weitgehend noch unverstanden. Aus diesem Grund ist die Untersuchung weiterer Observablenerforderlich. Die Helizitätsabhängigkeit stellt eine solcheneue Observable dar und kann dadurch gemessen werden, daßein zirkular polarisiertes Photon mit einem longitudinalpolarisierten Nukleon wechselwirkt. Der Photonspin beträgt1 und der Fermionenspin des Nukleons beträgt 1/2.Die Spins koppeln zu 3/2 und 1/2. Dies liefert diehelizitätsabhängigen Wirkungsquerschnitte.Diese Dissertation beschreibt den Aufbau des Mainzer GDH-Experiments und die technische Realisation der Messung helizitätsabhängiger Photoabsorptionswirkungsquerschnitte. Die Helizitätsabhängigkeit der doppelt geladenen Doppel-Pion-Photoproduktion am Proton wurde anhand der gemessenen Daten untersucht. Diese Reaktion ist ein Zweistufenprozeß, wobei das angeregte Nukleon resonant oder nicht-resonant in die Endzustandsteilchen zerfällt. Durch die helizitätsabhängigen Daten wurden Freiheitsgradein der Doppel-Pion-Photoproduktion eingeschränkt, wodurch eine Verbesserung der Modelle der Gent-Mainz- und der Valencia-Gruppe ermöglicht wurde. Die im Rahmen dieser Arbeit ermittelten Daten haben zusätzlich eine Motivation für weitere Interpretationsansätze durch die genanntenTheoriegruppen geschaffen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Motorische Bewegungen werden über die visuelle Rückmeldung auf ihre Genauigkeit kontrolliert und ggf. korrigiert. Über einen technischen Eingriff, wie beispielsweise einer Prismenbrille, kann man eine Differenz zwischen optisch wahrgenommener und haptisch erlebter Umwelt erzeugen, um die Fähigkeiten des visuomotorischen Systems zu testen. In dieser Arbeit wurde eine computergestützte Methode entwickelt, eine solche visuomotorische Differenz zu simulieren. Die Versuchspersonen führen eine ballistische Bewegung mit Arm und Hand aus in der Absicht, ein vorgegebenes Ziel zu treffen. Die Trefferpunkte werden durch einen Computer mit Hilfe eines Digitalisierungstablettes aufgenommen. Die visuelle Umwelt, welche den Versuchspersonen präsentiert wird, ist auf einem Monitor dargestellt. Das Monitorabbild – ein Kreuz auf weißem Hintergrund – betrachten die Testpersonen über einen Spiegel. Dieser ist in einem entsprechenden Winkel zwischen Monitor und Digitalisierungstablett angebracht, so dass das Zielbild auf dem Digitalisierungstablett projiziert wird. Die Testpersonen nehmen das Zielkreuz auf dem Digitalisierungstablett liegend wahr. Führt die Versuchsperson eine Zielbewegung aus, können die aufgenommenen Koordinaten als Punkte auf dem Monitor dargestellt werden und die Testperson erhält über diese Punktanzeige ein visuelles Feedback ihrer Bewegung. Der Arbeitsbereich des Digitalisierungstabletts kann über den Computer eingerichtet und so motorische Verschiebungen simuliert werden. Die verschiedenartigen Möglichkeiten dieses Aufbaus wurden zum Teil in Vorversuchen getestet um Fragestellungen, Methodik und technische Einrichtungen aufeinander abzustimmen. Den Hauptversuchen galt besonderes Interesse an der zeitlichen Verzögerung des visuellen Feedbacks sowie dem intermanuellen Transfer. Hierbei ergaben sich folgende Ergebnisse: ● Die Versuchspersonen adaptieren an eine räumlich verschobene Umwelt. Der Adaptationsverlauf lässt sich mit einer Exponentialfunktion mathematisch berechnen und darstellen. ● Dieser Verlauf ist unabhängig von der Art des visuellen Feedbacks. Die Beobachtung der Handbewegung während der Adaptation zeigt die gleiche Zielabfolge wie eine einfache Punktprojektion, die den Trefferort der Bewegung darstellt. ● Der exponentielle Verlauf der Adaptationsbewegung ist unabhängig von den getesteten zeitlichen Verzögerungen des visuellen Feedbacks. ● Die Ergebnisse des Folgeeffektes zeigen, dass bei zunehmender zeitlicher Verzögerung des visuellen Feedbacks während der Adaptationsphase, die Größe des Folgeeffektwertes geringer wird, d.h. die anhaltende Anpassungsleistung an eine visuomotorische Differenz sinkt. ● Die Folgeeffekte weisen individuelle Eigenheiten auf. Die Testpersonen adaptieren verschieden stark an eine simulierte Verschiebung. Ein Vergleich mit den visuomotorischen Herausforderungen im Vorleben der Versuchspersonen ließ vermuten, dass das visuomotorische System des Menschen trainierbar ist und sich - je nach Trainingszustand – unterschiedlich an wahrgenommene Differenzen anpasst. ● Der intermanuelle Transfer konnte unter verschiedenen Bedingungen nachgewiesen werden. ● Ein deutlich stärkerer Folgeeffekt kann beobachtet werden, wenn die wahrgenommene visuomotorische Differenz zwischen Ziel und Trefferpunkt in eine Gehirnhälfte projiziert wird und der Folgeeffekt mit der Hand erfolgt, welche von dieser Hirnhemisphäre gesteuert wird. Der intermanuelle Transfer wird demnach begünstigt, wenn die visuelle Projektion der Fehlerbeobachtung in die Gehirnhälfte erfolgt, die während der Adaptationsphase motorisch passiv ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Aufgabenstellung, welche dieser Dissertation zugrunde liegt, lässt sich kurz als die Untersuchung von komponentenbasierten Konzepten zum Einsatz in der Softwareentwicklung durch Endanwender beschreiben. In den letzten 20 bis 30 Jahren hat sich das technische Umfeld, in dem ein Großteil der Arbeitnehmer seine täglichen Aufgaben verrichtet, grundlegend verändert. Der Computer, früher in Form eines Großrechners ausschließlich die Domäne von Spezialisten, ist nun ein selbstverständlicher Bestandteil der täglichen Arbeit. Der Umgang mit Anwendungsprogrammen, die dem Nutzer erlauben in einem gewissen Rahmen neue, eigene Funktionalität zu definieren, ist in vielen Bereichen so selbstverständlich, dass viele dieser Tätigkeiten nicht bewusst als Programmieren wahrgenommen werden. Da diese Nutzer nicht notwendigerweise in der Entwicklung von Software ausgebildet sind, benötigen sie entsprechende Unterstützung bei diesen Tätigkeiten. Dies macht deutlich, welche praktische Relevanz die Untersuchungen in diesem Bereich haben. Zur Erstellung eines Programmiersystems für Endanwender wird zunächst ein flexibler Anwendungsrahmen entwickelt, welcher sich als Basis zur Erstellung solcher Systeme eignet. In Softwareprojekten sind sich ändernde Anforderungen und daraus resultierende Notwendigkeiten ein wichtiger Aspekt. Dies wird im Entwurf des Frameworks durch Konzepte zur Bereitstellung von wieder verwendbarer Funktionalität durch das Framework und Möglichkeiten zur Anpassung und Erweiterung der vorhandenen Funktionalität berücksichtigt. Hier ist zum einen der Einsatz einer serviceorientierten Architektur innerhalb der Anwendung und zum anderen eine komponentenorientierte Variante des Kommando-Musters zu nennen. Zum anderen wird ein Konzept zur Kapselung von Endnutzerprogrammiermodellen in Komponenten erarbeitet. Dieser Ansatz ermöglicht es, unterschiedliche Modelle als Grundlage der entworfenen Entwicklungsumgebung zu verwenden. Im weiteren Verlauf der Arbeit wird ein Programmiermodell entworfen und unter Verwendung des zuvor genannten Frameworks implementiert. Damit dieses zur Nutzung durch Endanwender geeignet ist, ist eine Anhebung der zur Beschreibung eines Softwaresystems verwendeten Abstraktionsebene notwendig. Dies wird durch die Verwendung von Komponenten und einem nachrichtenbasierten Kompositionsmechanismus erreicht. Die vorgenommene Realisierung ist dabei noch nicht auf konkrete Anwendungsfamilien bezogen, diese Anpassungen erfolgen in einem weiteren Schritt für zwei unterschiedliche Anwendungsbereiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gegenstand der vorliegenden Arbeit ist die Überarbeitung der Richtlinie 89/552/EWG des Rates zur Koordinierung bestimmter Rechts- und Verwaltungsvorschriften der Mitgliedstaaten über die Ausübung der Fernsehtätigkeit, welche aus praktikablen Gründen meist als „(EG-)Fernsehrichtlinie“ bezeichnet wird. Sie bildet den Eckpfeiler der audiovisuellen Politik der EU. Seit Erlass der Fernsehrichtlinie im Jahre 1989 bewirkt der technologische Fortschritt jedoch zunehmend enorme Veränderungen nicht nur im Bereich des klassischen Fernsehens, sondern auch und vor allem im Bereich der neuen Medien. Ausgangspunkt hierfür ist die Verbesserung der Digitaltechnologie, die ihrerseits wiederum technische Konvergenzprozesse begünstigt. Diese Entwicklungen führen nicht nur zu einer Vervielfachung von Übertragungskapazitäten und –techniken, sondern ermöglichen neben neuen Formen audiovisueller Angebote auch die Entstehung neuer Dienste. Unsere Medienlandschaft steht vor „epochalen Umbrüchen“. Im Hinblick auf diese Vorgänge wird seit geraumer Zeit eine Überarbeitung der EG-Fernsehrichtlinie angestrebt, um dem technologischen Fortschritt auch „regulatorisch“ gerecht werden zu können. Diesem Überarbeitungsprozess möchte sich die vorliegende Arbeit widmen, indem sie die Fernsehrichtlinie in einem ersten Teil sowohl inhaltlich wie auch hinsichtlich ihrer Entstehungsgeschichte und der zu ihr ergangenen EuGH-Entscheidungen erläutert. Anschließend werden alle Überarbeitungsvorgänge der Fernsehrichtlinie seit 1997 dargestellt, um sodann die aktuellen Reformansätze analysieren und bewerten zu können. Aus zeitlichen Gründen (der neue Richtlinienvorschlag der Kommission vom 13. Dezember 2005 wurde ca. 2 Wochen vor dem Abgabetermin der Arbeit verabschiedet) sind die Ausführungen zum Entwurf der neuen „Richtlinie über audiovisuelle Mediendienste“ allerdings relativ knapp gehalten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der erste experimentelle Test der GDH-Summenregel für das Proton wurde 1998 am MAMI-Beschleuniger der Universität Mainz durchgeführt. Ferner wurde ein Pilot-Experiment mit einem polarisierten Deuteron-Target vorgenommen. Dieselbe Kollaboration führte 2003 ein auf das Deuteron ausgerichtetes Experiment durch mit der Absicht, die GDH-Summenregel für das Neutron zu untersuchen. Der in beiden Experimenten verwendete Aufbau erlaubt nicht nur die Messung des totalen Wirkungsquerschnitts, sondern auch gleichzeitig einzelne Teilreaktionen zu studieren. In dieser Arbeit werden die Daten des Deuteron-Pilot-Experiments von 1998 analysiert. Desweiteren wird eine Studie der Helizitätsabhängigkeit der differenziellen Wirkungsquerschnitte für drei Pion-Photoproduktionskanäle des Deuterons in der oberen Hälfte der Delta-Resonanz präsentiert. Diese Ergebnisse werden mit einem theoretischen Modell verglichen. Dabei wurde eine hinreichend gute Übereinstimmung für die unpolarisierten Reaktionen gefunden, während für die polarisierten Kanäle kleinere Diskrepanzen beobachtet wurden. Der Targetpolarisationsgrad ist einer der relevanten Parameter, der für eine absolute Normalisierung der Wirkungsquerschnitte notwendig ist. Die Analyse dieses Parameters für die 2003er Daten wird in der vorliegenden Arbeit vorgestellt. Zur Zeit ist in Mainz ein Frozen-Spin-Target im Bau. Es wird als Target für polarisierte Protonen oder polarisierte Deuteronen für zukünftige Experimente mit dem Crystal Ball zur Verfügung stehen. Die Vorbereitungen der verschiedenen Subsysteme dieses Aufbaus stellten einen wichtigen Teil dieser Arbeit dar. Die fundamentalen Grundlagen der Methode und deren technische Umsetzung, sowie der momentane Status der Aufbauarbeiten am Target werden im Detail präsentiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

N-Vinylamidderivate sind eine toxikologische unbedenkliche Monomerklasse. Mit diesen Monomeren wurden verschiedene technische Anwendungsgebiete im Bereich der Kern-Schale-Partikel und der fließfähigen und vernetzten Hydrogele untersucht. Kern-Schale-Partikel Für die Synthese von Kern-Schale-Partikeln wurden die N-Vinylamidderivate als Schalenpolymere auf kommerziellen Poly(styrol-stat.-butadien)-Kernpartikeln aufpolymerisiert. Mit Hilfe verschiedener Untersuchungsmethoden (DLS, SEM, FFF, Ultrazentrifuge) wurde die Kern-Schale-Strukturbildung und die Effizienz der Pfropfungsreaktion untersucht und eine erfolgreiche Synthese der Kern-Schale-Partikel belegt. Durch die gezielte Modifizierung des Schalenpolymers wurde ein kationisches, organisches Mikropartikelsystem entwickelt, charakterisiert und auf die Eignung als „Duales Flockungsmittel“ untersucht. Diese Versuche belegten die Eignung der modifizierten Kern-Schale-Partikel als „Duales Flockungsmittel“ und bieten eine Alternative zu kommerziell verwendeten Retentionsmitteln. Außerdem wurden die filmbildenden Eigenschaften der Poly(N﷓vinylformamid)-Kern-Schale-Dispersionen untersucht. Nach der Verfilmung der Dispersionen wurden transparente und harte Filme erhalten. Die Auswirkungen auf die mechanischen Eigenschaften der Filme wurden durch die Variation verschiedener Parameter eingehend studiert. Auf der Basis dieser Partikel wurden selbstvernetzende Dispersionssysteme entwickelt. Das P﷓(VFA)-Schalenpolymer wurde teilweise hydrolysiert und die generierten freien Aminogruppen des Poly(N-vinylamins) durch eine Michael-Addition mit einem divinylfunktionalisierten Acrylat (Tetraethylenglykoldiacrylat) vernetzt. Untersuchungen zur mechanischen Beständigkeit der Filme zeigten bei geringen Vernetzungsgraden eine deutliche Optimierung der maximalen Zugbelastungen. Die Untersuchungen belegten, dass die Verwendung des selbstvernetzenden Dispersionssystems als Dispersion für eine Polymerbeschichtung möglich ist. Hydrogele Die Synthese von fließfähigen und quervernetzten Hydrogelen erfolgte auf der Basis verschiedener N﷓Vinylamide. Mit Hilfe geeigneter Vernetzer wurden feste Hydrogelplatten synthetisiert und für die Auftrennung von DNA-Sequenzen mit Hilfe der Gelelektrophorese verwendet. Scharfe und gute Auftrennung der verschiedenen „DNA-Ladder Standards“ wurden durch die Variation des Vernetzeranteils, der Polymerzusammensetzung, der angelegten Spannung und der Verweilzeit in der Gelelektrophoresekammer mit P﷓(MNVA)-Hydrogelplatten erreicht. Fließfähige und quervernetzte Elektrolytgele auf Poly-(N-vinylamid)-Basis wurden in wartungsfreien pH﷓Elektroden eingesetzt. Die Eignung dieser Hydrogele wurden in Bezug auf die Anwendung eingehend charakterisiert. Elektroden befüllt mit Poly(N-vinylamid)-Gelen wurden in Dauerbelastungsexperimenten, direkt mit kommerziellen pH﷓Elektroden verglichen. Es konnte gezeigt werden, dass die fließfähigen und quervernetzten Poly-(N-vinylamid)-Elektrolytgele in ihren Messeigenschaften gleichwertige bzw. bessere Potentialstabilitäten aufweisen als kommerzielle Referenzelektroden. Die Hydrogele auf Basis von Poly(N-vinylamidderivaten) boten für die beiden getesteten Anwendungen eine toxikologisch unbedenkliche Alternative zu Poly(acrylamid)-Gelen. In dieser Arbeit konnten die durchgeführten Untersuchungen belegen, dass N﷓Vinylamide eine attraktive Monomerklasse ist, die erfolgreich in vielen technischen Anwendungen einsetzbar ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Elementmassenspektrometrie wurde in den letzten Jahren sehr erfolgreich zur Aufklärung verschiedener Fragestellungen in der Bioanalytik eingesetzt. Hierbei spielen vor allem Kopplungstechniken von Trennmethoden wie der Flüssigchromatographie (LC) oder der Kapillarelektrophorese (CE) mit der induktiv gekoppelten Plasma-Massenspektrometrie (ICP-MS) als Multielementdetektor mit hervorragenden Quantifizierungseigenschaften eine entscheidende Rolle bei der Untersuchung von Biopolymeren und deren Wechselwirkung mit verschiedenen Metallen. So wurden beispielsweise verschiedene Methoden für die Trennung und Detektion von Metalloproteinen oder DNA-Metall-Addukten in unterschiedlichen Probenmaterialien entwickelt. Die traditionelle und leistungsstärkste Trennmethode für Biopolymere aller Art, die Gelelektrophorese, wurde jedoch bislang nicht in einem Online-Verfahren an die ICP-MS gekoppelt, um solche Fragestellungen zu bearbeiten. Verschiedene Versuche auf der Basis der Laserablation wurden in diese Richtung unternommen, wobei diese Techniken als sehr umständlich und zeitaufwändig anzusehen sind. In dieser Arbeit wird erstmals die technische Realisierung einer Online-Kopplung der Gelelektrophorese mit der ICP-MS beschrieben. Das System basiert auf einem Prinzip aus der präparativen Gelelektrophorese, in welcher eine kontinuierliche Elution der getrennten Komponenten aus dem Gel während der laufenden Elektrophorese durchgeführt wird. Die eluierten Komponenten werden mit dem Elutionspuffer direkt in das Zerstäubersystem des ICP-MS geführt. Die ersten Untersuchungen wurden am Beispiel der Fragemente von doppelsträngiger DNA (dsDNA) durchgeführt. Kommerziell erhältliche Standardlösungen wurden mit der Online-GE-ICP-MS mittels Detektion von 31P an einem hochauflösenden Massenspektrometer mit einer Massenauflösung von 4000 analysiert. Die Trennbedingungen (z.B. pH-Wert oder Ionenstärke der Pufferlösungen) wurden für die Trennung von dsDNA-Fragementen in Agarosegelen optimiert und auf verschiedene dsDNA-Fragmente angewandt. In einem nächsten Schritt wurden die Quantifizierungsmöglichkeiten für Biopolymere untersucht. Sehr kleine Mengen an dsDNA konnten mit einer Präzision von weniger als 3% quantifiziert werden. Hierfür kamen verschiedene Möglichkeiten der externen Kalibration zum Einsatz, wie der Kalibration mit einem Phosphat-Standard oder einem kommerziell erhältlichen quantitativen dsDNA-Standard. Um das Potenzial der entwickelten Methode für die Untersuchung von Biopolymer-Metall-Wechselwirkungen zu demonstrieren, wurden Oligonukleotide mit Cisplatin unter physiologischen Bedingungen inkubiert und die Reaktionsprodukte mit der Online-GE-ICP-MS mittels 31P- und 195Pt-Detektion untersucht. Verschiedene Cisplatin-Oligonukleotid-Addukte konnten auf diese Weise beobachtet werden, was zur Identifizierung die Anwendung der MALDI-TOF-MS als komplementärer Form der Massenspektrometrie notwendig machte. Abschließend wurde die Isotopenverdünnungsanalyse zum Zweck der Quantifizierung herangezogen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit werden die r-Prozesskerne rund um den N=82-Schalenabschluß untersucht. Dabei gelang es die bisher unbekannten Halbwertszeiten und Pn-Werte der Antimonisotope 137-139-Sb und von 139-Te zu messen. Des Weiteren wurden die Ergebnisse von Shergur et. al. zu extrem neutronenreichen Zinnisotopen (137,138-Sn) mit neuen Messungen untermauert und verbessert. Alle erhaltenen Ergebnisse werden mit entsprechenden Modellrechnungen verglichen und ihr Einfluss auf moderne Netzwerkrechnungen zum r-Prozess diskutiert. Des Weiteren gelang erstmalig die Aufnahmen von gamma-spektroskopischen Daten für das r-Prozessnuklid 136-Sn in Singlespektren. Aufgrund der hinlänglich bekannten Probleme mit Isobarenkontaminationen für Ionenstrahlen von sehr exotischen Molekülen an ISOL-Einrichtungen werden unterschiedliche technische Entwicklungen zur Verbesserung der Strahlqualität aufgezeigt. Ein besonderer Schwerpunkt liegt hier auf der neu eingeführten Technik der molekularen Seitenbänder an Massenseparatoren. Hier gelang es durch gezielte Zugabe von Schwefel in das Target ein starke SnS(+)-Seitenband zu etablieren und so bei guter Strahlintensität eine deutliche Reduktion des Isobarenuntergrunds zu erreichen. Ebenso werden die Möglichkeiten einer temperaturkontrollierten Quarztransferline zwischen Target und Ionenquelle zur Minimierung von Kontaminationen bespro-chen. Zur Verbesserung der Selektivität von Experimenten an sehr neutronenreichen Elementen wurde ein Detektorsystem zur n,gamma-Koinzidenzmessung entwickelt. Im Gegensatz zu früheren Versuchen dieser Art, gelang es durch eine entsprechende neue Elektronik striktere Koinzidenzbedingungen zu realisieren und so das Koinzidenzfenster deutlich zu verkleinern.