926 resultados para Delphi-Methode
Resumo:
Die vorliegende Arbeit behandelt Restartautomaten und Erweiterungen von Restartautomaten. Restartautomaten sind ein Werkzeug zum Erkennen formaler Sprachen. Sie sind motiviert durch die linguistische Methode der Analyse durch Reduktion und wurden 1995 von Jancar, Mráz, Plátek und Vogel eingeführt. Restartautomaten bestehen aus einer endlichen Kontrolle, einem Lese/Schreibfenster fester Größe und einem flexiblen Band. Anfänglich enthält dieses sowohl die Eingabe als auch Bandbegrenzungssymbole. Die Berechnung eines Restartautomaten läuft in so genannten Zyklen ab. Diese beginnen am linken Rand im Startzustand, in ihnen wird eine lokale Ersetzung auf dem Band durchgeführt und sie enden mit einem Neustart, bei dem das Lese/Schreibfenster wieder an den linken Rand bewegt wird und der Startzustand wieder eingenommen wird. Die vorliegende Arbeit beschäftigt sich hauptsächlich mit zwei Erweiterungen der Restartautomaten: CD-Systeme von Restartautomaten und nichtvergessende Restartautomaten. Nichtvergessende Restartautomaten können einen Zyklus in einem beliebigen Zustand beenden und CD-Systeme von Restartautomaten bestehen aus einer Menge von Restartautomaten, die zusammen die Eingabe verarbeiten. Dabei wird ihre Zusammenarbeit durch einen Operationsmodus, ähnlich wie bei CD-Grammatik Systemen, geregelt. Für beide Erweiterungen zeigt sich, dass die deterministischen Modelle mächtiger sind als deterministische Standardrestartautomaten. Es wird gezeigt, dass CD-Systeme von Restartautomaten in vielen Fällen durch nichtvergessende Restartautomaten simuliert werden können und andererseits lassen sich auch nichtvergessende Restartautomaten durch CD-Systeme von Restartautomaten simulieren. Des Weiteren werden Restartautomaten und nichtvergessende Restartautomaten untersucht, die nichtdeterministisch sind, aber keine Fehler machen. Es zeigt sich, dass diese Automaten durch deterministische (nichtvergessende) Restartautomaten simuliert werden können, wenn sie direkt nach der Ersetzung einen neuen Zyklus beginnen, oder ihr Fenster nach links und rechts bewegen können. Außerdem gilt, dass alle (nichtvergessenden) Restartautomaten, die zwar Fehler machen dürfen, diese aber nach endlich vielen Zyklen erkennen, durch (nichtvergessende) Restartautomaten simuliert werden können, die keine Fehler machen. Ein weiteres wichtiges Resultat besagt, dass die deterministischen monotonen nichtvergessenden Restartautomaten mit Hilfssymbolen, die direkt nach dem Ersetzungsschritt den Zyklus beenden, genau die deterministischen kontextfreien Sprachen erkennen, wohingegen die deterministischen monotonen nichtvergessenden Restartautomaten mit Hilfssymbolen ohne diese Einschränkung echt mehr, nämlich die links-rechts regulären Sprachen, erkennen. Damit werden zum ersten Mal Restartautomaten mit Hilfssymbolen, die direkt nach dem Ersetzungsschritt ihren Zyklus beenden, von Restartautomaten desselben Typs ohne diese Einschränkung getrennt. Besonders erwähnenswert ist hierbei, dass beide Automatentypen wohlbekannte Sprachklassen beschreiben.
Resumo:
Das von Maz'ya eingeführte Approximationsverfahren, die Methode der näherungsweisen Näherungen (Approximate Approximations), kann auch zur numerischen Lösung von Randintegralgleichungen verwendet werden (Randpunktmethode). In diesem Fall hängen die Komponenten der Matrix des resultierenden Gleichungssystems zur Berechnung der Näherung für die Dichte nur von der Position der Randpunkte und der Richtung der äußeren Einheitsnormalen in diesen Punkten ab. Dieses numerisches Verfahren wird am Beispiel des Dirichlet Problems für die Laplace Gleichung und die Stokes Gleichungen in einem beschränkten zweidimensionalem Gebiet untersucht. Die Randpunktmethode umfasst drei Schritte: Im ersten Schritt wird die unbekannte Dichte durch eine Linearkombination von radialen, exponentiell abklingenden Basisfunktionen approximiert. Im zweiten Schritt wird die Integration über den Rand durch die Integration über die Tangenten in Randpunkten ersetzt. Für die auftretende Näherungspotentiale können sogar analytische Ausdrücke gewonnen werden. Im dritten Schritt wird das lineare Gleichungssystem gelöst, und eine Näherung für die unbekannte Dichte und damit auch für die Lösung der Randwertaufgabe konstruiert. Die Konvergenz dieses Verfahrens wird für glatte konvexe Gebiete nachgewiesen.
Resumo:
Hintergrund und Ziel: Ausgehend von einem Forschungsdefizit im Bereich von Performance-Tests, das von der Arbeitsgruppe um Bührlen et al. (2002) gekennzeichnet wurde, war es das Ziel der Arbeit einen Performance-Tests of lower limb activities (Polla) zu validieren. Methode: In einer Längsschnittstudie wurden die Ergebnisse einer sechswöchigen physiotherapeutischen Behandlung an einem 19-75jährigem orthopädisch-traumatologisch orientierten Patientenkollektiv (n=81) mit dem Polla und dem SF-36 Fragebogen erfasst. Ergebnisse: Die Ergebnisse machen eine gute Absicherung der Teststatistik deutlich. Bei ausgezeichneter Intrarater- (n=29) sowie guter Interrater-Reliabilität (n=32) weist die Konsistenzanalyse eine zufrieden stellende Zuverlässigkeit auf. Die Kriteriumsvalidität macht moderate Zusammenhänge zwischen dem Polla und den Dimensionen Schmerz, Körperliche Rollenfunktion und Körperliche Funktionsfähigkeit des SF-36 deutlich. Über die Standardized Response Mean zeigen die Instrumente eine große Änderungssensitivität, die nur für den Polla auch zum Follow-up (n=26) gilt. Schlussfolgerung: Der Polla ist ein kostenloses Testverfahren mit hoher praktischer Relevanz, wobei aus zeitökonomischen Gründen eine modifizierte Form des Polla mit nur zehn Items und einem gemessenen Test zu empfehlen ist.
Resumo:
Die Arbeit befasst sich mit der Entwicklung analytischer Modelle im Bereich der elektrischen Maschinenauslegung und deren Umsetzung in ein Softwaresystem, dass zur Auslegung elektrischer Maschinen verwendet werden kann. Es wurden zahlreiche Modelle für die elektromagnetische sowie thermische Berechnung der permanentmagneterregten Synchronmaschine sowie Asynchronmaschine mit Kurzschlussläufer entwickelt. Bei den Berechnungen wurde mit einer geringen Anzahl von Eingabewerten eine gute Genauigkeit bei der Berechnung der Maschinenparameter erreicht. Dieses zeigte sich durch den Vergleich von analytisch berechneten Maschinenparametern und den Werten, die mittels der Finite-Elemente-Methode berechnet wurden. Darüber hinaus wurden auch Modelle entwickelt, die für spezielle Fragestellungen herangezogen werden können, wie zum Beispiel die Auswirkung der Stromverdrängung auf das dynamische Verhalten der Asynchronmaschine mit Käfigläufern. Die einzelnen Modelle wurden zu einer Softwareeinheit zusammengefasst, die Dienste zur Auslegung elektrischer Maschinen bereitstellt. Die Dienste dieser Softwareeinheit, die auf einem Server installiert ist, können über graphische Benutzerschnittstellen ortsunabhängig und somit weltweit verwendet werden. Durch die zentrale Lage der Modelle können sehr einfach Erweiterungen an der Berechnungssoftware vorgenommen und dem Nutzer zur Verfügung gestellt werden. Mit der Entwicklung einer graphischen Benutzerschnittstelle ist eine geführte und übersichtliche Eingabe der zur Berechnung notwendigen Eingaben entstanden. Mit der Wahl von http als Transportprotokoll wird ein etabliertes Protokoll verwendet, das eine Kommunikation zwischen zwei durch Firewalls abgesicherten Teilnetzen ermöglicht, ohne dass dadurch bedenkliche Lücken in einem Sicherheitskonzept entstehen. Durch die Verwendung von SOAP als Übertragungsprotokoll zwischen den Kommunikationspartnern wird ein firmen- und produktunabhängiges Protokoll verwendet, das sich in der Praxis immer stärker etabliert.
Resumo:
In dieser Arbeit wurde das Wachstum sowie die ultraschnelle Elektronendynamik des Oberflächenplasmon Polaritons von Goldnanoteilchen auf Titandioxid untersucht. Die Messung der Dephasierungszeit des Oberflächenplasmons von Nanoteilchen mit definierter Form und Größe erfolgte dabei mit der Methode des spektralen Lochbrennens. Die Nanoteilchen wurden durch Deposition von Goldatomen aus einem thermischen Atomstrahl mit anschließender Diffussion und Nukleation, d.h. Volmer-Weber-Wachstum, auf Titandioxidsubstraten hergestellt und mittels einer Kombination aus optischer Spektroskopie und Rasterkraftmikroskopie systematisch untersucht. Dabei lässt sich das Nanoteilchenensemble durch das mittlere Achsverhältnis und den mittleren Äquivalentradius charakterisieren. Die Messungen zeigen, dass die Proben große Größen- und Formverteilungen aufweisen und ein definierter Zusammenhang zwischen Größe und Form der Teilchen existiert. Während kleine Goldnanoteilchen nahezu kugelförmig sind, flachen die Teilchen mit zunehmender Größe immer mehr ab. Des Weiteren wurde in dieser Arbeit die Methode des lasergestützten Wachstums auf das System Gold auf Titandioxid angewendet. Systematische Untersuchungen zeigten, dass sich das Achsverhältnis der Teilchen durch geeignete Wahl von Photonenenergie und Fluenz des eingestrahlten Laserlichts definiert und gezielt vorgeben lässt. Die Methode des lasergestützten Wachstums erschließt damit den Bereich außerhalb der Zugänglichkeit des natürlichen Wachstums. Aufgrund der Formabhängigkeit der spektrale Lage der Plasmonresonanz ist man somit in der Lage, die optischen Eigenschaften der Nanoteilchen gezielt einzustellen und z.B. für technische Anwendungen zu optimieren. Die Untersuchung der ultraschnellen Elektronendynamik von Goldnanoteilchen auf Titandioxid mit äquivalenten Radien zwischen 8 bis 15 nm erfolgte in dieser Arbeit mit der Methode des spektralen Lochbrennes. Hierzu wurde die Dephasierungszeit des Oberflächenplasmons systematisch als Funktion der Photonenenergie in einem Bereich von 1,45 bis 1,85 eV gemessen. Es zeigte sich, dass die gemessenen Dephasierungszeiten von 8,5 bis 16,2 fs deutlich unter den in der dielektrischen Funktion von Gold enthaltenen Werten lagen, was den erwarteten Einfluss der reduzierten Dimension der Teilchen demonstriert. Um die Messwerte trotz verschiedener Teilchengrößen untereinander vergleichen und den Einfluss der intrinsischen Dämpfung quantifizieren zu können, wurde zusätzlich der Dämpfungsparameter A bestimmt. Die ermittelten A-Faktoren zeigten dabei eine starke Abhängigkeit von der Plasmonenergie. Für Teilchen mit Plasmonenergien von 1,45 bis 1,55 eV wurde ein Dämpfungsfaktor von A ~ 0,2 nm/fs ermittelt, der lediglich Oberflächenstreuung als dominierenden Dämpfungsmechanismus widerspiegelt. Hingegen wurde für Teilchen mit Plasmonenergien oberhalb von 1,55 eV ein drastischer Anstieg der Dämpfung auf A ~ 0,4 nm/fs beobachtet. Die erhöhte Dämpfung wurde dabei dem zusätzlichen Vorliegen einer chemischen Dämpfung durch das Titandioxidsubstrat zugeschrieben. Zusammenfassend zeigen die Ergebnisse somit, dass eine starke Abhängigkeit der chemischen Dämpfung von der Photonenenergie vorliegt. Es konnte erstmals nachgewiesen werden, dass die chemische Dämpfung erst ab einer bestimmten unteren Schwelle der Photonenenergie einsetzt, die für Goldnanoteilchen auf Titandioxid bei etwa 1,6 eV liegt.
Resumo:
Die Ionenbeschussinduzierte magnetische Strukturierung (engl.: Ion Bombardment Induced Magnetic Patterning – IBMP) beinhaltet den Beschuss austauschverschobener Ferromagnet/Antiferromagnet-Schichtsysteme mit niederenergetischen Heliumionen durch eine lithographisch erstellte Lackmaske, die die Ionen nur in den gewünschten Bereichen zum Schichtsystem vordringen lässt. Damit können Richtung und Stärke der Austauschverschiebung (engl.: Exchange Bias – EB) lokal beschränkt beeinflusst werden und es entstehen, in Remanenz stabile, magnetische Muster. Nach Entfernen der Resistmaske ist die Probe ohne topographische Kontraste. Bisher konnten mit dieser Methode Strukturen bis zu einer minimalen Größen von 500nm nachgewiesen werden. Diese Methode und zwei Anwendungsmöglichkeiten der IBMP werden in dieser Arbeit dargelegt: Die Interpretation von Magnetkraftmikroskopieaufnahmen im externen Magnetfeld erweist sich als problematisch, wenn die Richtung des äußeren Magnetfeldes senkrecht zum magnetischen Moment der MFM-Spitze steht und dieses unvermeidlich auch beeinflusst. Im Rahmen der vorliegenden Arbeit wird die Tauglichkeit von topographisch flachen magnetischen Strukturen als Kalibrierproben für Magnetkraftmikroskopiesonden nachgewiesen. Die Magnetisierung solcher Proben ist in gewissem Rahmen unabhängig vom externen Magnetfeld. Daraus folgt, dass Veränderungen der magnetkraftmikroskopischen Aufnahmen in diesem Feldbereich allein auf Modifikationen des Magnetisierungszustandes der Spitze zurückzuführen sind. Anhand eines Modells nach sollen die Streufelder über der Probe modelliert und eine Quantifizierung dieser Einflüsse ermöglicht werden. Im Weiteren wird die gezielte Beeinflussung superparamagnetischer Nano- und Mikropartikel durch die künstlichen Streufelder über den Proben gezeigt. Dabei lag das Augenmerk zum Einen auf der gezielten Positionierung der Kolloide durch geeignete Wahl der künstlichen Domänenmuster und zum Anderen auf der ferngesteuerten Bewegung mittels geschickter Kombination eines externen Magnetfeldgradienten zusätzlich zu den magnetischen Streufeldern der Probe. Ein großes Hemmnis bei ähnlichen Anwendungen mit stromdurchflossenen Leiterbahnen sind die Erwärmung der Probe sowie die Zerstörung der Strukturen durch Elektromigration. Diese Erschwernisse können mit den in der vorliegenden Arbeit genutzten künstlichen magnetischen Strukturen, die sich durch externe Magnetfelder abschalten lassen und in Remanenz wieder erscheinen, elegant umgangen werden.
Resumo:
Die Verordnung des Europäischen Rates (EC) 834/2007 erkennt das Recht des Konsumenten auf eine Entscheidung basierend auf vollständiger Information bezüglich der enthaltenen Zutaten im Produkt und deren Herkunft (Qualität der Verarbeitung). Die primäre Kennzeichnungsverordnung betont „organische“ Produktionsstandards ebenso wie die Notwendigkeit zur Kontrolle und Aufsicht. Jedoch ist zurzeit keine validierte Methode zur analytischen Diskriminierung zwischen „organischer“ und „konventioneller“ Herkunft von angebotenen Lebensmitteln verfügbar. Das Ziel der Dissertationsarbeit war die Überprüfung der Möglichkeit mit ausgewählten analytischen und holistischen Methoden zwischen organisch und konventionell angebautem Weizen objektiv zu unterscheiden. Dies beinhaltete die Bestimmung des Gesamtstickstoff (Protein) nach Dumas, zweidimensionale Fluoreszenzdifferenz Gelelektrophorese (2D DIGE) und die Kupferchloridkristallisation. Zusätzlich wurde die Anzahl der Körner pro Ähre (Kornzahl) bestimmt. Alle Bestimmungen wurden an rückverfolgbaren in den Jahren 2005 – 2007 in Belgien gesammelten Proben des Winterweizen (Triticum aestivum L. cv. Cubus) durchgeführt. Statistisch signifikante (p < 0.05) Unterschiede wurden innerhalb der untersuchten Probengruppen sowohl in der Kornzahl, dem Gesamtsticksoff (Eiweißgehalt), als auch in der Gesamtausbeute gefunden, wobei in den meisten Fällen die konventionellen Proben höhere Kornzahlen und Gesamtsticksoff (Eiweißgehalte) aufwiesen. Eine mit der 2D DIGE kompatible Probenvorbereitungsmethode für Winterweizen wurde entwickelt und auf einen internen Winterweizenstandard sowie die entsprechenden Proben angewendet. Die organischen Proben waren im Vergleich mit den konventionellen Gegenstücken in allen Fällen durch eine kleinere Anzahl von signifikant (p < 0.05) stärker exprimierten Proteinspots gekennzeichnet. Gewisse Tendenzen in Richtung der Bevorzugung bestimmter Regionen von stärker ausgeprägten Proteinspots auf aufeinanderfolgenden 2D Abbildungen in Abhängigkeit von der landwirtschaftlichen Methode konnten zwar beobachtet werden, jedoch konnte kein universelles Markerprotein zur Unterscheidung von konventionell und biologisch angebautem Winterweizen identifiziert werden. Die rechnergestützte Verarbeitung der digitalisierten Kristallisierungsbilder mittels multivariater statistischer Analyse und der Regression partieller kleinster Quadrate ermöglichte eine 100%ig korrekte Vorhersage der landwirtschaftlichen Methode unbekannter Proben sowie der Beschreibung der Kristallisierungsbilder. Diese Vorhersage bezieht sich nur auf den hier verwendeten Datensatz (Proben einer Sorte von drei Standorten über zwei Jahre) und kann nicht ohne weiteres übertragen (generalisiert) werden. Die Ergebnisse deuten an, dass die Quantifizierung der beschriebenen Parameter ein hohes Potential zur Lösung der gestellten Aufgabe besitzt.
Resumo:
Die photoneninduzierte Fluoreszenzspektroskopie (PIFS) wurde als Methode zur Untersuchung von Fluoreszenzspektren der Edelgasatome Krypton und Xenon nach Anregung mit Synchrotronstrahlung des Elektronenspeicherrings BESSY II, Berlin, benutzt. Die Anregung der Edelgase erfolgte bei Zimmertemperatur und einem Druck von 40mTorr mit extrem schmalbandiger Strahlung mit DeltaE=3meV bei 21,55eV. Die untersuchten Anregungsenergiebereiche waren bei Krypton zwischen 29,4eV und 29,8eV und bei Xenon zwischen 23,74eV und 23,80eV, zwischen 24,4eV und 24,7eV und zwischen 25,25eV und 25,5eV. Die Anregungsenergiebereiche waren so gewählt, um Autoionisationsresonanzen untersuchen zu können, die erstmalig von Codling und Madden [J. Res. Nat. B. Stan. 1972, 76A, 1-12] veröffentlicht worden sind. Besonders die Besetzung in Abhängigkeit der Anregungsenergie von Satellitenzuständen in den jeweiligen einfach geladenen Ionen durch vorherige Anregung der genannten Autoionisationsresonanzen war der Fokus der vorliegenden Arbeit.
Resumo:
Diese Arbeit beschäftigt sich mit der Herstellung und Anwendungen von periodischen Goldnanopartikel-Arrays (PPAs), die mit Hilfe von Nanosphären-Lithografie hergestellt wurden. In Abhängigkeit der verwendeten Nanosphären-Größe wurden dabei entweder kleine dreieckige Nanopartikel (NP) (bei Verwendung von Nanosphären mit einem Durchmesser von 330 nm) oder große dreieckige NPD sowie leicht gestreckte NP (bei Verwendung von Nanosphären mit einem Durchmesser von 1390 nm) hergestellt. Die Charakterisierung der PPAs erfolgte mit Hilfe von Rasterkraftmikroskopie, Rasterelektronenmikroskopie und optischer Spektroskopie. Die kleinen NP besitzen ein Achsverhältnis (AV) von 2,47 (Kantenlänge des NPs: (74+/-6) nm, Höhe: (30+/-4) nm. Die großen dreieckigen NP haben ein AV von 3 (Kantenlänge des NPs:(465+/-27) nm, Höhe: (1530+/-10) nm) und die leicht gestreckten NP (die aufgrund der Ausbildung von Doppelschichten ebenfalls auf der gleichen Probe erzeugt wurden) haben eine Länge von (364+/-16)nm, eine Breite von (150+/-20) nm und eine Höhe von (150+/-10)nm. Die optischen Eigenschaften dieser NP werden durch lokalisierte Oberflächenplasmon-Polariton Resonanzen (LPPRs) dominiert, d.h. von einem eingestrahlten elektromagnetischen Feld angeregte kollektive Schwingungen der Leitungsbandelektronen. In dieser Arbeit wurden drei signifikante Herausforderungen für Plasmonik-Anwendungen bearbeitet, welche die einzigartigen optischen Eigenschaften dieser NP ausnutzen. Erstens wurden Ergebnisse der selektiven und präzisen Größenmanipulation und damit einer Kontrolle der interpartikulären Abstände von den dreieckigen Goldnanopartikel mit Hilfe von ns-gepulstem Laserlicht präsentiert. Die verwendete Methode basiert hierbei auf der Größen- und Formabhängigkeit der LPPRs der NP. Zweitens wurde die sensorischen Fähigkeiten von Gold-NP ausgenutzt, um die Bildung von molekularen Drähten auf den PPAs durch schrittweise Zugabe von unterschiedlichen molekularen Spezies zu untersuchen. Hierbei wurde die Verschiebung der LSPPR in den optischen Spektren dazu ausgenutzt, die Bildung der Nanodrähte zu überwachen. Drittens wurden Experimente vorgestellt, die sich die lokale Feldverstärkung von NP zu nutze machen, um eine hochgeordnete Nanostrukturierung von Oberflächen mittels fs-gepulstem Laserlicht zu bewerkstelligen. Dabei zeigt sich, dass neben der verwendeten Fluenz die Polarisationsrichtung des eingestrahlten Laserlichts in Bezug zu der NP-Orientierung sowie die Größe der NP äußerst wichtige Parameter für die Nanostrukturierung darstellen. So konnten z.B. Nanolöcher erzeugt werden, die bei höheren Fluenzen zu Nanogräben und Nanokanälen zusammen wuchsen. Zusammengefasst lässt sich sagen, dass die in dieser Arbeit gewonnen Ergebnisse von enormer Wichtigkeit für weitere Anwendungen sind.
Resumo:
Aziridine, Stickstoffanaloga der Epoxide, können regio- und stereoselektive Ringöffnungsreaktionen eingehen, wodurch ihnen als „building blocks“ in der Organischen Synthese eine große Bedeutung zukommt. In dieser Arbeit wurden unterschiedliche N-Aminoverbindungen synthetisiert sowie die Anwendungsmöglichkeit dieser Hydrazinderivate als Stickstoffquellen in Aziridinierungen von Olefinen untersucht. In der vorliegenden Dissertation wurde eine neue Methode zur Darstellung von N-Aminosuccinimid entwickelt und die Einsatzmöglichkeit als Stickstoffquelle in Aziridinierungsreaktionen in einer Reihe von Umsetzungen mit funktionalisierten ebenso wie mit nicht-funktionalisierten Olefinen demonstriert. Die ableitbaren Aziridine wurden hierbei in Ausbeuten von bis zu 80 % erhalten. In der Aziridinierungsreaktion von N-Aminosuccinimid mit 4,7-Dihydro-2-isopropyl-1,3-dioxepin resultieren bicyclische Aziridinierungsprodukte, die als endo/exo-Isomere in einem 1:1-Verhältnis anfallen. Es ist in dieser Arbeit gelungen, die Isomere in guten Ausbeuten zu erhalten, sie säulenchromatographisch zu trennen und ihre Konfiguration im festen Zustand mittels Kristallstrukturanalyse eindeutig zu bestimmen. Enantiomerenangereicherte Olefine, wie z. B. in 2-Position alkylsubstituierte 5-Methyl-4H-1,3-dioxine mit Enantiomerenüberschüssen von 92% ee liefern in der Aziridinierung mit N-Aminosuccinimid und Iodosylbenzol ein 4-Methyl-1,3-oxazolidin-4-carbaldehydderivat in einer zweistufigen Reaktion- der Aziridinierung und einer Umlagerung- ein 4-Methyl-1,3-oxazolidin-4-carbaldehydderivat. Für die Diastereoselektivität des Aziridinierungsschrittes wurde 65 % de bestimmt. In einer neuen Synthese über zwei Stufen ausgehend von (+)-3,4-Dimethoxysuccinanhydrid konnte ein chiraler Stickstoffüberträger - (+)-N-Amino-3,4-dimethoxysuccinimid - in Ausbeuten bis zu 86 % synthetisiert. Die Umsetzung dieser optisch aktiven Stickstoffquelle mit einer Vielzahl prochiraler Alkene führt zu diastereomeren Aziridinen in Ausbeuten bis zu 65% und Diastereoselektivitäten von bis zu 66% de. Anhand ausgewählter Verbindungen konnten die Absolutkonfigurationen der Reaktionsprodukte mittels Kristallstrukturanalyse eindeutig geklärt werden.
Resumo:
Immer wieder und mit viel schlechtem Gewissen hat sich Freud mit der Frage auseinandergesetzt, inwieweit die Psychoanalyse Wissenschaft oder nicht vielmehr Kunst sei. So stellt er etwa fest, daß seine Krankengeschichten wie Novellen zu lesen seien, daß die psychoanalytische Methode einer spezifischen Kunstbetrachtung gleiche und daß die freie Assoziation ihre Vorläuferschaft in einer kreativen Methode der literarischen Produktion finde. Damit droht eine "Ästhetisierung der Erkenntnis", die spätestens seit Nietzsche die Frage nach der Wahrheit grundlegend umwälzt. Diese ist nicht einfach vorfindbar oder abbildbar und existiert nicht prima facie, sondern muß "gedeutet", "erraten" und "konstruiert" werden. Die gleichsam ästhetischen Darstellungsformen des Psychischen reflektieren damit das Dargestellte selbst, nämlich die unbewußte psychische Realität, in der es kein Unterscheidungszeichen zwischen Realität und Fiktion gibt. Daraus erschließt sich auch ein anderes Verständnis des psychoanalytischen Tuns, das sich nicht hierarchisch einem wissenschaftlichen Regelwerk unterstellen läßt, sondern als ein heuristischer Suchprozeß zu beschreiben und mit Hilfe der Erkenntnisse der Kreativitätsforschung zu verstehen ist. Die Autoren plädieren weiterhin dafür, daß Psychoanalyse nur als ein dialogisch-intersubjektives Geschehen begriffen werden kann, in dem die "biographische Wahrheit" in einem gleichsam poetischen Akt gemeinsam erfunden und erzeugt wird.