8 resultados para Prototypes

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alkaloide, im allgemeinen Stickstoffheterocyclen, sind wichtige Vorläuferverbindungen von pharmakologisch aktiven Substanzen. Die stereoselektive Synthese von Stickstoffheterocyclen ist von großem Interesse für die Entdeckung und Entwicklung von Arzneistoffen.In der Arbeit wurden Glycosylamine vom Typ des 2,3,4,6-Tetra-O-pivaloyl-?-D-galactosylamins bzw. des 2,3,4-Tri-O-pivaloyl-?-D-arabinosylamins zur diastereoselektiven Synthese mehrfach substituierter Stickstoffheterocyclen eingesetzt. In einer Tandem-Mannich-Michael-Reaktion eines Glycosylimins mit dem Danishefsky-Dien wurden die in Position 6 substituierten Dehydropiperidinone aufgebaut. In einer mehrstufigen Synthesesequenz konnte das 4a-Epimere des natürlichen Pumiliotoxin C als Hydrochlorid dargestellt werden.Mittels der Tandem-Mannich-Michael-Reaktion wurden auch 6,6`-disubstituierte Dehydropiperidinone dargestellt. Die Darstellung zweier Aza-spiro-Verbindungen gelang erstmals ausgehend von den Ketonen Cyclohexanon und 3-Methyl-cyclohexanon über die Glycosylketimine. Das in dieser Reaktion gefundene Nebenprodukt N-Glycosyl-6-(2´-oxo-propyl)-2,3 dehydropiperidin-4-on diente als Ausgangssubstanz für die Pinidinolsynthese.In der angewendeten Weise eignen sich Glycosylamine sehr gut für die stereoselektive Synthese von Stickstoffheterocyclen. Meistens werden die chirale Piperidinalkaloidvorläufer in hohen Ausbeuten und Diastereoselektivitäten erhalten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Bedarf an hyperpolarisiertem 3He in Medizin und physikalischer Grundlagenforschung ist in den letzten ca. 10-15 Jahren sowohl in Bezug auf die zu Verfügung stehende Menge, als auch auf den benötigten Grad der Kernspinpolarisation stetig gestiegen. Gleichzeitig mußten Lösungen für die polarisationserhaltende Speicherung und den Transport gefunden werden, die je nach Anwendung anzupassen waren. Als Ergebnis kann mit dieser Arbeit ein in sich geschlossenes Gesamtkonzept vorgestellt werden, daß sowohl die entsprechenden Mengen für klinische Anwendungen, als auch höchste Polarisation für physikalische Grundlagenfor-schung zur Verfügung stellen kann. Verschiedene unabhängige Polarimetriemethoden zeigten in sich konsistente Ergebnisse und konnten, neben ihrer eigenen Weiterentwicklung, zu einer verläßlichen Charakterisierung des neuen Systems und auch der Transportzellen und –boxen eingesetzt werden. Die Polarisation wird mittels „Metastabilem Optischen Pumpen“ bei einem Druck von 1 mbar erzeugt. Dabei werden ohne Gasfluß Werte von P = 84% erreicht. Im Flußbetrieb sinkt die erreichbare Polarisation auf P ≈ 77%. Das 3He kann dann weitgehend ohne Polarisationsver-luste auf mehrere bar komprimiert und zu den jeweiligen Experimenten transportiert werden. Durch konsequente Weiterentwicklung der vorgestellten Polarisationseinheit an fast allen Komponenten kann somit jetzt bei einem Fluß von 0,8 barl/h eine Polarisation von Pmax = 77% am Auslaß der Apparatur erreicht werden. Diese skaliert linear mit dem Fluß, sodaß bei 3 barl/h die Polarisation immer noch bei ca. 60% liegt. Dabei waren die im Rahmen dieser Arbeit durchgeführten Verbesserungen an den Lasern, der Optik, der Kompressionseinheit, dem Zwischenspeicher und der Gasreinigung wesentlich für das Erreichen dieser Polarisatio-nen. Neben dem Einsatz eines neuen Faserlasersystems ist die hohe Gasreinheit und die lang-lebige Kompressionseinheit ein Schlüssel für diese Leistungsfähigkeit. Seit Herbst 2001 er-zeugte das System bereits über 2000 barl hochpolarisiertes 3He und ermöglichte damit zahl-reiche interdisziplinäre Experimente und Untersuchungen. Durch Verbesserungen an als Prototypen bereits vorhandenen Transportboxen und durch weitgehende Unterdrückung der Wandrelaxation in den Transportgefäßen aufgrund neuer Erkenntnisse über deren Ursachen stellen auch polarisationserhaltende Transporte über große Strecken kein Problem mehr dar. In unbeschichteten 1 Liter Kolben aus Aluminosilikatglä-sern werden nun problemlos Speicherzeiten von T1 > 200h erreicht. Im Rahmen des europäi-schen Forschungsprojektes „Polarized Helium to Image the Lung“ wurden während 19 Liefe-rungen 70barl 3He nach Sheffield (UK) und bei 13 Transporten 100 barl nach Kopenhagen (DK) per Flugzeug transportiert. Zusammenfassend konnte gezeigt werden, daß die Problematik der Kernspinpolarisationser-zeugung von 3He, die Speicherung, der Transport und die Verwendung des polarisierten Ga-ses in klinischer Diagnostik und physikalischen Grundlagenexperimenten weitgehend gelöst ist und das Gesamtkonzept die Voraussetzungen für allgemeine Anwendungen auf diesen Gebieten geschaffen hat.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden drei wasserstoffverbrückte Systeme in der kondensierten Phase mit Hilfe von first-principles-Elektronenstruktur-Rechnungen untersucht, die auf der Dichtefunktionaltheorie (DFT) unter periodischen Randbedingungen basieren. Ihre lokalen Konformationen und Wasserstoffbrückenbindungen werden mittels ab-initio Molekulardynamiksimulationen berechnet und weiterhin durch die Bestimmung ihrer spektroskopischen Parameter charakterisiert. Der Schwerpunkt liegt dabei auf lokalen Strukturen und auf schnellen Fluktuationen der Wasserstoffbrückenbindungen, welche von zentraler Bedeutung für die physikalischen und chemischen Eigenschaften der betrachteten Systeme sind. Die für die lokalen, instantanen Konformationen berechneten Spektren werden verwendet, um die physikalischen Prozesse, die hinter den untersuchten Phänomenen stehen, zu erklären: die Wasseradsorption auf metallischen Oberflächen, die Ionensolvatisierung in wässrigen Lösungen und der Protonentransport in protonleitenden Polymeren, welche Prototypen von Membranen für Brennstoffzellen sind. Die Möglichkeit der Vorhersage spektroskopischer Parameter eröffnet vielfältige Möglichkeiten des Dialogs zwischen Experimenten und numerischen Simulationen. Die in dieser Arbeit vorgestellten Ergebnisse zeigen, dass die Zuverlässigkeit dieser theoretischen Berechnungen inzwischen für viele experimentell relevante Systeme ein quantitatives Niveau erreicht hat.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In technical design processes in the automotive industry, digital prototypes rapidly gain importance, because they allow for a detection of design errors in early development stages. The technical design process includes the computation of swept volumes for maintainability analysis and clearance checks. The swept volume is very useful, for example, to identify problem areas where a safety distance might not be kept. With the explicit construction of the swept volume an engineer gets evidence on how the shape of components that come too close have to be modified.rnIn this thesis a concept for the approximation of the outer boundary of a swept volume is developed. For safety reasons, it is essential that the approximation is conservative, i.e., that the swept volume is completely enclosed by the approximation. On the other hand, one wishes to approximate the swept volume as precisely as possible. In this work, we will show, that the one-sided Hausdorff distance is the adequate measure for the error of the approximation, when the intended usage is clearance checks, continuous collision detection and maintainability analysis in CAD. We present two implementations that apply the concept and generate a manifold triangle mesh that approximates the outer boundary of a swept volume. Both algorithms are two-phased: a sweeping phase which generates a conservative voxelization of the swept volume, and the actual mesh generation which is based on restricted Delaunay refinement. This approach ensures a high precision of the approximation while respecting conservativeness.rnThe benchmarks for our test are amongst others real world scenarios that come from the automotive industry.rnFurther, we introduce a method to relate parts of an already computed swept volume boundary to those triangles of the generator, that come closest during the sweep. We use this to verify as well as to colorize meshes resulting from our implementations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In vielen Bereichen der industriellen Fertigung, wie zum Beispiel in der Automobilindustrie, wer- den digitale Versuchsmodelle (sog. digital mock-ups) eingesetzt, um die Entwicklung komplexer Maschinen m ̈oglichst gut durch Computersysteme unterstu ̈tzen zu k ̈onnen. Hierbei spielen Be- wegungsplanungsalgorithmen eine wichtige Rolle, um zu gew ̈ahrleisten, dass diese digitalen Pro- totypen auch kollisionsfrei zusammengesetzt werden k ̈onnen. In den letzten Jahrzehnten haben sich hier sampling-basierte Verfahren besonders bew ̈ahrt. Diese erzeugen eine große Anzahl von zuf ̈alligen Lagen fu ̈r das ein-/auszubauende Objekt und verwenden einen Kollisionserken- nungsmechanismus, um die einzelnen Lagen auf Gu ̈ltigkeit zu u ̈berpru ̈fen. Daher spielt die Kollisionserkennung eine wesentliche Rolle beim Design effizienter Bewegungsplanungsalgorith- men. Eine Schwierigkeit fu ̈r diese Klasse von Planern stellen sogenannte “narrow passages” dar, schmale Passagen also, die immer dort auftreten, wo die Bewegungsfreiheit der zu planenden Objekte stark eingeschr ̈ankt ist. An solchen Stellen kann es schwierig sein, eine ausreichende Anzahl von kollisionsfreien Samples zu finden. Es ist dann m ̈oglicherweise n ̈otig, ausgeklu ̈geltere Techniken einzusetzen, um eine gute Performance der Algorithmen zu erreichen.rnDie vorliegende Arbeit gliedert sich in zwei Teile: Im ersten Teil untersuchen wir parallele Kollisionserkennungsalgorithmen. Da wir auf eine Anwendung bei sampling-basierten Bewe- gungsplanern abzielen, w ̈ahlen wir hier eine Problemstellung, bei der wir stets die selben zwei Objekte, aber in einer großen Anzahl von unterschiedlichen Lagen auf Kollision testen. Wir im- plementieren und vergleichen verschiedene Verfahren, die auf Hu ̈llk ̈operhierarchien (BVHs) und hierarchische Grids als Beschleunigungsstrukturen zuru ̈ckgreifen. Alle beschriebenen Verfahren wurden auf mehreren CPU-Kernen parallelisiert. Daru ̈ber hinaus vergleichen wir verschiedene CUDA Kernels zur Durchfu ̈hrung BVH-basierter Kollisionstests auf der GPU. Neben einer un- terschiedlichen Verteilung der Arbeit auf die parallelen GPU Threads untersuchen wir hier die Auswirkung verschiedener Speicherzugriffsmuster auf die Performance der resultierenden Algo- rithmen. Weiter stellen wir eine Reihe von approximativen Kollisionstests vor, die auf den beschriebenen Verfahren basieren. Wenn eine geringere Genauigkeit der Tests tolerierbar ist, kann so eine weitere Verbesserung der Performance erzielt werden.rnIm zweiten Teil der Arbeit beschreiben wir einen von uns entworfenen parallelen, sampling- basierten Bewegungsplaner zur Behandlung hochkomplexer Probleme mit mehreren “narrow passages”. Das Verfahren arbeitet in zwei Phasen. Die grundlegende Idee ist hierbei, in der er- sten Planungsphase konzeptionell kleinere Fehler zuzulassen, um die Planungseffizienz zu erh ̈ohen und den resultierenden Pfad dann in einer zweiten Phase zu reparieren. Der hierzu in Phase I eingesetzte Planer basiert auf sogenannten Expansive Space Trees. Zus ̈atzlich haben wir den Planer mit einer Freidru ̈ckoperation ausgestattet, die es erlaubt, kleinere Kollisionen aufzul ̈osen und so die Effizienz in Bereichen mit eingeschr ̈ankter Bewegungsfreiheit zu erh ̈ohen. Optional erlaubt unsere Implementierung den Einsatz von approximativen Kollisionstests. Dies setzt die Genauigkeit der ersten Planungsphase weiter herab, fu ̈hrt aber auch zu einer weiteren Perfor- mancesteigerung. Die aus Phase I resultierenden Bewegungspfade sind dann unter Umst ̈anden nicht komplett kollisionsfrei. Um diese Pfade zu reparieren, haben wir einen neuartigen Pla- nungsalgorithmus entworfen, der lokal beschr ̈ankt auf eine kleine Umgebung um den bestehenden Pfad einen neuen, kollisionsfreien Bewegungspfad plant.rnWir haben den beschriebenen Algorithmus mit einer Klasse von neuen, schwierigen Metall- Puzzlen getestet, die zum Teil mehrere “narrow passages” aufweisen. Unseres Wissens nach ist eine Sammlung vergleichbar komplexer Benchmarks nicht ̈offentlich zug ̈anglich und wir fan- den auch keine Beschreibung von vergleichbar komplexen Benchmarks in der Motion-Planning Literatur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tumorassoziierte Kohlenhydrat-Antigene werden von einer Vielzahl epithelialer Tumoren in erhöhtem Maße exprimiert und können sowohl als selektive Tumormarker, als auch als Zielstrukturen zur Entwicklung von synthetischen Krebsvakzinen dienen. Mucine, allen voran MUC1, sind hochgradig O-glycosylierte Zelloberflächenproteine, die im Fall maligner Zellen in deutlich überexprimierter Form mit charakteristisch veränderten Glycosylierungsmustern auftreten und somit vom Immunsystem erkannt werden können. Die relativ schwache Immunogenität und die geringe metabolische Stabilität dieser Glycopeptid-Epitope stehen jedoch der Entwicklung effizienter, auf Kohlenhydraten basierender Krebsvakzine entgegen.rnEin interessanter Ansatz, die Stabilität und Immunogenität der Vakzinbausteine zu erhöhen, ohne dabei deren Tumorspezifität nennenswert zu beeinträchtigen, stellt die Verwendung von modifizierten Glycopeptid-Konjugaten mit Kohlenhydratmimetika dar, z.B. basierend auf Fluor- und Carbazuckern. rnUm die Eignung solcher bislang unbekannter MUC1-Antigenanaloga als Vakzinbausteine zu untersuchen, konnten im Rahmen dieses Promotionsvorhabens Synthesen zu verschiedenen, modifizierten Antigen-Threonin-Konjugaten erarbeitet werden. Dabei konnte neben der erstmaligen Synthese eines in 6-Position fluorierten Carbazuckers auch ein 1→3 verknüpftes Carbadisaccharid synthetisiert werden. Zudem wurden mehrere Vertreter der in Position 6 bzw. 6‘ fluorierten TN, T und der beiden ST-Antigene dargestellt und über eine Festphasenpeptidsynthese in die aus 20 Aminosäuren bestehende tandem-repeat-Sequenz des MUC1 eingebaut. Eine anschließende Konjugation dieser Glycopeptide über einen nicht-immunogenen Spacer auf Triethylenglycol Basis an Carrierproteine wie BSA und das Tetanus Toxoid lieferte nicht nur potente Tumorvakzine, sondern auch die für die Durchführung von ELISA-Studien benötigten Glycopeptid-Konjugate. rnIn ersten ELISA und Neutralisationsexperimenten konnte gezeigt werden, dass bereits erhaltene Antikörper gegen strukturell sehr ähnliche Vakzine in der Lage sind, die neuartigen fluorierten Glycopeptide zu erkennen und an ihnen zu binden. Zusätzlich konnte erstmals in Impfstudien gezeigt werden, dass mit diesen neuen fluorierten Glycopeptid-TTox-Konjugaten nicht nur eine stakt toleranzbrechende humorale Immunantwort induziert werden kann, sondern auch dass diese MUC1 spezifischen Antikörper zudem in der Lage sind Brustkrebszellen der Linie MCF-7 zu erkennen und zu binden. rnrn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In vielen Industriezweigen, zum Beispiel in der Automobilindustrie, werden Digitale Versuchsmodelle (Digital MockUps) eingesetzt, um die Konstruktion und die Funktion eines Produkts am virtuellen Prototypen zu überprüfen. Ein Anwendungsfall ist dabei die Überprüfung von Sicherheitsabständen einzelner Bauteile, die sogenannte Abstandsanalyse. Ingenieure ermitteln dabei für bestimmte Bauteile, ob diese in ihrer Ruhelage sowie während einer Bewegung einen vorgegeben Sicherheitsabstand zu den umgebenden Bauteilen einhalten. Unterschreiten Bauteile den Sicherheitsabstand, so muss deren Form oder Lage verändert werden. Dazu ist es wichtig, die Bereiche der Bauteile, welche den Sicherhabstand verletzen, genau zu kennen. rnrnIn dieser Arbeit präsentieren wir eine Lösung zur Echtzeitberechnung aller den Sicherheitsabstand unterschreitenden Bereiche zwischen zwei geometrischen Objekten. Die Objekte sind dabei jeweils als Menge von Primitiven (z.B. Dreiecken) gegeben. Für jeden Zeitpunkt, in dem eine Transformation auf eines der Objekte angewendet wird, berechnen wir die Menge aller den Sicherheitsabstand unterschreitenden Primitive und bezeichnen diese als die Menge aller toleranzverletzenden Primitive. Wir präsentieren in dieser Arbeit eine ganzheitliche Lösung, welche sich in die folgenden drei großen Themengebiete unterteilen lässt.rnrnIm ersten Teil dieser Arbeit untersuchen wir Algorithmen, die für zwei Dreiecke überprüfen, ob diese toleranzverletzend sind. Hierfür präsentieren wir verschiedene Ansätze für Dreiecks-Dreiecks Toleranztests und zeigen, dass spezielle Toleranztests deutlich performanter sind als bisher verwendete Abstandsberechnungen. Im Fokus unserer Arbeit steht dabei die Entwicklung eines neuartigen Toleranztests, welcher im Dualraum arbeitet. In all unseren Benchmarks zur Berechnung aller toleranzverletzenden Primitive beweist sich unser Ansatz im dualen Raum immer als der Performanteste.rnrnDer zweite Teil dieser Arbeit befasst sich mit Datenstrukturen und Algorithmen zur Echtzeitberechnung aller toleranzverletzenden Primitive zwischen zwei geometrischen Objekten. Wir entwickeln eine kombinierte Datenstruktur, die sich aus einer flachen hierarchischen Datenstruktur und mehreren Uniform Grids zusammensetzt. Um effiziente Laufzeiten zu gewährleisten ist es vor allem wichtig, den geforderten Sicherheitsabstand sinnvoll im Design der Datenstrukturen und der Anfragealgorithmen zu beachten. Wir präsentieren hierzu Lösungen, die die Menge der zu testenden Paare von Primitiven schnell bestimmen. Darüber hinaus entwickeln wir Strategien, wie Primitive als toleranzverletzend erkannt werden können, ohne einen aufwändigen Primitiv-Primitiv Toleranztest zu berechnen. In unseren Benchmarks zeigen wir, dass wir mit unseren Lösungen in der Lage sind, in Echtzeit alle toleranzverletzenden Primitive zwischen zwei komplexen geometrischen Objekten, bestehend aus jeweils vielen hunderttausend Primitiven, zu berechnen. rnrnIm dritten Teil präsentieren wir eine neuartige, speicheroptimierte Datenstruktur zur Verwaltung der Zellinhalte der zuvor verwendeten Uniform Grids. Wir bezeichnen diese Datenstruktur als Shrubs. Bisherige Ansätze zur Speicheroptimierung von Uniform Grids beziehen sich vor allem auf Hashing Methoden. Diese reduzieren aber nicht den Speicherverbrauch der Zellinhalte. In unserem Anwendungsfall haben benachbarte Zellen oft ähnliche Inhalte. Unser Ansatz ist in der Lage, den Speicherbedarf der Zellinhalte eines Uniform Grids, basierend auf den redundanten Zellinhalten, verlustlos auf ein fünftel der bisherigen Größe zu komprimieren und zur Laufzeit zu dekomprimieren.rnrnAbschießend zeigen wir, wie unsere Lösung zur Berechnung aller toleranzverletzenden Primitive Anwendung in der Praxis finden kann. Neben der reinen Abstandsanalyse zeigen wir Anwendungen für verschiedene Problemstellungen der Pfadplanung.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gegenstand meiner Arbeit ist das Bettpaneel von Ugarit und seine komplexe Ikonographie, die Motive unterschiedlicher künstlerischer Traditionen des Alten Orients vereint. Das Bettpaneel bietet die einmalige Gelegenheit, das gesamte Bildprogramm eines Möbels zu untersuchen und die Entwicklung des levantinischen Kunsthandwerks der Späten Bronzezeit (2. Hälfte des 2. Jt.s v. Chr.) besser zu verstehen, besonders in Bezug auf Prestigegüter. Bereits 1952 ist das Bettpaneel im Königspalast von Ugarit entdeckt, jedoch bisher noch nicht monographisch abhandelt worden.rnEs wird gezeigt, dass das Bettpaneel von Ugarit ein hervorragendes Erzeugnis des lokalen Kunsthandwerks ist, gleichzeitig aber die kontinuierliche Übernahme fremder Motive bezeugt.rnWelche Vorbilder haben diese Rezeption begünstigt? Handelte es sich dabei um bewusste Anpassung an heimische Vorstellungen oder vielmehr um getreue Wiedergabe? Warum ließen sich die ugaritischen Handwerker von fremden Kunsttraditionen inspirieren? rnDank der detaillierten Untersuchung des Bettpaneels von Ugarit lassen sich diese wesentlichen Fragen über die Mechanismen der sozialen und kulturellen Interaktionen zwischen den Zivilisationen des Ostmittelmeergebiets im 2 Jt.s v. Chr. endgültig antworten.