13 resultados para Bilder
em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha
Resumo:
Mit meiner Arbeit leistete ich einen Beitrag zur trockenen Synthese von MFI-Zeolithen und zeolithanalogen Materialien mit MFI-Struktur.Hierfür wurde zunächst ein den speziellen Reaktionsbedingungen der trockenen Synthese angepaßter Autoklav entwickelt, konstruiert und eingesetzt. Mit dem Autoklaven wurde ein Up-Scaling der trockenen Synthese im Rahmen von Al-MFI Synthesen um den Faktor 12 erfolgreich durchgeführt. Pulverdiffraktogramme und REM-Bilder belegten, daß nur geringe Unterschiede zwischen Produkten, die in 50 ml Reaktionsbehältern synthetisiert worden waren, und Produkten, die in 610 ml Reaktionsbehältern synthetisiert worden waren, bestanden. Der Druckaufnehmer des Autoklaven gestattete es, experimentell zu bestimmen, ob der Gesamtdruck während einer Reaktion unterhalb oder am Sättigungsdampfdruck von Wasser lag. Somit konnten trockene Synthesen durchgeführt werden, in deren Reaktionsverlauf garantiert keine wäßrige Phase auftrat. Al-MFI-Synthesen gelangen unter Ausschluß der Bildung einer wäßrigen Phase während der Reaktion. Weiterhin wurde eine chemische Versuchsanlage mit Gasreaktor als Kernstück konstruiert und eingesetzt. Ein Gasgemisch aus Siliziumtetrafluorid und Trimethylamin wurde mit einem wasserdampfgesättigten Stickstoffstrom zur Reaktion gebracht. Die Reaktionszeit war zwar wie gewünscht und erwartet kurz, führte aber nicht zu den mikroporösen Dodecasil 3C Kristallen. Trotzdem wurde mit dieser Arbeit ein erster Schritt in Richtung einer kontinuierlichen Gasphasensynthese von mikroporösen Materialien getan. Am Beispiel der MFI-Struktur wurde untersucht, inwieweit sich Silizium mittels der trockenen Synthese isomorph ersetzen ließ. Der isomorphe Ersatz durch Bor gelang und Titan wurde teilweise tetraedrisch in die MFI-Struktur eingebaut, während Aluminium oktaedrisch an- bzw. eingelagert wurde. Das hieß, daß die trockene Synthese gegenüber hydrothermalen Synthesen eine eingeschränkte Fähigkeit zum Einbau verschiedenster T-Atome besaß. Bis ins Jahr 1995 hing die Kristallinität der Produkte aus trockenen Synthesen von der Qualität einer Vorstufe ab, die experimentell nicht überprüft werden konnte. In meiner Arbeit fand ich zahlreiche Steuerungsparameter der trockenen Synthese hinsichtlich der Kristallinität heraus und machte sie damit kalkulierbar und robust. Außerdem wurde die erste abwasserfreie Synthese eines zeolith-analogen Materials entwickelt. Schließlich wurde der Mechanismus der trockenen Synthese diskutiert
Resumo:
Ein pathologischer Gastrooesophagealer Reflux (GÖR) tritt häufig bei Kindern mitBehinderung und nach einer Operation am Oesophagus auf wie zum Beispiel nach Korrektureiner Oesophagusatresie. Bei diesen Kindern ist eine medikamentöse Therapie überwiegendzum Scheitern verurteilt und eine Therapie wie die der Antirefluxoperation wird notwendig.In der vorliegenden Arbeit werden die 100 Kinder beschrieben, die mit derVerdachtsdiagnose GÖR in den Jahren 1983 bis 1998 vorgestellt wurden. 68 Kinderbenötigten eine Antirefluxoperation. Schwerpunktmäßig werden neurologisch behinderteKinder (85%), bei denen erwartungsgemäß häufig ein GÖR vorliegt, untersucht. Mitbesonderem Interesse werden dabei das Vorliegen und Zusammentreffen mehrerer GÖRprädisponierenderErkrankungen (Behinderung und Zustand nach Korrektur einerOesophagusatresie) untersucht, um Hinweise für eine mögliche Differenzierung prae- undpostoperativer Bilder des GÖR und seine Komplikationen zu gewinnen.Weiterhin werden Aussagen gewonnen bezüglich des Alters der Kinder zum Zeitpunkt desAuftretens der Symptome und zum Zeitpunkt der Operation. Diese werden ebenso wie dieZeiträume zwischen dem Auftreten der Symptome und der Diagnosenstellung, bzw. demOperationszeitpunkt mit den Aussagen in der Literatur verglichen.Ferner wird überprüft, ob sich für die einzelnen Personengruppen (Kinder mit cerebralen undmotorischen Retardierungen (85%), Kinder mit angeborener Oesophagusatresie (4%), Kindermit beiderlei GÖR-prädisponierender Erkrankungen (3%) und Kinder ohne prädisponierendeErkrankungen (8%)) differenzierte Aussagen finden.A pathological gastroesophageal reflux (GER) is often found in handicapped children andafter surgical treatment at the esophagus e. g. after correction of esophagusatresia. Here,medical treatment is often ineffective and an antireflux plasty is needed.In this study 100 children are examined, who had the suspected diagnosis of GER in the years1983 1998. 68 children needed a surgical treatment. The majority form the neurologicalhandicapped children (85%), who are predisposed to GER as expected.A special interest of the study is on the existence and coincidence of several GERpredisposingdiseases (disability and esophagusatresia), in order to get an indication forpossible differentiations of pre- and postoperative symptoms and complications of GER.Furthermore evidence is obtained on the age of the children, when the symptoms appearedfirst and when the operation took place. These data and the period of time between theappearence of symptoms and the time of diagnosis and operation are compared with theinformation given in the literature.Moreover the different evidences between the four groups (children with cerebral andmotorial retardation (85%), children with congenital esophagusatresia (4%), children withboth (3%) and children without GER-predisposing diseases (8%)) are analysed.
Resumo:
Ziel war die Entwicklung und Erprobung von Varianten des emotionalen Strooptests zur Analyse angstbezogener Aufmerksamkeitsprozesse bei Grundschulkindern. Dabei wurde überprüft, ob dieses kognitiv-experimentelle Verfahren zukünftig als objektives Testverfahren zur Diagnostik von Ängstlichkeit im Kindesalter geeignet ist. Ausgangspunkt waren zahlreiche Befunde für die Gruppe Erwachsener, wonach die Zuwendung auf bedrohliche Situationsmerkmalen für Ängstliche charakteristisch ist. Für das Kindesalter liegen hierzu nur wenige Studien mit zudem inkonsistenten Befundmuster vor. In insgesamt drei Studien wurde der emotionale Strooptest für das Grundschulalter adaptiert, indem Bilder bzw. altersentsprechendes Wortmaterial als Stimuli eingesetzt wurden. An den Studien nahmen nicht-klinische, nicht-ausgelesene Stichproben mit Kindern der zweiten bis vierten Grundschulklassen teil. Sowohl Ängstlichkeit als auch Zustandsangst der Kinder wurden jeweils über Selbst- und Fremdeinschätzungen (Eltern, Klassenlehrer, Versuchsleiter) erhoben. Die Ergebnisse sprechen für eine nur unzureichende Reliabilität emotionaler Interferenzeffekte. Auch ergaben sich (möglichenfalls infolge) keine substantiellen Hinweise auf differentielle angstbezogene Interferenzeffekte. Die Befunde sprechen vielmehr dafür, dass alle Kinder unabhängig von der Ängstlichkeit höhere Benennungszeiten für bedrohliche Stimuli im Vergleich zur Kontrollbedingung mit neutralen oder freundlichen Stimuli zeigten, wobei zugleich methodische Einflussfaktoren des Strooptests von Relevanz waren. Die Diskussion konzentriert sich auf entwicklungspsychologische Überlegungen sowie mögliche Bedingungen emotionaler Interferenzeffekte unter kritischer Berücksichtigung der Reliabilität emotionaler Stroopinterferenz.
Resumo:
A series of oligo-phenylene dendronised conjugated polymers was prepared. The divergent synthetic approach adopted allowed for the facile synthesis of a range of dendronised monomers from a common intermediate, e.g. first and second generation fluorene. Only the polymerisation of the first generation and alkylarylamine substituted dendronised fluorene monomers yielded high molecular weight materials, attributed to the low solubility of the remaining dendronised monomers. The alkylarylamine substituted dendronised poly(fluorene) was incorporated into an organic light emitting diode (OLED) and exhibited an increased colour stability in air compared to other poly(fluorenes). The concept of dendronisation was extended to poly(fluorenone), a previously insoluble material. The synthesis of the first soluble poly(fluorenone) was achieved by the incorporation of oligo-phenylene dendrons at the 4-position of fluorenone. The dendronisation of fluorenone allowed for a polymer with an Mn of 4.1 x 104 gmol-1 to be prepared. Cyclic voltammetry of the dendronised poly(fluorenone) showed that the electron affinity of the polymer was high and that the polymer is a promising n-type material. A dimer and trimer of indenofluorene (IF) were prepared from the monobromo IF. These oligomers were investigated by 2-dimensional wide angle x-ray spectroscopy (2D-WAXS), polarised optical microscopy (POM) and dielectric spectroscopy, and found to form highly ordered smetic phases. By attaching perylene dye as the end-capper on the IF oligomers, molecules that exhibited efficient Förster energy transfer were obtained. Indenofluorene monoketone, a potential defect structure for IF based OLED’s, was synthesised. The synthesis of this model defect structure allowed for the long wavelength emission in OLED’s to be identified as ketone defects. The long wavelength emission from the indenofluorene monoketone was found to be concentration dependent, and suggests that aggregate formation is occurring. An IF linked hexa-peri-hexabenzocoronene (HBC) dimer was synthesised. The 2D-WAXS images of this HBC dimer demonstrate that the molecule exhibits intercolumnar organisation perpendicular to the extrusion direction. POM images of mixtures of the HBC dimer mixed with an HBC with a low isotropic temperature demonstrated that the HBC dimer is mixing with the isotropic HBC.
Resumo:
Hochgeladene semiflexible kationische und anionische Polyelektrolyte wurden mit niedermolekularen Tensiden zu Polyelektrolyt-Tensid-Komplexen (PETK) umgesetzt und in organischen Lösungsmitteln mit Streumethoden und Rasterkraftmikroskopie charakterisiert. Die synthetisierten PETK wurden anschließend, mit dem Ziel einer strukturkontrollierten Komplexbildung, für die Bildung von Interpolyelektrolytkomplexen (IPEK) in organischen Lösungsmitteln verwendet und anhand ihres Komplexbildungsverhaltens mit wässrigen Systemen verglichen. Die Umsetzung von zylindrischen Polymerbürsten mit Poly(styrolsulfonat)-, bzw. Poly(2-vinylpyridinium)-Seitenketten mit entgegengesetzt geladenen Tensiden verlief, trotz einer Graftingdichte von eins, quantitativ. Mit Streumethoden konnte gezeigt werden, dass die gebildeten PETK in Lösung als molekulare Zylinder vorliegen. Die Synthese von pUC19-DNA-Tensidkomplexen (DNA-TK), die sich in Alkoholen gut lösen, ist nur in stark basischer Lösung gelungen. Während der Charakterisierung der DNA-TK mit Streumethoden zeigte sich eine starke Abhängigkeit des Trägheitsradius von dem Verhältnis DNA-/Salz+. Die Bildung von IPEK aus hochgeladenen Polyelektrolyt-Bürsten bzw. PETK-Bürsten wurde an verschiedenen Beispielen in Wasser und DMF durchgeführt und mit Streumethoden verfolgt. Alle Systeme zeigten ein zu der IPEK-Bildung von linearen Polyelektrolyten analoges Komplexbildungsverhalten. Bei der Komplexierung von Poly(styrolsulfonat)-Bürsten-Tensidkomplexen mit kommerziellen Polyamidoamin-G5-Dendrimeren (PAMAM) oder Poly(ethylenoxid) modifizierten Poly(ethylenimin)-Bürsten hingegen wurden über den gesamten Gewichtsbruchbereich mit Streumethoden und AFM zylindrische Aggregate gefunden, die den Dimensionen der Poly(styrolsulfonat)-Bürsten-Tensidkomplexe entsprechen. Durch statistische Höhenanalyse der AFM-Bilder wurde ein linearer Zusammenhang zwischen der Komplexhöhe und dem Gewichtsbruch an PAMAM, bzw. PEI-PEO gefunden, der auf die Zunahme der Molmasse der Komplexe durch Wachstum entlang des Zylinderdurchmessers hindeutet. Die Bildung von Aggregaten, mit mehr als einem Polyanion, wurde nicht beobachtet.
Resumo:
Die chronisch obstruktive Lungenerkrankung (engl. chronic obstructive pulmonary disease, COPD) ist ein Überbegriff für Erkrankungen, die zu Husten, Auswurf und Dyspnoe (Atemnot) in Ruhe oder Belastung führen - zu diesen werden die chronische Bronchitis und das Lungenemphysem gezählt. Das Fortschreiten der COPD ist eng verknüpft mit der Zunahme des Volumens der Wände kleiner Luftwege (Bronchien). Die hochauflösende Computertomographie (CT) gilt bei der Untersuchung der Morphologie der Lunge als Goldstandard (beste und zuverlässigste Methode in der Diagnostik). Möchte man Bronchien, eine in Annäherung tubuläre Struktur, in CT-Bildern vermessen, so stellt die geringe Größe der Bronchien im Vergleich zum Auflösungsvermögen eines klinischen Computertomographen ein großes Problem dar. In dieser Arbeit wird gezeigt wie aus konventionellen Röntgenaufnahmen CT-Bilder berechnet werden, wo die mathematischen und physikalischen Fehlerquellen im Bildentstehungsprozess liegen und wie man ein CT-System mittels Interpretation als lineares verschiebungsinvariantes System (engl. linear shift invariant systems, LSI System) mathematisch greifbar macht. Basierend auf der linearen Systemtheorie werden Möglichkeiten zur Beschreibung des Auflösungsvermögens bildgebender Verfahren hergeleitet. Es wird gezeigt wie man den Tracheobronchialbaum aus einem CT-Datensatz stabil segmentiert und mittels eines topologieerhaltenden 3-dimensionalen Skelettierungsalgorithmus in eine Skelettdarstellung und anschließend in einen kreisfreien Graphen überführt. Basierend auf der linearen System Theorie wird eine neue, vielversprechende, integral-basierte Methodik (IBM) zum Vermessen kleiner Strukturen in CT-Bildern vorgestellt. Zum Validieren der IBM-Resultate wurden verschiedene Messungen an einem Phantom, bestehend aus 10 unterschiedlichen Silikon Schläuchen, durchgeführt. Mit Hilfe der Skelett- und Graphendarstellung ist ein Vermessen des kompletten segmentierten Tracheobronchialbaums im 3-dimensionalen Raum möglich. Für 8 zweifach gescannte Schweine konnte eine gute Reproduzierbarkeit der IBM-Resultate nachgewiesen werden. In einer weiteren, mit IBM durchgeführten Studie konnte gezeigt werden, dass die durchschnittliche prozentuale Bronchialwandstärke in CT-Datensätzen von 16 Rauchern signifikant höher ist, als in Datensätzen von 15 Nichtrauchern. IBM läßt sich möglicherweise auch für Wanddickenbestimmungen bei Problemstellungen aus anderen Arbeitsgebieten benutzen - kann zumindest als Ideengeber dienen. Ein Artikel mit der Beschreibung der entwickelten Methodik und der damit erzielten Studienergebnisse wurde zur Publikation im Journal IEEE Transactions on Medical Imaging angenommen.
Resumo:
Auf der Suche nach dem „vulnerablen Plaque“, der ein besonders hohes Risiko für Schlaganfall und Herzinfarkt besitzt, findet momentan ein Paradigmenwechsel statt. Anstelle des klassischen Stenosegrades gewinnt die Darstellung der Plaquemorphologie zunehmend an Bedeutung. Fragestellung: Ziel dieser Arbeit ist es, die Fähigkeiten eines modernen 16-Kanal-CT hinsichtlich der Auflösung des Plaqueinneren bei Atherosklerose der Karotiden zu untersuchen und den Halo-Effekt in vivo zu erforschen. Methoden: Für die Studie wurden von 28 Patienten mit bekannter, symptomatischer Karotisstenose vor der gefäßchirurgischen Intervention CT-Bilder angefertigt, die nachfolgend mit der Histologie der Gefäßpräparate korreliert wurden. Auf diese Weise konnten die mikroskopisch identifizierten Lipidkerne im CT-Bild eingezeichnet und hinsichtlich ihrer Fläche und Dichtewerte evaluiert werden. In einem weiteren Schritt führten 2 Radiologen in Unkenntnis der histologischen Ergebnisse unabhängig voneinander eine Befundung durch und markierten mutmaßliche Lipidkerne. Zudem wurden sowohl in der verblindeten als auch in der histologiekontrollierten Auswertung die Plaquetypen anhand der AHA-Klassifikation bestimmt. Ein dritter Befundungsdurchgang geschah unter Zuhilfenahme einer von uns entwickelten Software, die CT-Bilder farbkodiert um die Detektion der Lipidkerne zu verbessern. Anhand der Farbkodierung wurde zudem ein Indexwert errechnet, der eine objektive Zuordnung zur AHA-Klassifikation ermöglichen sollte. Von 6 Patienten wurde zusätzlich noch eine native CT-Aufnahme angefertigt, die durch MPR exakt an die Kontrastmittelserie angeglichen wurde. Auf diese Weise konnte der Halo-Effekt, der die Plaqueanteile im lumennahen Bereich überstrahlt, quantifiziert und charakterisiert werden. Ergebnisse: Während die Einstufung in die AHA-Klassifikation sowohl durch den Befunder als auch durch den Softwarealgorithmus eine hohe Korrelation mit der Histologie aufweist (Typ IV/Va: 89 %, Typ Vb: 70 %, Typ Vc: 89 %, Typ VI: 55 %), ist die Detektion der Lipidkerne in beiden Fällen nicht ausreichend gut und die Befunderabhängigkeit zu groß (Cohens Kappa: 18 %). Eine Objektivierung der AHA-Klassifikation der Plaques durch Indexberechnung nach Farbkodierung scheint möglich, wenn auch dem Befunder nicht überlegen. Die fibröse Kappe kann nicht abgegrenzt werden, da Überstrahlungseffekte des Kontrastmittels dessen HU-Werte verfälschen. Dieser Halo-Effekt zeigte sich im Median 1,1 mm breit mit einer Standardabweichung von 0,38 mm. Eine Abhängigkeit von der Kontrastmitteldichte im Gefäßlumen konnte dabei nicht nachgewiesen werden. Der Halo-Effekt fiel im Median um -106 HU/mm ab, bei einer Standardabweichung von 33 HU/mm. Schlussfolgerung: Die CT-Technologie zeigt sich, was die Darstellung von einzelnen Plaquekomponenten angeht, den bekannten Fähigkeiten der MRT noch unterlegen, insbesondere in Bezug auf die fibröse Kappe. Ihre Fähigkeiten liegen bisher eher in der Einstufung von Plaques in eine grobe Klassifikation, angelehnt an die der AHA. Die klinische Relevanz dessen jedoch gilt es in Zukunft in größeren Studien weiter zu untersuchen. Auch lässt die Weiterentwicklung der Computertomographie auf eine zukünftig höhere Auflösung der Plaquemorphologie hoffen.
Resumo:
Für diese Arbeit wurden sechs neue Benzodiazepinderivate, TC07, TC08, TC09, TC10, TC11 und TC12, hergestellt. Diese wurden mittels Radioligandenbindungsassay sowohl auf ihre Bindungseigenschaften für Membranen des Cerebellum, des Hippo-campus und des Cortex der Ratte hin untersucht, als auch für Membranen von HEK293 Zellen, die transient rekombinante GABAA Rezeptoren exprimierten. Zusätz-lich wurden kompetitive in situ Rezeptorautoradiographien an Rattenhirnschnitten mit den Liganden [3H]Ro15-4513 und [3H]R015-1788 durchgeführt. Zusammen ergaben sich aus diesen Experimenten deutliche Hinweise auf eine Selektivität der Verbindun-gen TC07, TC11 und TC12 für a5-Untereinheiten enthaltende GABAA Rezeptoren mit a5-Affinitäten im niedrigen nanomolaren Bereich. In vivo Bindungsexperimente in Ratten, mit [3H]Ro15-1788 als Tracer und TC07 als Kompetitor, ergaben, dass TC07 mehr [3H]Ro15-1788 im Vorderhirn als im Cerebellum verdrängt. Bezog man die regionale Verteilung der a5-Untereinheit des GABAA Rezep-tors im Rattenhirn mit ein – sehr wenige a5-Untereinheiten im Cerebellum, etwa 20 % der GABAA Rezeptor-Untereinheiten im Hippocampus – untermauerten diese Ergeb-nisse die Vermutung, TC07 könne a5-selektiv sein. Diese Daten bestätigten darü-berhinaus, dass TC07 die Blut-Hirn-Schranke passieren kann. Für elektrophysiologische Messungen mit TC07 und TC12 wurden die oben erwähnten transient transfizierten HEK293 Zellen verwendet, welche die GABAA Rezeptor Unte-reinheitenkombination a5b3g2 exprimierten. Das Dosis-Antwort Verhalten ergab keinen signifikanten Effekt für TC12. Die Daten von TC07 dagegen lassen auf einen schwach negativ modulatorischen Effekt schließen, was, zumindest theoretisch, die Möglichkeit eröffnet, TC07 auch als sogenannten cognitive enhancer einzusetzen. Der errechnete Ki-Wert lag in derselben Größenordnung wie der Ki-Wert, der anhand der Bindungsas-saydaten errechnet wurde. Insgesamt rechtfertigen die bisherigen Ergebnisse die radiochemische Markierung mit 18F von drei der sechs getesteten Verbindungen in der Reihenfolge TC07, TC12 und TC11. Des Weiteren wurde [18F]MHMZ, ein potentiell 5-HT2A selektiver Ligand und PET-Tracer einschließlich Vorläufer und Referenzverbindungen, mit hohen Ausbeuten syn-thetisiert (Herth, Debus et al. 2008). Autoradiographieexperimente mit Rattenhirn-schnitten zeigten hervorragende in situ Bindungseigenschaften der neuen Verbindung. Die Daten wiesen eine hohe Selektivität für 5-HT2A Rezeptoren in Verbindung mit einer niedrigen unspezifischen Bindung auf. [18F]MHMZ erfährt in vivo eine schnelle Metabo-lisierung, wobei ein polarer aktiver Metabolit entsteht, welcher vermutlich nicht die Blut-Hirn-Schranke passieren kann. Transversale, sagittale und coronale Kleintier-PET-Bilder des Rattenhirns zeigten eine hohe Anreicherung im frontalen Cortex und im Striatum, während im Cerebellum so gut wie keine Anreicherung festzustellen war. Diese Verteilung deckt sich mit der bekann-ten Verteilung der 5-HT2A Rezeptoren. Die in vivo Anreicherung scheint sich ebenfalls gut mit der Verteilung der in den Autoradiographieexperimenten gemessenen Bindung zu decken. Nach Berechnungen mit dem 4-Parameter Referenzgewebe Modell beträgt das Bindungspotential (BP) für den frontalen Cortex 1,45. Das Cortex zu Cerebellum Verhältnis wurde auf 2,7 nach 30 Minuten Messzeit bestimmt, was bemerkenswert nah an den von Lundkvist et al. für [11C]MDL 100907 publizierten Daten liegt. Abgesehen von der etwas niedrigeren Affinität waren die gemessenen in vitro, in situ und in vivo Daten denen von [3H]MDL 100907 und [11C]MDL 100907 sehr ähnlich, so dass wir ein [18F]Analogon in der Hand haben, das die bessere Selektivität von MDL 100907 verglichen mit Altanserin mit der längeren Halbwertszeit und den besse-ren Eigenschaften für die klinische Routine von 18F verglichen mit 11C verbindet. Die Ergebnisse von [18F]MHMZ rechtfertigenden weitere Experimente, um diesen Liganden für die klinische Routine am Menschen nutzbar zu machen.
Resumo:
In this thesis, elemental research towards the implantation of a diamond-based molecular quantum computer is presented. The approach followed requires linear alignment of endohedral fullerenes on the diamond C(100) surface in the vicinity of subsurface NV-centers. From this, four fundamental experimental challenges arise: 1) The well-controlled deposition of endohedral fullerenes on a diamond surface. 2) The creation of NV-centers in diamond close to the surface. 3) Preparation and characterization of atomically-flat diamondsurfaces. 4) Assembly of linear chains of endohedral fullerenes. First steps to overcome all these challenges were taken in the framework of this thesis. Therefore, a so-called “pulse injection” technique was implemented and tested in a UHV chamber that was custom-designed for this and further tasks. Pulse injection in principle allows for the deposition of molecules from solution onto a substrate and can therefore be used to deposit molecular species that are not stable to sublimation under UHV conditions, such as the endohedral fullerenes needed for a quantum register. Regarding the targeted creation of NV-centers, FIB experiments were carried out in cooperation with the group of Prof. Schmidt-Kaler (AG Quantum, Physics Department, Johannes Gutenberg-Universität Mainz). As an entry into this challenging task, argon cations were implanted into (111) surface-oriented CaF2 crystals. The resulting implantation spots on the surface were imaged and characterized using AFM. In this context, general relations between the impact of the ions on the surface and their valency or kinetic energy, respectively, could be established. The main part of this thesis, however, is constituted by NCAFM studies on both, bare and hydrogen-terminated diamond C(100) surfaces. In cooperation with the group of Prof. Dujardin (Molecular Nanoscience Group, ISMO, Université de Paris XI), clean and atomically-flat diamond surfaces were prepared by exposure of the substrate to a microwave hydrogen plasma. Subsequently, both surface modifications were imaged in high resolution with NC-AFM. In the process, both hydrogen atoms in the unit cell of the hydrogenated surface were resolved individually, which was not achieved in previous STM studies of this surface. The NC-AFM images also reveal, for the first time, atomic-resolution contrast on the clean, insulating diamond surface and provide real-space experimental evidence for a (2×1) surface reconstruction. With regard to the quantum computing concept, high-resolution NC-AFM imaging was also used to study the adsorption and self-assembly potential of two different kinds of fullerenes (C60 and C60F48) on aforementioned diamond surfaces. In case of the hydrogenated surface, particular attention was paid to the influence of charge transfer doping on the fullerene-substrate interaction and the morphology emerging from self-assembly. Finally, self-assembled C60 islands on the hydrogen-terminated diamond surface were subject to active manipulation by an NC-AFM tip. Two different kinds of tip-induced island growth modes have been induced and were presented. In conclusion, the results obtained provide fundamental informations mandatory for the realization of a molecular quantum computer. In the process it was shown that NC-AFM is, under proper circumstances, a very capable tool for imaging diamond surfaces with highest resolution, surpassing even what has been achieved with STM up to now. Particular attention was paid to the influence of transfer doping on the morphology of fullerenes on the hydrogenated diamond surface, revealing new possibilities for tailoring the self-assembly of molecules that have a high electron affinity.
Resumo:
Der technische Fortschritt konfrontiert die medizinische Bildgebung wie keine andere Sparte der Medizin mit einem rasanten Anstieg zu speichernder Daten. Anschaffung, Wartung und Ausbau der nötigen Infrastruktur entwickeln sich zunehmend zu einem ökonomischen Faktor. Ein Verfahren, welches diesem Trend etwas entgegensetzten könnte ist die irreversible Bilddatenkompression. Sie ist seit über 10 Jahren Gegenstand vieler Studien, deren Ergebnisse sich wiederum in Empfehlungen zum Einsatz irreversibler Kompression mehrerer nationaler und internationaler Organisation, wie CAR, DRG, RCR und ESR wiederspiegeln. Tenor dieser Empfehlungen ist, dass der Einsatz von moderater irreversibler Bilddatenkompression sicher und sinnvoll ist. Teil dieser Empfehlungen sind auch Angaben über das Maß an Kompression, ausgedrückt in Kompressionsraten, welche je nach Untersuchung und anatomischer Region als sicher anwendbar gelten und keinen diagnostisch relevanten Verlust der komprimierten Bilder erzeugen.rnVerschiedene Kompressionsalgorithmen wurden vorgeschlagen. Letztendlich haben sich vor allem die beiden weit verbreiteten Algorithmen JPEG und JPEG2000 bewährt. Letzterer erfährt in letzter Zeit zunehmen Anwendung, aufgrund seiner einfacheren Handhabung und seiner umfangreichen Zusatzfunktionen.rnAufgrund rechtlich-ethischer Bedenken hat die irreversible Kompression keine breite praktische Anwendung finden können. Dafür verantwortlich ist unter anderem auch die Unklarheit, wie sich irreversible Kompression auf Nach- und Weiterverarbeitung (sog. Postprocessing) medizinischer Bilder, wie Segmentierung, Volumetrie oder 3D-Darstellung, auswirkt. Bisherige Studien zu diesem Thema umfassen vier verschiedene Postprocessing-Algorithmen. Die untersuchten Algorithmen zeigten sich bei verlustbehafteter Kompression im Bereich der erwähnten, publizierten Kompressionsraten weitgehend unbeeinflusst. Lediglich die computergestützte Messung von Stenosegraden in der digitalen Koronarangiographie kollidiert mit den in Großbritannien geltenden Empfehlungen. Die Verwendung unterschiedlicher Kompressionsalgorithmen schränkt die allgemeinernAussagekraft dieser Studienergebnisse außerdem ein.rnZur Erweiterung der Studienlage wurden vier weitere Nach- und Weiterverarbeitungsalgorithmen auf ihre Kompressionstoleranz untersucht. Dabei wurden die Kompressionsraten von 8:1, 10:1 und 15:1 verwendet, welche um die empfohlenen Kompressionsraten von CAR, DRG, RCR und ESR liegen und so ein praxisnahes Setting bieten. Als Kompressionsalgorithmus wurde JPEG2000 verwendet, aufgrund seiner zunehmenden Nutzung in Studien sowie seiner bereits erwähnten Vorzüge in Sachen Handhabung und Zusatzfunktionen. Die vier Algorithmen umfassten das 3D-Volume rendering von CT-Angiographien der Becken-Bein-Gefäße, die Computer-assistierte Detektion von Lungenrundherden, die automatisierte Volumetrie von Leberrundherden und die funktionelle Bestimmung der Ejektionsfraktion in computertomographischen Aufnahmen des Herzens.rnAlle vier Algorithmen zeigten keinen Einfluss durch irreversibler Bilddatenkompression in denrngewählten Kompressionsraten (8:1, 10:1 und 15:1). Zusammen mit der bestehenden Literatur deuten die Ergebnisse an, dass moderate irreversible Kompression im Rahmen aktueller Empfehlungen keinen Einfluss auf Nach- und Weiterverarbeitung medizinischer Bilder hat. Eine explizitere Vorhersage zu einem bestimmten, noch nicht untersuchten Algorithmus ist jedoch aufgrund der unterschiedlichen Funktionsweisen und Programmierungen nicht sicher möglich.rnSofern ein Postprocessing Algorithmus auf komprimiertes Bildmaterial angewendet werden soll, muss dieser zunächst auf seine Kompressionstoleranz getestet werden. Dabei muss der Test eine rechtlich-ethische Grundlage für den Einsatz des Algorithmus bei komprimiertem Bildmaterial schaffen. Es sind vor allem zwei Optionen denkbar, die Testung institutsintern, eventuell unter Zuhilfenahme von vorgefertigten Bibliotheken, oder die Testung durch den Hersteller des Algorithmus.
Resumo:
Der Free Fatty Acid Receptor 1 (FFAR1) ist ein G-Protein gekoppelter Rezeptor, welcher neben einer hohen Expression im Gehirn auch eine verstärkte Expressionsrate auf den β-Zellen des Pankreas aufweist. Diese Expressionsmuster machen ihn zu einem idealen Target für die Visualisierung der sogenannten β-Zell-Masse mittels molekularer bildgebender Verfahren wie der PET. Eine Entwicklung geeigneter Radiotracer für die β-Zell-Bildgebung würde sowohl für die Diagnostik als auch für die Therapie von Typ-1- und Typ-2-Diabetes ein wertvolles Hilfsmittel darstellen.rnAufbauend auf einem von Sasaki et al. publiziertem Agonisten mit einem vielversprechendem EC50-Wert von 5,7 nM wurden dieser Agonist und zwei weitere darauf basierende 19F-substituierte Moleküle als Referenzverbindungen synthetisiert (DZ 1-3). Für die 18F-Markierung der Moleküle DZ 2 und DZ 3 wurden die entsprechenden Markierungsvorläufer (MV 1-3) synthetisiert und anschließend die Reaktionsparameter hinsichtlich Temperatur, Lösungsmittel, Basensystem und Reaktionszeit für die nukleophile n.c.a. 18F-Fluorierung optimiert. Die abschließende Entschützung zum fertigen Radiotracer wurde mit NaOH-Lösung durchgeführt und die Tracer injektionsfertig in isotonischer NaCl-Lösung mit radiochemischen Ausbeuten von 26,9 % ([18F]DZ 2) und 39 % ([18F]DZ 3) erhalten.rnZusätzlich wurde ein Chelator zur 68Ga-Markierung an den Liganden gekoppelt (Verb. 46) und die Markierungsparameter optimiert. Nach erfolgter Markierung mit 95 % radiochemischer Ausbeute, wurde der Tracer abgetrennt und in vitro Stabilitätsstudien durchgeführt. Diese zeigten eine Stabilität von mehr als 90 % über 120 min in sowohl humanem Serum (37 °C) als auch isotonischer NaCl-Lösung.rnMit einem ebenfalls synthetisierten fluoreszenzmarkierten Derivat des Liganden (Verb. 43) wurden erste LSM-Bilder an sowohl Langerhansschen Inseln als auch FFAR1-tragenden RIN-M Zellen durchgeführt, welche einen vielversprechenden Uptake des neuen Liganden in die Zellen zeigen. Weitere Untersuchungen und biologische Evaluierungen stehen noch aus. Mit den Referenzsubstanzen wurden zusätzlich Vitalitätsstudien an Langerhansschen Inseln durchgeführt, um einen negativen toxischen Einfluss auszuschließen.rn
Resumo:
Durch die massenmediale Zunahme von statischen und bewegten Bilder im Laufe des letzten Jahrhunderts vollzieht sich unsere lebensweltliche Wirklichkeitskonstruktion zu Beginn des 21. Jahrhunderts zunehmend über Visualisierungen, die mit den neuen Formen der Digitalisierung noch an Dynamik zunehmen werden. Mit diesen omnipräsenten visuell-medialen Repräsentationen werden meist räumliche Vorstellungen transportiert, denn Räume werden vor allem über Bilder konstruiert. Diese Bildräume zirkulieren dabei nicht als singuläre Bedeutungszuschreibungen, sondern sind in sprachliche und bildliche Diskurse eingebettet. Visuell-mediale Bild-Raum-Diskurse besitzen zunehmend die Fähigkeit, unser Wissen über und unsere Wahrnehmung von Räumen zu kanalisieren und auf stereotype Raumstrukturen zu reduzieren. Dabei verfestigt sich eine normative Ordnung von bestimmten machtvollen Bildräumen, die nicht genügend kritisch hinterfragt werden. Deshalb ist es für die Geographie von entscheidender Wichtigkeit, mediale Raumkonstruktio- nen, ihre Einbettung in diskursive Bildarchive und ihre essentialistische und handlungspraktische gesellschaftliche Wirkung zu verstehen.rnLandschaften können vor diesem Hintergrund als visuell-medial transportierte Bild-Raum-Diskurse konzeptionalisiert werden, deren gesellschaftliche Wirkmächtigkeit mit Hilfe einer visuell ausgerichteten Diskursanalyse hinterfragt werden sollte. Auf Grundlage einer zeichentheoretischen Ikonologie wurde eine Methodik entwickelt, die visuell ausgerichtete Schrift-Bild-Räume angemessen analysieren kann. Am Beispiel der Inszenierung des Mittelrheintals, wurde, neben einer diachronischen Strukturanalyse der diskursrelevanten Medien (Belletristik, Malerei, Postkarten, Druckgrafiken und Fotografien), eine Feinanalyse der fotografischen „Rheinlandschaften“ von August Sander der 1930er Jahre durchgeführt. Als Ergebnis zeigte sich, dass der Landschaftsdiskurs über das Mittelrheintal immer noch durch die gegenseitige Durchdringung der romantischen Literatur und Malerei in der ersten Hälfte des 19. Jahrhunderts und die historischen Fotografien in den ersten Jahrzehnten des 20. Jahrhunderts bestimmt ist, nicht zuletzt forciert durch die Ernennung zum UNESCO-Welterbe 2002. Der stark visuell ausgerichtete Landschaftsdiskurs trägt somit zum einen positiv konnotierte, romantisch-pittoreske Züge, die die Einheit von Mensch und Natur symbolisieren, zum anderen historisch-konservatorische Züge, die eine Mythifizierung zu einer gewachsenen, authentischen Kulturlandschaft evozieren.
Resumo:
Der Orient als geographischer Topos paust sich durch populäre Medien wie kaum ein anderer. Besonders das Kino vermag es diese Imagination aufscheinen zu lassen. Der cineastisch-imaginierte Orient existiert parallel zur Lebenswelt und konstituiert auf diese Weise eine ganz eigene Wirklichkeit. Gegenstand der Arbeit ist es die Konstruktionsprinzipien des cineastischen Orients zu entschlüsseln sowie eine dafür geeignete Analyseform zu entwickeln. Der Arbeit liegt ein Grundverständnis zugrunde, dass das Unterhaltungskino als ein besonderes Medium alltäglicher Imaginationen betrachtet und auf diese Weise Welt und Wirklichkeit generierend ist. Der empirisch-analytische Teil der Arbeit entwickelt aus tradiertem filmanalytischem Handwerkszeug eine geographische Filmlektüre. Die Analyse, bzw. Lektüre, der ausgewählten Filme durchleuchtet die vom Kino transportierten Mythen und die sich wiederholenden Narrative des cineastischen Orients. Die Lektüre orientiert sich dabei an visuellen und handlungszentrierten filmischen Topoi und liest diese als filmische Standardorte. Zudem werden existierende personengebundene Stereotype herausgearbeitet, die als Grundlage der Kreation des Anderen und als Konstruktionsprinzip des Fremden verstanden werden. Diese haben Konsequenzen für eine filmisch kommunizierte und geschaffene populäre Geopolitik und ermöglichen ein Verständnis der diskursiv-gesellschaftlichen Strukturen der Filme. Die innere Logik des cineastischen Orients ist dabei nicht nur auf Bilder oder nur auf die narrativen Elemente ausgerichtet, sondern erschließt sich aus deren Kombination. Die detaillierte Lektüre der in den Kommunikations-Prozess involvierten Sequenzen und Einstellungen zeigen schließlich, wie die globalen Bilderwelten des Kinos zum Bestandteil einer intermedial hervorgebrachten und im Laufe der Zeit gewachsenen Geographie geworden sind und welche Bedeutung und Funktion die filmimmanente Geographie für die Dramaturgie des cineastischen Orients besitzt.