134 resultados para Verbesserung


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Obwohl die funktionelle Magnetresonanztomographie (fMRI) interiktaler Spikes mit simultaner EEG-Ableitung bei Patienten mit fokalen Anfallsleiden seit einigen Jahren zur Lokalisation beteiligter Hirnstrukturen untersucht wird, ist sie nach wie vor eine experimentelle Methode. Um zuverlässig Ergebnisse zu erhalten, ist insbesondere die Verbesserung des Signal-zu-Rausch-Verhältnisses in der statistischen Bilddatenauswertung von Bedeutung. Frühere Untersuchungen zur sog. event-related fMRI weisen auf einen Zusammenhang zwischen Häufigkeit von Einzelreizen und nachfolgender hämodynamischer Signalantwort in der fMRI hin. Um einen möglichen Einfluss der Häufigkeit interiktaler Spikes auf die Signalantwort nachzuweisen, wurden 20 Kinder mit fokaler Epilepsie mit der EEG-fMRI untersucht. Von 11 dieser Patienten konnten die Daten ausgewertet werden. In einer zweifachen Analyse mit dem Softwarepaket SPM99 wurden die Bilddaten zuerst ausschließlich je nach Auftreten interiktaler Spikes der „Reiz“- oder „Ruhe“-Bedingung zugeordnet, unabhängig von der jeweiligen Anzahl der Spikes je Messzeitpunkt (on/off-Analyse). In einem zweiten Schritt wurden die „Reiz“- Bedingungen auch differenziert nach jeweiliger Anzahl einzelner Spikes ausgewertet (häufigkeitskorrelierte Analyse). Die Ergebnisse dieser Analysen zeigten bei 5 der 11 Patienten eine Zunahme von Sensitivität und Signifikanzen der in der fMRI nachgewiesenen Aktivierungen. Eine höhere Spezifität konnte hingegen nicht gezeigt werden. Diese Ergebnisse weisen auf eine positive Korrelation von Reizhäufigkeit und nachfolgender hämodynamischer Antwort auch bei interiktalen Spikes hin, welche für die EEG-fMRI nutzbar ist. Bei 6 Patienten konnte keine fMRI-Aktivierung nachgewiesen werden. Mögliche technische und physiologische Ursachen hierfür werden diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The central aim of this thesis work is the application and further development of a hybrid quantum mechanical/molecular mechanics (QM/MM) based approach to compute spectroscopic properties of molecules in complex chemical environments from electronic structure theory. In the framework of this thesis, an existing density functional theory implementation of the QM/MM approach is first used to calculate the nuclear magnetic resonance (NMR) solvent shifts of an adenine molecule in aqueous solution. The findings show that the aqueous solvation with its strongly fluctuating hydrogen bond network leads to specific changes in the NMR resonance lines. Besides the absolute values, also the ordering of the NMR lines changes under the influence of the solvating water molecules. Without the QM/MM scheme, a quantum chemical calculation could have led to an incorrect assignment of these lines. The second part of this thesis describes a methodological improvement of the QM/MM method that is designed for cases in which a covalent chemical bond crosses the QM/MM boundary. The development consists in an automatized protocol to optimize a so-called capping potential that saturates the electronic subsystem in the QM region. The optimization scheme is capable of tuning the parameters in such a way that the deviations of the electronic orbitals between the regular and the truncated (and "capped") molecule are minimized. This in turn results in a considerable improvement of the structural and spectroscopic parameters when computed with the new optimized capping potential within the QM/MM technique. This optimization scheme is applied and benchmarked on the example of truncated carbon-carbon bonds in a set of small test molecules. It turns out that the optimized capping potentials yield an excellent agreement of NMR chemical shifts and protonation energies with respect to the corresponding full molecules. These results are very promising, so that the application to larger biological complexes will significantly improve the reliability of the prediction of the related spectroscopic properties.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Therapeutisches Drug Monitoring (TDM) umfasst die Messung von Medikamentenspiegeln im Blut und stellt die Ergebnisse in Zusammenhang mit dem klinischen Erscheinungsbild der Patienten. Dabei wird angenommen, dass die Konzentrationen im Blut besser mit der Wirkung korrelieren als die Dosis. Dies gilt auch für Antidepressiva. Voraussetzung für eine Therapiesteuerung durch TDM ist die Verfügbarkeit valider Messmethoden im Labor und die korrekte Anwendung des Verfahrens in der Klinik. Ziel dieser Arbeit war es, den Einsatz von TDM für die Depressionsbehandlung zu analysieren und zu verbessern. Im ersten Schritt wurde für das neu zugelassene Antidepressivum Duloxetin eine hochleistungsflüssig-chromatographische (HPLC) Methode mit Säulenschaltung und spektrophotometrischer Detektion etabliert und an Patienten für TDM angewandt. Durch Analyse von 280 Patientenproben wurde herausgefunden, dass Duloxetin-Konzentrationen von 60 bis 120 ng/ml mit gutem klinischen Ansprechen und einem geringen Risiko für Nebenwirkungen einhergingen. Bezüglich seines Interaktionspotentials erwies sich Duloxetin im Vergleich zu anderen Antidepressiva als schwacher Inhibitor des Cytochrom P450 (CYP) Isoenzyms 2D6. Es gab keinen Hinweis auf eine klinische Relevanz. Im zweiten Schritt sollte eine Methode entwickelt werden, mit der möglichst viele unterschiedliche Antidepressiva einschließlich deren Metaboliten messbar sind. Dazu wurde eine flüssigchromatographische Methode (HPLC) mit Ultraviolettspektroskopie (UV) entwickelt, mit der die quantitative Analyse von zehn antidepressiven und zusätzlich zwei antipsychotischen Substanzen innerhalb von 25 Minuten mit ausreichender Präzision und Richtigkeit (beide über 85%) und Sensitivität erlaubte. Durch Säulenschaltung war eine automatisierte Analyse von Blutplasma oder –serum möglich. Störende Matrixbestandteile konnten auf einer Vorsäule ohne vorherige Probenaufbereitung abgetrennt werden. Das kosten- und zeiteffektive Verfahren war eine deutliche Verbesserung für die Bewältigung von Proben im Laboralltag und damit für das TDM von Antidepressiva. Durch Analyse des klinischen Einsatzes von TDM wurden eine Reihe von Anwendungsfehlern identifiziert. Es wurde deshalb versucht, die klinische Anwendung des TDM von Antidepressiva durch die Umstellung von einer weitgehend händischen Dokumentation auf eine elektronische Bearbeitungsweise zu verbessern. Im Rahmen der Arbeit wurde untersucht, welchen Effekt man mit dieser Intervention erzielen konnte. Dazu wurde eine Labor-EDV eingeführt, mit der der Prozess vom Probeneingang bis zur Mitteilung der Messergebnisse auf die Stationen elektronisch erfolgte und die Anwendung von TDM vor und nach der Umstellung untersucht. Die Umstellung fand bei den behandelnden Ärzten gute Akzeptanz. Die Labor-EDV erlaubte eine kumulative Befundabfrage und eine Darstellung des Behandlungsverlaufs jedes einzelnen Patienten inklusive vorhergehender Klinikaufenthalte. Auf die Qualität der Anwendung von TDM hatte die Implementierung des Systems jedoch nur einen geringen Einfluss. Viele Anforderungen waren vor und nach der Einführung der EDV unverändert fehlerhaft, z.B. wurden häufig Messungen vor Erreichen des Steady State angefordert. Die Geschwindigkeit der Bearbeitung der Proben war im Vergleich zur vorher händischen Ausführung unverändert, ebenso die Qualität der Analysen bezüglich Richtigkeit und Präzision. Ausgesprochene Empfehlungen hinsichtlich der Dosierungsstrategie der angeforderten Substanzen wurden häufig nicht beachtet. Verkürzt wurde allerdings die mittlere Latenz, mit der eine Dosisanpassung nach Mitteilung des Laborbefundes erfolgte. Insgesamt ist es mit dieser Arbeit gelungen, einen Beitrag zur Verbesserung des Therapeutischen Drug Monitoring von Antidepressiva zu liefern. In der klinischen Anwendung sind allerdings Interventionen notwendig, um Anwendungsfehler beim TDM von Antidepressiva zu minimieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Zeitraum von August 1999 bis September 2005 wurden 25 Patienten mit rezidivierenden Hörstürzen,bei denen die konservative Infusionstherapie versagt hatte,innerhalb von 7-10 Tagen zwei Rheopheresebehandlungen unterzogen. Die Behandlungsergebnisse wurden retrospektiv ausgewertet.Es zeigte sich eine Vollremission in 40% der Fälle und eine teilweise Erholung mit Verbesserung der Tonschwelle zwischen 10 und 24,3 dB im Durchschnitt in 28% der Fälle;keine Veränderung im Vergleich zum Ausgangsbefund zeigten 32% und eine Verschlechterung ergab sich in keinem der Fälle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Jahr 1989 markiert nicht nur den Beginn entscheidender geopolitischer Veränderungen, sondern gleichzeitig den Ursprung eines bedeutsamen Wandels in der internationalen Entwicklungszusammenarbeit. Mit der viel beachteten Studie ‚Sub-Saharan Africa – From Crisis to Sustainable Growth’ initiierte die Weltbank eine Debatte über die Relevanz institutioneller Faktoren für wirtschaftliche Entwicklung, die in den folgenden Jahren unter dem Titel ‚Good Governance’ erhebliche Bedeutung erlangte. Nahezu alle zentralen Akteure begannen, entsprechende Aspekte in ihrer praktischen Arbeit zu berücksichtigen, und entwickelten eigene Konzepte zu dieser Thematik. Wenn auch mit der Konzentration auf Institutionen als Entwicklungsdeterminanten eine grundlegende Gemeinsamkeit der Ansätze festzustellen ist, unterscheiden sie sich jedoch erheblich im Hinblick auf die Einbeziehung politischer Faktoren, so dass von einem einheitlichen Verständnis von ‚Good Governance’ nicht gesprochen werden kann. Während die meisten bilateralen Akteure sowie DAC und UNDP Demokratie und Menschenrechte explizit als zentrale Bestandteile betrachten, identifiziert die Weltbank einen Kern von Good Governance, der unabhängig von der Herrschaftsform, also sowohl in Demokratien wie auch in Autokratien, verwirklicht werden kann. Die Implikationen dieser Feststellung sind weit reichend. Zunächst erlaubt erst diese Sichtweise der Bank überhaupt, entsprechende Aspekte aufzugreifen, da ihr eine Berücksichtigung politischer Faktoren durch ihre Statuten verboten ist. Bedeutsamer ist allerdings, dass die Behauptung der Trennbarkeit von Good Governance und der Form politischer Herrschaft die Möglichkeit eröffnet, Entwicklung zu erreichen ohne eine demokratische Ordnung zu etablieren, da folglich autokratische Systeme in gleicher Weise wie Demokratien in der Lage sind, die institutionellen Voraussetzungen zu verwirklichen, welche als zentrale Determinanten für wirtschaftlichen Fortschritt identifiziert wurden. Damit entfällt nicht nur ein bedeutsamer Rechtfertigungsgrund für demokratische Herrschaft als solche, sondern rekurrierend auf bestimmte, dieser zu attestierende, entwicklungshemmende Charakteristika können Autokratien nun möglicherweise als überlegene Herrschaftsform verstanden werden, da sie durch jene nicht gekennzeichnet sind. Die Schlussfolgerungen der Weltbank unterstützen somit auch die vor allem im Zusammenhang mit der Erfolgsgeschichte der ostasiatischen Tigerstaaten vertretene Idee der Entwicklungsdiktatur, die heute mit dem Aufstieg der Volksrepublik China eine Renaissance erlebt. Der wirtschaftliche Erfolg dieser Staaten ist danach auf die überlegene Handlungsfähigkeit autokratischer Systeme zurückzuführen, während Demokratien aufgrund der Verantwortlichkeitsbeziehungen zwischen Regierenden und Regierten nicht in der Lage sind, die notwendigen Entscheidungen zu treffen und durchzusetzen. Die dargestellte Sichtweise der Weltbank ist allerdings von verschiedenen Autoren in Zweifel gezogen worden, die auch für ein im Wesentlichen auf technische Elemente beschränktes Good Governance-Konzept einen Zusammenhang mit der Form politischer Herrschaft erkennen. So wird beispielsweise vertreten, das Konzept der Bank bewege sich ausdrücklich nicht in einem systemneutralen Vakuum, sondern propagiere zumindest implizit die Etablierung demokratischer Regierungsformen. Im Übrigen steht die aus den Annahmen der Weltbank neuerlich abgeleitete Idee der Entwicklungsdiktatur in einem erheblichen Widerspruch zu der von multilateralen wie bilateralen Akteuren verstärkt verfolgten Förderung demokratischer Herrschaft als Mittel für wirtschaftliche Entwicklung sowie der fortschreitenden Verbreitung der Demokratie. Besteht nun doch ein Einfluss der Herrschaftsform auf die Verwirklichung von Good Governance als zentraler Entwicklungsdeterminante und kann zudem davon ausgegangen werden, dass Demokratien diesbezüglich Vorteile besitzen, dann ist eine Entwicklungsdiktatur keine denkbare Möglichkeit, sondern im Gegenteil demokratische Herrschaft der gebotene Weg zu wirtschaftlichem Wachstum bzw. einer Verbesserung der Lebensverhältnisse. Aufgrund der mit den Schlussfolgerungen der Weltbank verbundenen bedeutsamen Implikationen und der bisher weitestgehend fehlenden ausführlichen Thematisierung dieses Gegenstands in der Literatur ist eine detaillierte theoretische Betrachtung der Zusammenhänge zwischen den zentralen Elementen von Good Governance und demokratischer Herrschaft notwendig. Darüber hinaus sollen die angesprochenen Beziehungen auch einer empirischen Analyse unterzogen werden. Gegenstand dieser Arbeit ist deshalb die Fragestellung, ob Good Governance eine von demokratischer Herrschaft theoretisch und empirisch unabhängige Entwicklungsstrategie darstellt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es wurde ein für bodengebundene Feldmessungen geeignetes System zur digital-holographischen Abbildung luftgetragener Objekte entwickelt und konstruiert. Es ist, abhängig von der Tiefenposition, geeignet zur direkten Bestimmung der Größe luftgetragener Objekte oberhalb von ca. 20 µm, sowie ihrer Form bei Größen oberhalb von ca. 100µm bis in den Millimeterbereich. Die Entwicklung umfaßte zusätzlich einen Algorithmus zur automatisierten Verbesserung der Hologrammqualität und zur semiautomatischen Entfernungsbestimmung großer Objekte entwickelt. Eine Möglichkeit zur intrinsischen Effizienzsteigerung der Bestimmung der Tiefenposition durch die Berechnung winkelgemittelter Profile wurde vorgestellt. Es wurde weiterhin ein Verfahren entwickelt, das mithilfe eines iterativen Ansatzes für isolierte Objekte die Rückgewinnung der Phaseninformation und damit die Beseitigung des Zwillingsbildes erlaubt. Weiterhin wurden mithilfe von Simulationen die Auswirkungen verschiedener Beschränkungen der digitalen Holographie wie der endlichen Pixelgröße untersucht und diskutiert. Die geeignete Darstellung der dreidimensionalen Ortsinformation stellt in der digitalen Holographie ein besonderes Problem dar, da das dreidimensionale Lichtfeld nicht physikalisch rekonstruiert wird. Es wurde ein Verfahren entwickelt und implementiert, das durch Konstruktion einer stereoskopischen Repräsentation des numerisch rekonstruierten Meßvolumens eine quasi-dreidimensionale, vergrößerte Betrachtung erlaubt. Es wurden ausgewählte, während Feldversuchen auf dem Jungfraujoch aufgenommene digitale Hologramme rekonstruiert. Dabei ergab sich teilweise ein sehr hoher Anteil an irregulären Kristallformen, insbesondere infolge massiver Bereifung. Es wurden auch in Zeiträumen mit formal eisuntersättigten Bedingungen Objekte bis hinunter in den Bereich ≤20µm beobachtet. Weiterhin konnte in Anwendung der hier entwickelten Theorie des ”Phasenrandeffektes“ ein Objekt von nur ca. 40µm Größe als Eisplättchen identifiziert werden. Größter Nachteil digitaler Holographie gegenüber herkömmlichen photographisch abbildenden Verfahren ist die Notwendigkeit der aufwendigen numerischen Rekonstruktion. Es ergibt sich ein hoher rechnerischer Aufwand zum Erreichen eines einer Photographie vergleichbaren Ergebnisses. Andererseits weist die digitale Holographie Alleinstellungsmerkmale auf. Der Zugang zur dreidimensionalen Ortsinformation kann der lokalen Untersuchung der relativen Objektabstände dienen. Allerdings zeigte sich, dass die Gegebenheiten der digitalen Holographie die Beobachtung hinreichend großer Mengen von Objekten auf der Grundlage einzelner Hologramm gegenwärtig erschweren. Es wurde demonstriert, dass vollständige Objektgrenzen auch dann rekonstruiert werden konnten, wenn ein Objekt sich teilweise oder ganz außerhalb des geometrischen Meßvolumens befand. Weiterhin wurde die zunächst in Simulationen demonstrierte Sub-Bildelementrekonstruktion auf reale Hologramme angewandt. Dabei konnte gezeigt werden, dass z.T. quasi-punktförmige Objekte mit Sub-Pixelgenauigkeit lokalisiert, aber auch bei ausgedehnten Objekten zusätzliche Informationen gewonnen werden konnten. Schließlich wurden auf rekonstruierten Eiskristallen Interferenzmuster beobachtet und teilweise zeitlich verfolgt. Gegenwärtig erscheinen sowohl kristallinterne Reflexion als auch die Existenz einer (quasi-)flüssigen Schicht als Erklärung möglich, wobei teilweise in Richtung der letztgenannten Möglichkeit argumentiert werden konnte. Als Ergebnis der Arbeit steht jetzt ein System zur Verfügung, das ein neues Meßinstrument und umfangreiche Algorithmen umfaßt. S. M. F. Raupach, H.-J. Vössing, J. Curtius und S. Borrmann: Digital crossed-beam holography for in-situ imaging of atmospheric particles, J. Opt. A: Pure Appl. Opt. 8, 796-806 (2006) S. M. F. Raupach: A cascaded adaptive mask algorithm for twin image removal and its application to digital holograms of ice crystals, Appl. Opt. 48, 287-301 (2009) S. M. F. Raupach: Stereoscopic 3D visualization of particle fields reconstructed from digital inline holograms, (zur Veröffentlichung angenommen, Optik - Int. J. Light El. Optics, 2009)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Heusler compounds as thermoelectric materialsrnrnThis work reports on Heusler and Half Heusler compounds and their thermoelectric properties. Several compounds were synthesized and their resistivity, Seebeck coefficient, thermal conductivity, and the figure of merit were determined. The results are presented in the following chapters.rnrnIn chapter 3 Co was substituted with Ni and Fe in the series TiCo1-x(Fe0.5Ni0.5)xSb. The substitution lead to a reduced loss of Sb during the synthesis. Further the Seebeck coefficient was increased and the thermal conductivity was reduced. These observations can be used to significantly improve the quality of TiCoSb based compounds in thermoelectric applications. rnrnIn chapter 4 the series TiCo1-xNixSnxSb1-x was investigated. Ni was substituted with Co and Sn with Sb. Especially for high Ni concentrations the figure of merit was enhanced compared to unsubstituted TiCoSb. This enhancement is based on the strong reduction of the thermal conductivity. The found values are among the lowest that have been determined up to date for Heusler compounds. rnrnIn chapter 5 Li containing Heusler compounds were theoretically and experimentally investigated. Li containing Heusler compounds are of special interest because the Li atoms scatter phonons efficiently. Therefore the thermal conductivity is decreased. The thermoelectric properties and especially the thermal conductivity are investigated in this chapter.rnrnIn chapter 6 several substitutions of TiCoSb were investigated. In the series TiCo1+xSb additional Co was introduced into the vacancies of the compound and the effect on the thermoelectric properties was measured. In the series TiCo1-xCuxSb Co was substituted with Cu. No significant enhancement of the ZT value were observed. In the series TiCoSb1-xBix Sb was substituted by Bi. The thermoelectric properties were significantly enhanced for small Bi concentrations. The Seebeck coefficient was increased and the resistivity was reduced at the same time. This unusual phenomenon is explained by band structure calculations.rnrnIn chapter 7 the material class of half metallic ferromagnets was investigated as a new materialclass for thermoelectric applications. The 26 valence electron compounds Co2TiSi, Co2TiGe, and Co2TiSn were used as model systems. The transport properties were determined theoretically. Then the properties were measured and compared to the calculated ones. The calculated values are in good agreement with the experimentally determined ones. The observed Seebeck coefficient has a big value and is nearly constant above the Curie temperature. This makes the materials appealing for the use as materials in thermocouples.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel der Studie war die Untersuchung inwieweit PCNA als immunhistochemisches Hilfsmittel eine Verbesserung der Abgrenzung von uterinen LM gegenüber uterinen LMS und eine Hilfe bei der Prognoseaussage bei uterinen und gastrointestinalen LMS darstellt. Dabei wurden auch weitere, herkömmliche, in einer Reihe von Studien untersuchte Prognoseparameter mit in Betracht gezogen.rnDie Auswertung der Färbungen erfolgte quantitativ mittels einer PC-gesteuerten Bildverarbeitung, die neben der positiven Zellfläche und Zellzahl auch die Kernfläche berechnet. Vorteil der quantitativen Messung ist die Möglichkeit der Reproduzierbarkeit unabhängig vom Benutzer, im Gegensatz zu semiquantitativen Analysen, die häufiger angewendet werden.rnEs fällt dabei auf, dass sowohl die Zellkerngröße generell als auch die Zellkerngröße der positiv gefärbten Zellen signifikant größer bei LMS als bei LM ist. (p< 0,0001). Zwischen den Zellkerngrößen der uterinen und der gastrointestinalen LMS fanden sich keine signifikanten Unterschiede.rnBezüglich der Abgrenzung zwischen uterinen LM und LMS zeigten sich signifikant höhere PCNA-Meßwerte für LMS (mittlere positive Zellkernzahl 15,08%, mittlere positive Zellkernzahl 16,67%) gegenüber LM (mittlere positive Zellkernzahl 1,95%, mittlere positive Zellkernzahl 2,02%). Zu den gastrointestinalen LMS-PCNA Messwerten gab es keinen signifikanten Unterschied (mittlere positive Zellkernfläche 19,07%, mittlere positive Zellkernzahl 16,43).rnKein signifikanter Zusammenhang zeigte sich bei der Höhe der PCNA-Meßwerte und der Prognose sowohl der uterinen als auch der gastrointestinalen LMS.rnIn dieser Studie stellten sich als signifikant prognoserelevant lediglich das Alter sowohl bei den uterinen und gastrointestinalen LMS heraus. Bei den uterinen LMS war auch noch ein schlechteres Grading und das Vorhandensein von Nekrosen signifikant mit der Prognose korreliert.rnNicht signifikant prognoserelevant waren sowohl bei den uterinen wie den gastrointestinalen LMS die Tumorgröße und die PCNA-Meßwerthöhe. Bei den gastrointestinalen Leiomyosarkomen zusätzlich noch das Vorhandensein von Nekrosen.rnEin signifikanter Zusammenhang wurde zwischen PCNA-Meßwerten und der Uterusgröße bzw. auch der Myomgröße bei den uterinen Leiomyomen sowie analog der Tumorgröße der uterinen und der gastrointestinalen LMS festgestellt. Innerhalb der Gruppe der uterinen Myome zeigten sich für zellreiche Myome zwar höhere Messwerte, die jedoch nicht signifikant waren.rnKein Zusammenhang zeigte sich dagegen für die Höhe der PNCA-Meßwerte und dem Grading der uterinen sowohl als auch der gastrointestinalen Leiomyosarkome, dem Alter der Patientinnen bei den uterinen LMS, dem Vorhandensein von Nekrosen bei den uterinen sowohl als auch bei gastrointestinalen LMS und dem Geschlecht bei den gastrointestinalen LMS.rnDie Ergebnisse stehen bezüglich der Aussage der Prognose teilweise in Widerspruch, teilweise in Einklang mit den bisherigen Veröffentlichungen. Ein großes Hemmnis ist die geringe Fallzahl, die vor allem durch die Seltenheit der Tumore bedingt ist, desweiteren die ungenügende Nachverfolgung der Patienten, die auch daraus resultiert, dass es sich um eine retrospektive Studie handelt. Hier bedarf es größerer Studien, möglicherweise als multizentrische Studien mit genauer Verlaufsbeobachtung, um auch im deutschsprachigen Raum eine weitere Erforschung dieser seltenen, umsomehr sehr interessanten und an den untersuchenden Pathologen besondere Ansprüche stellende Tumore zu geben.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Am COMPASS-Experiment am CERN-SPS wird die Spinsstruktur des Nukleons mit Hilfe der Streuung von polarisierten Myonen an polarisierten Nukleonen untersucht. Der in der inklusiven tiefinelastischen Streuung gemessene Beitrag der Quarks zum Nukleonspin reicht nicht aus, um den Spin des Nukleons zu erklären. Daher soll geklärt werden, wie die Gluonpolarisation und die Bahndrehimpulse von Quarks und Gluonen zum Gesamtspin des Nukleons beitragen. Da sich die Gluonpolarisation aus der $Q^{2}$-Abhängigkeit der Asymmetrien in der inklusiven Streuung nur abschätzen lässt, wird eine direkte Messung der Gluonpolarisation benötigt. Die COMPASS-Kollaboration bestimmt daher die Wirkungsquerschnittsasymmetrien für Photon-Gluon-Fusionprozesse, indem sie zum einen die offene Charmproduktion und zum anderen die Produktion von Hadronpaaren mit großen Transversalimpulsen verwendet. In dieser Arbeit wird die Messung der Gluonpolarisation mit den COMPASS-Daten der Jahre 2003 und 2004 vorgestellt. Für die Analyse werden die Ereignisse mit großem Impulsübertrag ($Q^{2}>1$ $GeV^{2}/c^{2}$) und mit Hadronpaaren mit großem Transversalimpuls ($p_{perp}>0.7$ $GeV/c$) verwendet. Die Photon-Nukleon-Asymmetrie wurde aus dem gewichteten Doppelverhältnis der selektierten Ereignisse bestimmt. Der Schnitt auf $p_{perp}>0.7$rn$GeV/c$ unterdrückt die Prozesse führender Ordnung und QCD-Compton Prozesse, so dass die Asymmetrie direkt mit der Gluonpolarisation über die Analysierstärke verknüpft ist. Der gemessene Wert ist sehr klein und verträglich mit einer verschwindenden Gluonpolarisation. Zur Vermeidung von falschen Asymmetrien aufgrund der Änderung der Detektorakzeptanz wurden Doppelverhältnisse untersucht, bei denen sich der Wirkungsquerschnitt aufhebt und nur die Detektorasymmetrien übrig bleiben. Es konnte gezeigt werden, dass das COMPASS-Spektrometer keine signifikante Zeitabhängigkeit aufweist. Für die Berechnung der Analysierstärke wurden Monte Carlo Ereignisse mit Hilfe des LEPTO-Generators und des COMGeant Software Paketes erzeugt. Dabei ist eine gute Beschreibung der Daten durch das Monte Carlo sehr wichtig. Dafür wurden zur Verbesserung der Beschreibung JETSET Parameter optimiert. Es ergab sich ein Wert von rn$frac{Delta G}{G}=0.054pm0.145_{(stat)}pm0.131_{(sys)}pm0.04_{(MC)}$ bei einem mittleren Impulsbruchteil von $langle x_{gluon}rangle=0.1$ und $langle Q^{2}rangle=1.9$ $GeV^{2}/c^{2}$. Dieses Ergebnis deutet auf eine sehr kleine Gluonpolarisation hin und steht im Einklang mit den Ergebnissen anderer Methoden, wie offene Charmproduktion und mit den Ergebnissen, die am doppelt polarisierten RHIC Collider am BNL erzielt wurden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Domoinsäure ist ein von mehreren Arten mariner Kieselalgen der Gattung Pseudonitzschia produziertes Toxin, welches während einer Algenblüte in Molluscen wie z.B. der Miesmuschel Mytilus sp. akkumuliert werden kann. Beim Verzehr solch kontaminierter Muscheln können sowohl beim Menschen als auch bei Tieren erhebliche Vergiftungserscheinungen auftreten, die von Übelkeit, Kopfschmerzen und Orientierungsstörungen bis hin zum Verlust des Kurzzeitgedächtnisses (daher auch als amnesic shellfish poisoning bekannt) reichen und in einigen Fällen tödlich enden. rnDie heute gängigen Methoden zur Detektion von Domoinsäure in Muschelgewebe wie Flüssigkeitschromatographie und Maus-Bioassay sind zeit- und kostenintensiv bzw. in Anbetracht einer Verbesserung des Tierschutzes aus ethischer Sicht nicht zu vertreten. Immunologische Testsysteme stellen eine erstrebenswerte Alternative dar, da sie sich durch eine vergleichsweise einfache Handhabung, hohe Selektivität und Reproduzierbarkeit auszeichnen.rnDas Ziel der vorliegenden Arbeit war es, ein solches immunologisches Testsystem zur Detektion von Domoinsäure zu entwickeln. Hierfür wurden zunächst Antikörper gegen Domoinsäure gewonnen, wofür das Toxin wiederum als erstes über die Carbodiimid-Methode an das Trägerprotein keyhole limpet hemocyanin (KLH) gekoppelt wurde, um eine Immunantwort auslösen zu können. Kaninchen und Mäuse wurden mit KLH-DO-Konjugaten nach vorgegebenen Immunisierungsschemata immunisiert. Nach vier Blutabnahmen zeigte das polyklonale Kaninchenantiserum eine ausreichend hohe Sensitivität zum Antigen; das nachfolgende Detektionssystem wurde mit Hilfe dieses polyklonalen Antikörpers aufgebaut. Zwar ist es gegen Ende der Arbeit auch gelungen, einen spezifischen monoklonalen Antikörper aus der Maus zu gewinnen, jedoch konnte dieser aus zeitlichen Gründen nicht mehr im Detektionssystem etabliert werden, was durchaus wünschenswert gewesen wäre. rnWeiterhin wurde Domoinsäure im Zuge der Entwicklung eines neuartigen Testsystems an die Trägerproteine Ovalbumin, Trypsininhibitor und Casein sowie an Biotin konjugiert. Die Kopplungserfolge wurden im ELISA, Western Blot bzw. Dot Blot nachgewiesen. Die Ovalbumin-gekoppelte sowie die biotinylierte Domoinsäure dienten im Folgenden als die zu messenden Größen in den Detektionsassays- die in einer zu untersuchenden Probe vorhandende, kompetitierende Domoinsäure wurde somit indirekt nachgewiesen. rnDer zulässige Höchstwert für Domoinsäure liegt bei 20 µg/g Muschelgewebe. Sowohl mit Biotin-DO als auch mit OVA-DO als den zu messenden Größen waren Domoinsäurekonzentrationen unterhalb dieses Grenzwertes nachweisbar; allerdings erwies sich der Aufbau mit Biotin-DO um das ca. 20-fache empfindlicher als jener mit OVA-DO. rnDie in dieser Arbeit präsentierten Ergebnisse könnten als Grundlage zur Etablierung eines kommerzialisierbaren immunologischen Testsystems zur Detektion von Domoinsäure und anderen Biotoxinen dienen. Nach erfolgreicher Validierung wäre ein solches Testsystem in seiner Handhabung einfacher als die gängige Flüssigkeitschromatographie und besser reproduzierbar als der Maus-Bioassay.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wir untersuchen die numerische Lösung des inversen Streuproblems der Rekonstruktion der Form, Position und Anzahl endlich vieler perfekt leitender Objekte durch Nahfeldmessungen zeitharmonischer elektromagnetischer Wellen mit Hilfe von Metalldetektoren. Wir nehmen an, dass sich die Objekte gänzlich im unteren Halbraum eines unbeschränkten zweischichtigen Hintergrundmediums befinden. Wir nehmen weiter an, dass der obere Halbraum mit Luft und der untere Halbraum mit Erde gefüllt ist. Wir betrachten zuerst die physikalischen Grundlagen elektromagnetischer Wellen, aus denen wir zunächst ein vereinfachtes mathematisches Modell ableiten, in welchem wir direkt das elektromagnetische Feld messen. Dieses Modell erweitern wir dann um die Messung des elektromagnetischen Feldes von Sendespulen mit Hilfe von Empfangsspulen. Für das vereinfachte Modell entwickeln wir, unter Verwendung der Theorie des zugehörigen direkten Streuproblems, ein nichtiteratives Verfahren, das auf der Idee der sogenannten Faktorisierungsmethode beruht. Dieses Verfahren übertragen wir dann auf das erweiterte Modell. Wir geben einen Implementierungsvorschlag der Rekonstruktionsmethode und demonstrieren an einer Reihe numerischer Experimente die Anwendbarkeit des Verfahrens. Weiterhin untersuchen wir mehrere Abwandlungen der Methode zur Verbesserung der Rekonstruktionen und zur Verringerung der Rechenzeit.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Enhancing the sensitivity of nuclear magnetic resonance measurements via hyperpolarization techniques like parahydrogen induced polarization (PHIP) is of high interest for spectroscopic investigations. Parahydrogen induced polarization is a chemical method, which makes use of the correlation between nuclear spins in parahydrogen to create hyperpolarized molecules. The key feature of this technique is the pairwise and simultaneous transfer of the two hydrogen atoms of parahydrogen to a double or triple bond resulting in a population of the Zeeman energy levels different from the Boltzmann equation. The obtained hyperpolarization results in antiphase peaks in the NMR spectrum with high intensities. Due to these strong NMR signals, this method finds arnlot of applications in chemistry e.g. the characterization of short-lived reaction intermediates. Also in medicine it opens up the possibility to boost the sensitivity of medical diagnostics via magnetic labeling of active contrast agents. Thus, further examination and optimization of the PHIP technique is of significant importance in order to achieve the highest possible sensitivity gain.rnrnIn this work, different aspects concerning PHIP were studied with respect to its chemical and spectroscopic background. The first part of this work mainly focused on optimizing the PHIP technique by investigating different catalyst systems and developing new setups for the parahydrogenation. Further examinations facilitated the transfer of the generated polarization from the protons to heteronuclei like 13C. The second part of this thesis examined the possibility to transfer these results to different biologically active compounds to enable their later application in medical diagnostics. Onerngroup of interesting substances is represented by metabolites or neurotransmitters in mammalian cells. Other interesting substances are clinically relevant drugs like a barbituric acid derivative or antidepressant drugs like citalopram which were investigated with regard to their applicability for the PHIP technique and the possibility to achievernpolarization transfer to 13C nuclei. The last investigated substrate is a polymerizable monomer whose polymer was used as a blood plasma expander for trauma victims after the first half of the 20th century. In this case, the utility of the monomer for the PHIP technique as a basis for later investigations of a polymerization reaction using hyperpolarized monomers was examined.rnrnHence, this thesis covers the optimization of the PHIP technology, hereby combining different fields of research like chemical and spectroscopical aspects, and transfers the results to applications of real biologally acitve compounds.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

“Plasmon” is a synonym for collective oscillations of the conduction electrons in a metal nanoparticle (excited by an incoming light wave), which cause strong optical responses like efficient light scattering. The scattering cross-section with respect to the light wavelength depends not only on material, size and shape of the nanoparticle, but also on the refractive index of the embedding medium. For this reason, plasmonic nanoparticles are interesting candidates for sensing applications. Here, two novel setups for rapid spectral investigations of single nanoparticles and different sensing experiments are presented.rnrnPrecisely, the novel setups are based on an optical microscope operated in darkfield modus. For the fast single particle spectroscopy (fastSPS) setup, the entrance pinhole of a coupled spectrometer is replaced by a liquid crystal device (LCD) acting as spatially addressable electronic shutter. This improvement allows the automatic and continuous investigation of several particles in parallel for the first time. The second novel setup (RotPOL) usesrna rotating wedge-shaped polarizer and encodes the full polarization information of each particle within one image, which reveals the symmetry of the particles and their plasmon modes. Both setups are used to observe nanoparticle growth in situ on a single-particle level to extract quantitative data on nanoparticle growth.rnrnUsing the fastSPS setup, I investigate the membrane coating of gold nanorods in aqueous solution and show unequivocally the subsequent detection of protein binding to the membrane. This binding process leads to a spectral shift of the particles resonance due to the higher refractive index of the protein compared to water. Hence, the nanosized addressable sensor platform allows for local analysis of protein interactions with biological membranes as a function of the lateral composition of phase separated membranes.rnrnThe sensitivity on changes in the environmental refractive index depends on the particles’ aspect ratio. On the basis of simulations and experiments, I could present the existence of an optimal aspect ratio range between 3 and 4 for gold nanorods for sensing applications. A further sensitivity increase can only be reached by chemical modifications of the gold nanorods. This can be achieved by synthesizing an additional porous gold cage around the nanorods, resulting in a plasmon sensitivity raise of up to 50 % for those “nanorattles” compared to gold nanorods with the same resonance wavelength. Another possibility isrnto coat the gold nanorods with a thin silver shell. This reduces the single particle’s resonance spectral linewidth about 30 %, which enlarges the resolution of the observable shift. rnrnThis silver coating evokes the interesting effect of reducing the ensemble plasmon linewidth by changing the relation connecting particle shape and plasmon resonance wavelength. This change, I term plasmonic focusing, leads to less variation of resonance wavelengths for the same particle size distribution, which I show experimentally and theoretically.rnrnIn a system of two coupled nanoparticles, the plasmon modes of the transversal and longitudinal axis depend on the refractive index of the environmental solution, but only the latter one is influenced by the interparticle distance. I show that monitoring both modes provides a self-calibrating system, where interparticle distance variations and changes of the environmental refractive index can be determined with high precision.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zusammenfassung Zur Verbesserung der Leistungsumwandlung in organischen Solarzellen sind neue Materialien von zentraler Bedeutung, die sämtliche Erfordernisse für organische Photovoltaik-Elemente erfüllen. In der vorliegenden Arbeit „Organic thin-film photovoltaics“ wurden im Hinblick auf ein besseres Verständnis der Zusammenhänge zwischen molekularer Struktur und der Leistungsfähigkeit neue Materialien in „bulk-heterojunction“ Solarzellen und in Festphasen-Farbstoffsensibilisierten Solarzellen untersucht. Durch die Anwendung selbstorganisierender Materialien, diskotischer Graphen-Derivate oder konjugierter Polymere in Verbindung mit entsprechenden Akzeptoren in den „bulk-heterojunction“ Solarzellen wurde gezeigt, dass mit einer Erhöhung der Ordnung durch thermische Behandlung eine verbesserte Leistung des Photovoltaik-Elements einhergeht. In den Festphasen-Farbstoffsensibilisierten Solarzellen wurden zwei neue Farbstoffe untersucht, und es konnte gezeigt werden, dass diese gute Leistung zeigten. Ferner ermöglicht das komplementäre Absorptionsvermögen der beiden Farbstoffe die Herstellung von Vollspektrum-Zellen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Auswirkungen einer hypertonen / hyperonkotischen Therapie in Kombination mit chirurgischer Hämatomentfernung auf funktionelle und histologische Defizite nach akutem subduralem Hämatom der Ratte: Die Zeit bis zur Behandlung eines akuten subduralen Hämatoms stellt eine der wichtigsten prognosebestimmenden Faktoren für die Mortalität und Morbidität der Patienten dar. Ein unbehandeltes akutes subdurales Hämatom im Rahmen eines schweren Schädelhirntraumas geht mit einer Sterblichkeit von weit über 50% einher. Selbst bei zeitiger chirurgischer Entlastung versterben noch ca. 30% der Patienten als Folge der Hirnschädigung. Um Therapieoptionen zur Verbesserung der schlechten Prognose nach akutem subduralem Hämatom liefern zu können, wurde in dieser Studie die frühe Therapie mit hypertonen / hyperonkotischen Lösungen (HHT) sowie die Kombination mit chirurgischer Evakuation des Hämatoms untersucht. In dem genutzten Tiermodell wurde ein subdurales Hämatom über die Infusion von 400 µl autologen venösen Blutes erreicht. Je nach Gruppe erhielten die Ratten 30 Minuten nach ASDH eine HHT oder isotonische Kochsalzlösung und ggf. eine chirurgische Entfernung des Hämatoms eine Stunde nach Induktion. Die Studie war in zwei Teile getrennt. Die akute Studie welche den intraoperativen Verlauf von Blutwerten, intrakraniellem Druck zerebralem Perfusionsdruck und zerebralem Blutfluss untersuchte und die chronische Studie welche über Verhaltenstests (Neuroscore, Beamwalk, Open Field) die funktionellen und histologischen Ergebnisse im Verlauf von 12 Tage betrachtete. Im Ergebnis konnten durch eine HHT eine Reduktion der intrakraniellen Hypertension erreicht werden. Im Langzeit Verlauf schnitten alle Behandlungen besser ab als die unbehandelte Gruppe. In Bezug auf die neurologische Erholung und das histologische Defizit zeigten die mit einer HHT behandelten Tiere jedoch die besten Ergebnisse. rnEine frühe chirurgische Intervention ist eine protektive Maßnahme bezogen auf die funktionelle Defizite und den histologischen Schaden nach akutem subduralem Hämatom, aber frühe hypertone / hyperonkotische Behandlung ist in diesem Modell sogar noch effektiver. Eine frühe Behandlung mit hypertonen / hyperonkotischen Lösungen stellt somit eine vielversprechende, sichere und kausale Therapieoption zur Verbesserung der Prognose nach akutem subduralem Hämatom dar. rn