597 resultados para Hilfe


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das am Südpol gelegene Neutrinoteleskop IceCube detektiert hochenergetische Neutrinos über die schwache Wechselwirkung geladener und neutraler Ströme. Die Analyse basiert auf einem Vergleich mit Monte-Carlo-Simulationen, deren Produktion global koordiniert wird. In Mainz ist es erstmalig gelungen, Simulationen innerhalb der Architektur des Worldwide LHC Computing Grid (WLCG) zu realisieren, was die Möglichkeit eröffnet, Monte-Carlo-Berechnungen auch auf andere deutsche Rechnerfarmen (CEs) mit IceCube-Berechtigung zu verteilen. Atmosphärische Myonen werden mit einer Rate von über 1000 Ereignissen pro Sekunde aufgezeichnet. Eine korrekte Interpretation dieses dominanten Signals, welches um einen Faktor von 10^6 reduziert werden muss um das eigentliche Neutrinosignal zu extrahieren, ist deswegen von großer Bedeutung. Eigene Simulationen mit der Software-Umgebung CORSIKA wurden durchgeführt um die von Energie und Einfallswinkel abhängige Entstehungshöhe atmosphärischer Myonen zu bestimmen. IceCube Myonraten wurden mit Wetterdaten des European Centre for Medium-Range Weather Forcasts (ECMWF) verglichen und Korrelationen zwischen jahreszeitlichen sowie kurzzeitigen Schwankungen der Atmosphärentemperatur und Myonraten konnten nachgewiesen werden. Zudem wurde eine Suche nach periodischen Effekten in der Atmosphäre, verursacht durch z.B. meteorologische Schwerewellen, mit Hilfe einer Fourieranalyse anhand der IceCube-Daten durchgeführt. Bislang konnte kein signifikanter Nachweis zur Existenz von Schwerewellen am Südpol erbracht werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel der Studie war die Untersuchung inwieweit PCNA als immunhistochemisches Hilfsmittel eine Verbesserung der Abgrenzung von uterinen LM gegenüber uterinen LMS und eine Hilfe bei der Prognoseaussage bei uterinen und gastrointestinalen LMS darstellt. Dabei wurden auch weitere, herkömmliche, in einer Reihe von Studien untersuchte Prognoseparameter mit in Betracht gezogen.rnDie Auswertung der Färbungen erfolgte quantitativ mittels einer PC-gesteuerten Bildverarbeitung, die neben der positiven Zellfläche und Zellzahl auch die Kernfläche berechnet. Vorteil der quantitativen Messung ist die Möglichkeit der Reproduzierbarkeit unabhängig vom Benutzer, im Gegensatz zu semiquantitativen Analysen, die häufiger angewendet werden.rnEs fällt dabei auf, dass sowohl die Zellkerngröße generell als auch die Zellkerngröße der positiv gefärbten Zellen signifikant größer bei LMS als bei LM ist. (p< 0,0001). Zwischen den Zellkerngrößen der uterinen und der gastrointestinalen LMS fanden sich keine signifikanten Unterschiede.rnBezüglich der Abgrenzung zwischen uterinen LM und LMS zeigten sich signifikant höhere PCNA-Meßwerte für LMS (mittlere positive Zellkernzahl 15,08%, mittlere positive Zellkernzahl 16,67%) gegenüber LM (mittlere positive Zellkernzahl 1,95%, mittlere positive Zellkernzahl 2,02%). Zu den gastrointestinalen LMS-PCNA Messwerten gab es keinen signifikanten Unterschied (mittlere positive Zellkernfläche 19,07%, mittlere positive Zellkernzahl 16,43).rnKein signifikanter Zusammenhang zeigte sich bei der Höhe der PCNA-Meßwerte und der Prognose sowohl der uterinen als auch der gastrointestinalen LMS.rnIn dieser Studie stellten sich als signifikant prognoserelevant lediglich das Alter sowohl bei den uterinen und gastrointestinalen LMS heraus. Bei den uterinen LMS war auch noch ein schlechteres Grading und das Vorhandensein von Nekrosen signifikant mit der Prognose korreliert.rnNicht signifikant prognoserelevant waren sowohl bei den uterinen wie den gastrointestinalen LMS die Tumorgröße und die PCNA-Meßwerthöhe. Bei den gastrointestinalen Leiomyosarkomen zusätzlich noch das Vorhandensein von Nekrosen.rnEin signifikanter Zusammenhang wurde zwischen PCNA-Meßwerten und der Uterusgröße bzw. auch der Myomgröße bei den uterinen Leiomyomen sowie analog der Tumorgröße der uterinen und der gastrointestinalen LMS festgestellt. Innerhalb der Gruppe der uterinen Myome zeigten sich für zellreiche Myome zwar höhere Messwerte, die jedoch nicht signifikant waren.rnKein Zusammenhang zeigte sich dagegen für die Höhe der PNCA-Meßwerte und dem Grading der uterinen sowohl als auch der gastrointestinalen Leiomyosarkome, dem Alter der Patientinnen bei den uterinen LMS, dem Vorhandensein von Nekrosen bei den uterinen sowohl als auch bei gastrointestinalen LMS und dem Geschlecht bei den gastrointestinalen LMS.rnDie Ergebnisse stehen bezüglich der Aussage der Prognose teilweise in Widerspruch, teilweise in Einklang mit den bisherigen Veröffentlichungen. Ein großes Hemmnis ist die geringe Fallzahl, die vor allem durch die Seltenheit der Tumore bedingt ist, desweiteren die ungenügende Nachverfolgung der Patienten, die auch daraus resultiert, dass es sich um eine retrospektive Studie handelt. Hier bedarf es größerer Studien, möglicherweise als multizentrische Studien mit genauer Verlaufsbeobachtung, um auch im deutschsprachigen Raum eine weitere Erforschung dieser seltenen, umsomehr sehr interessanten und an den untersuchenden Pathologen besondere Ansprüche stellende Tumore zu geben.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ein wichtiger Baustein für den langfristigen Erfolg einer Lebertransplantation ist die Compliance mit der lebenslang einzunehmenden immunsuppressiven Therapie. Im Rahmen der vorliegenden Arbeit wurde erstmals mittels MEMS® die Compliance bei lebertransplantierten Patienten untersucht, deren Transplantation einige Jahre zurücklag. Rekrutiert wurden Patienten, die vor 2, 5, 7 oder 10 Jahren (Gruppe 2 y.p.t., 5 y.p.t., 7 y.p.t., 10 y.p.t.) in der Universitätsmedizin Mainz lebertransplantiert wurden. 39 Patienten nahmen an der prospektiven Anwendungsbeobachtung teil. Die Compliance wurde mittels MEMS® über eine Beobachtungszeit von 6 Monaten erfasst. Bei der MEMS®-Auswertung war zu vermuten, dass 10 Patienten diese nicht wie vorgesehen verwendet hatten. Folglich konnten die mittels MEMS® gemessenen Compliance-Parameter nur für 29 Patienten valide ermittelt werden. Die mittlere Dosing Compliance betrug 81 ± 21 %, wobei die Gruppe 2 y.p.t. mit 86 ± 14 % bessere Werte zu verzeichnen hatte als die Gruppe 5 y.p.t. (75 ± 27 %) und 7 y.p.t. (74 ± 28 %). Die Ergebnisse waren jedoch nicht signifikant unterschiedlich (p=0,335, Kruskal-Wallis-Test). Unter Einbeziehung aller mittels MEMS® gemessenen Compliance-Parameter wurden 19 von 29 Patienten (66 %) als compliant eingestuft. Bei der Analyse der Gesamtcompliance basierend auf den subjektiven Compliance-Messmethoden (Morisky-Fragebogen, MESI-Fragebogen, Selbsteinschätzung), der Arzneimittel-Blutspiegel und der Anzahl an Abstoßungsreaktionen, in der alle 39 Patienten einbezogen werden konnten, wurden 35 Patienten (90 %) als compliant eingestuft. rnIm zweiten Teil der Arbeit wurde die Etablierung und Bewertung eines intersektoralen Pharmazeutischen Betreuungskonzepts für lebertransplantierte Patienten untersucht. Erstmals wurden anhand eines entwickelten schnittstellenübergreifenden, integrierten Betreuungskonzepts niedergelassene Apotheker in die Pharmazeutische Betreuung lebertransplantierter Patienten eingebunden. 20 Patienten wurden rekrutiert und während ihres stationären Aufenthaltes nach Transplantation pharmazeutisch betreut. Die Betreuung umfasste eine intensive Patientenschulung mit drei bis vier Gesprächen durch einen Krankenhausapotheker. Während des stationären Aufenthaltes wurden arzneimittelbezogene Probleme erkannt, gelöst und dokumentiert. Bei Entlassung stellte der Krankenhausapotheker einen Medikationsplan für den Hausarzt sowie für den niedergelassenen Apotheker aus und führte mit den Patienten ein ausführliches Entlassungsgespräch. Darüber hinaus wurden den Patienten Arzneimitteleinnahmepläne und eine Patienteninformation über ihr immunsuppressives Arzneimittel übergeben. 15 Patienten konnten daraufhin ambulant von niedergelassenen Apothekern pharmazeutisch weiterbetreut werden. Das kooperierende pharmazeutische Personal wurde durch ein eigens für die Studie erstelltes Manual zur Pharmazeutischen Betreuung lebertransplantierter Patienten geschult und unterstützt. Die niedergelassenen Apotheker sollten die Patienten in ihrer Arzneimitteltherapie begleiten, indem Beratungsgespräche geführt und arzneimittelbezogene Probleme erkannt und gelöst wurden. Die Nutzeffekte der intensiven Pharmazeutischen Betreuung konnte anhand verschiedener Erhebungsinstrumente dargelegt werden. Im Ergebnis resultierte eine hohe Zufriedenheit der Patienten und Apotheker mit dem Betreuungskonzept, die mittels Selbstbeurteilungsfragebögen ermittelt wurde. Die Compliance der Patienten wurde anhand des Morisky- und MESI-Fragebogens, der Selbsteinschätzung der Patienten, Blutspiegelbestimmungen sowie der Einschätzung durch den niedergelassenen Apotheker bestimmt. 86 % der Patienten wurden als compliant eingeordnet. Die Kenntnisse der Patienten über ihre immunsuppressive Therapie, welche anhand von Interviews erfragt wurden, lagen auf einem sehr hohen Niveau. Abschließend kann festgestellt werden, dass die Pharmazeutische Betreuung lebertransplantierter Patienten in den niedergelassenen Apotheken durchführbar ist. Anhand der Dokumentationsprotokolle lässt sich allerdings nur sehr schwer beurteilen, in welchem Maße die Betreuung tatsächlich erfolgte. Das tatsächliche vorliegen einer mangelnden Betreuung oder aber eine lückenhafte Dokumentation der Betreuungsleistung war nicht zu differenzieren. Ein limitierender Faktor für die intensivierte Betreuung ist sicherlich der erhebliche Aufwand für nur einen Patienten mit einem seltenen Krankheitsbild. Das Erkennen und Lösen von 48 ABP durch den Krankenhausapotheker und 32 ABP durch die niedergelassenen Apotheker, d. h. insgesamt 4,5 ABP pro Patient zeigt, dass die Pharmazeutische Betreuung einen wichtigen Beitrag für eine qualitätsgesicherte Arzneimitteltherapie leistet. Die intersektorale Pharmazeutische Betreuung stellt eine wesentliche Hilfe und Unterstützung der Patienten im sicheren Umgang mit ihrer Arzneimitteltherapie dar.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hochreichende Konvektion über Waldbränden ist eine der intensivsten Formen von atmosphärischer Konvektion. Die extreme Wolkendynamik mit hohen vertikalen Windgeschwindigkeiten (bis 20 m/s) bereits an der Wolkenbasis, hohen Wasserdampfübersättigungen (bis 1%) und die durch das Feuer hohen Anzahlkonzentration von Aerosolpartikeln (bis 100000 cm^-3) bilden einen besonderen Rahmen für Aerosol-Wolken Wechselwirkungen.Ein entscheidender Schritt in der mikrophysikalischen Entwicklung einer konvektiven Wolke ist die Aktivierung von Aerosolpartikeln zu Wolkentropfen. Dieser Aktivierungsprozess bestimmt die anfängliche Anzahl und Größe der Wolkentropfen und kann daher die Entwicklung einer konvektiven Wolke und deren Niederschlagsbildung beeinflussen. Die wichtigsten Faktoren, welche die anfängliche Anzahl und Größe der Wolkentropfen bestimmen, sind die Größe und Hygroskopizität der an der Wolkenbasis verfügbaren Aerosolpartikel sowie die vertikale Windgeschwindigkeit. Um den Einfluss dieser Faktoren unter pyro-konvektiven Bedingungen zu untersuchen, wurden numerische Simulationen mit Hilfe eines Wolkenpaketmodells mit detaillierter spektraler Beschreibung der Wolkenmikrophysik durchgeführt. Diese Ergebnisse können in drei unterschiedliche Bereiche abhängig vom Verhältnis zwischen vertikaler Windgeschwindigkeit und Aerosolanzahlkonzentration (w/NCN) eingeteilt werden: (1) ein durch die Aerosolkonzentration limitierter Bereich (hohes w/NCN), (2) ein durch die vertikale Windgeschwindigkeit limitierter Bereich (niedriges w/NCN) und (3) ein Übergangsbereich (mittleres w/NCN). Die Ergebnisse zeigen, dass die Variabilität der anfänglichen Anzahlkonzentration der Wolkentropfen in (pyro-) konvektiven Wolken hauptsächlich durch die Variabilität der vertikalen Windgeschwindigkeit und der Aerosolkonzentration bestimmt wird. rnUm die mikrophysikalischen Prozesse innerhalb der rauchigen Aufwindregion einer pyrokonvektiven Wolke mit einer detaillierten spektralen Mikrophysik zu untersuchen, wurde das Paketmodel entlang einer Trajektorie innerhalb der Aufwindregion initialisiert. Diese Trajektore wurde durch dreidimensionale Simulationen eines pyro-konvektiven Ereignisses durch das Model ATHAM berechnet. Es zeigt sich, dass die Anzahlkonzentration der Wolkentropfen mit steigender Aerosolkonzentration ansteigt. Auf der anderen Seite verringert sich die Größe der Wolkentropfen mit steigender Aerosolkonzentration. Die Reduzierung der Verbreiterung des Tropfenspektrums stimmt mit den Ergebnissen aus Messungen überein und unterstützt das Konzept der Unterdrückung von Niederschlag in stark verschmutzen Wolken.Mit Hilfe des Models ATHAM wurden die dynamischen und mikrophysikalischen Prozesse von pyro-konvektiven Wolken, aufbauend auf einer realistischen Parametrisierung der Aktivierung von Aerosolpartikeln durch die Ergebnisse der Aktivierungsstudie, mit zwei- und dreidimensionalen Simulationen untersucht. Ein modernes zweimomenten mikrophysikalisches Schema wurde in ATHAM implementiert, um den Einfluss der Anzahlkonzentration von Aerosolpartikeln auf die Entwicklung von idealisierten pyro-konvektiven Wolken in US Standardamtosphären für die mittleren Breiten und den Tropen zu untersuchen. Die Ergebnisse zeigen, dass die Anzahlkonzentration der Aerosolpartikel die Bildung von Regen beeinflusst. Für geringe Aerosolkonzentrationen findet die rasche Regenbildung hauptsächlich durch warme mikrophysikalische Prozesse statt. Für höhere Aerosolkonzentrationen ist die Eisphase wichtiger für die Bildung von Regen. Dies führt zu einem verspäteten Einsetzen von Niederschlag für verunreinigtere Atmosphären. Außerdem wird gezeigt, dass die Zusammensetzung der Eisnukleationspartikel (IN) einen starken Einfluss auf die dynamische und mikrophysikalische Struktur solcher Wolken hat. Bei sehr effizienten IN bildet sich Regen früher. Die Untersuchung zum Einfluss des atmosphärischen Hintergrundprofils zeigt eine geringe Auswirkung der Meteorologie auf die Sensitivität der pyro-konvektiven Wolken auf diernAerosolkonzentration. Zum Abschluss wird gezeigt, dass die durch das Feuer emittierte Hitze einen deutlichen Einfluss auf die Entwicklung und die Wolkenobergrenze von pyro-konvektive Wolken hat. Zusammenfassend kann gesagt werden, dass in dieser Dissertation die Mikrophysik von pyrokonvektiven Wolken mit Hilfe von idealisierten Simulation eines Wolkenpaketmodell mit detaillierte spektraler Mikrophysik und eines 3D Modells mit einem zweimomenten Schema im Detail untersucht wurde. Es wird gezeigt, dass die extremen Bedingungen im Bezug auf die vertikale Windgeschwindigkeiten und Aerosolkonzentrationen einen deutlichen Einfluss auf die Entwicklung von pyro-konvektiven Wolken haben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

IceCube, ein Neutrinoteleskop, welches zur Zeit am Südpol aufgebaut und voraussichtlich 2011 fertiggestellt sein wird, kann galaktische Kernkollaps-Supernovae mit hoher Signifikanz und unübertroffener statistischer Genauigkeit der Neutrinolichtkurve detektieren. Derartige Supernovae werden begleitet von einem massiven Ausbruch niederenergetischer Neutrinos aller Flavour. Beim Durchfliegen des Detektormediums Eis entstehen Positronen und Elektronen, welche wiederum lokale Tscherenkowlichtschauer produzieren, die in ihrer Summe das gesamte Eis erleuchten. Ein Nachweis ist somit, trotz der Optimierung IceCubes auf hochenergetische Teilchenspuren, über eine kollektive Rauschratenerhöhung aller optischen Module möglich. Die vorwiegende Reaktion ist der inverse Betazerfall der Antielektronneutrinos, welcher über 90,% des gesamten Signals ausmacht.rnrnDiese Arbeit beschreibt die Implementierung und Funktionsweise der Supernova-Datennahme-Software sowie der Echtzeitanalyse, mit welcher die oben genannte Nachweismethode seit August 2007 realisiert ist. Die Messdaten der ersten zwei Jahre wurden ausgewertet und belegen ein extrem stabiles Verhalten des Detektors insgesamt sowie fast aller Lichtsensoren, die eine gemittelte Ausfallquote von lediglich 0,3,% aufweisen. Eine Simulation der Detektorantwort nach zwei unterschiedlichen Supernova-Modellen ergibt eine Sichtweite IceCubes, die im besten Falle bis zur 51,kpc entfernten Großen Magellanschen Wolke reicht. Leider ist der Detektor nicht in der Lage, die Deleptonisierungsspitze aufzulösen, denn Oszillationen der Neutrinoflavour innerhalb des Sterns modifizieren die Neutrinospektren ungünstig. Jedoch können modellunabhängig anhand des frühesten Signalanstiegs die inverse Massenhierarchie sowie $sin^2 2theta_{13} > 10^{-3}$ etabliert werden, falls die Entfernung zur Supernova $leq$,6,kpc beträgt. Gleiches kann durch Auswertung eines möglichen Einflusses der Erdmaterie auf die Neutrinooszillation mit Hilfe der Messung eines zweiten Neutrinodetektors erreicht werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Am COMPASS-Experiment am CERN-SPS wird die Spinsstruktur des Nukleons mit Hilfe der Streuung von polarisierten Myonen an polarisierten Nukleonen untersucht. Der in der inklusiven tiefinelastischen Streuung gemessene Beitrag der Quarks zum Nukleonspin reicht nicht aus, um den Spin des Nukleons zu erklären. Daher soll geklärt werden, wie die Gluonpolarisation und die Bahndrehimpulse von Quarks und Gluonen zum Gesamtspin des Nukleons beitragen. Da sich die Gluonpolarisation aus der $Q^{2}$-Abhängigkeit der Asymmetrien in der inklusiven Streuung nur abschätzen lässt, wird eine direkte Messung der Gluonpolarisation benötigt. Die COMPASS-Kollaboration bestimmt daher die Wirkungsquerschnittsasymmetrien für Photon-Gluon-Fusionprozesse, indem sie zum einen die offene Charmproduktion und zum anderen die Produktion von Hadronpaaren mit großen Transversalimpulsen verwendet. In dieser Arbeit wird die Messung der Gluonpolarisation mit den COMPASS-Daten der Jahre 2003 und 2004 vorgestellt. Für die Analyse werden die Ereignisse mit großem Impulsübertrag ($Q^{2}>1$ $GeV^{2}/c^{2}$) und mit Hadronpaaren mit großem Transversalimpuls ($p_{perp}>0.7$ $GeV/c$) verwendet. Die Photon-Nukleon-Asymmetrie wurde aus dem gewichteten Doppelverhältnis der selektierten Ereignisse bestimmt. Der Schnitt auf $p_{perp}>0.7$rn$GeV/c$ unterdrückt die Prozesse führender Ordnung und QCD-Compton Prozesse, so dass die Asymmetrie direkt mit der Gluonpolarisation über die Analysierstärke verknüpft ist. Der gemessene Wert ist sehr klein und verträglich mit einer verschwindenden Gluonpolarisation. Zur Vermeidung von falschen Asymmetrien aufgrund der Änderung der Detektorakzeptanz wurden Doppelverhältnisse untersucht, bei denen sich der Wirkungsquerschnitt aufhebt und nur die Detektorasymmetrien übrig bleiben. Es konnte gezeigt werden, dass das COMPASS-Spektrometer keine signifikante Zeitabhängigkeit aufweist. Für die Berechnung der Analysierstärke wurden Monte Carlo Ereignisse mit Hilfe des LEPTO-Generators und des COMGeant Software Paketes erzeugt. Dabei ist eine gute Beschreibung der Daten durch das Monte Carlo sehr wichtig. Dafür wurden zur Verbesserung der Beschreibung JETSET Parameter optimiert. Es ergab sich ein Wert von rn$frac{Delta G}{G}=0.054pm0.145_{(stat)}pm0.131_{(sys)}pm0.04_{(MC)}$ bei einem mittleren Impulsbruchteil von $langle x_{gluon}rangle=0.1$ und $langle Q^{2}rangle=1.9$ $GeV^{2}/c^{2}$. Dieses Ergebnis deutet auf eine sehr kleine Gluonpolarisation hin und steht im Einklang mit den Ergebnissen anderer Methoden, wie offene Charmproduktion und mit den Ergebnissen, die am doppelt polarisierten RHIC Collider am BNL erzielt wurden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mit der Zielsetzung der vorliegenden Arbeit wurde die detailierten Analyse von Migrationsdynamiken epithelilaler Monolayer anhand zweier neuartiger in vitro Biosensoren verfolgt, der elektrischen Zell-Substrat Impedanz Spektroskopie (electrical cell-substrate impedance sensing, ECIS) sowie der Quarz Kristall Mikrowaage (quartz crystal microbalance, QCM). Beide Methoden erwiesen sich als sensitiv gegenüber der Zellmotilität und der Nanozytotoxizität.rnInnerhalb des ersten Projektes wurde ein Fingerprinting von Krebszellen anhand ihrer Motilitätsdynamiken und der daraus generierten elektrischen oder akkustischen Fluktuationen auf ECIS oder QCM Basis vorgenommen; diese Echtzeitsensoren wurdene mit Hilfe klassicher in vitro Boyden-Kammer Migrations- und Invasions-assays validiert. Fluktuationssignaturen, also Langzeitkorrelationen oder fraktale Selbstähnlichkeit aufgrund der kollektiven Zellbewegung, wurden über Varianz-, Fourier- sowie trendbereinigende Fluktuationsanalyse quantifiziert. Stochastische Langzeitgedächtnisphänomene erwiesen sich als maßgebliche Beiträge zur Antwort adhärenter Zellen auf den QCM und ECIS-Sensoren. Des weiteren wurde der Einfluss niedermolekularer Toxine auf die Zytoslelettdynamiken verfolgt: die Auswirkungen von Cytochalasin D, Phalloidin und Blebbistatin sowie Taxol, Nocodazol und Colchicin wurden dabei über die QCM und ECIS Fluktuationsanalyse erfasst.rnIn einem zweiten Projektschwerpunkt wurden Adhäsionsprozesse sowie Zell-Zell und Zell-Substrat Degradationsprozesse bei Nanopartikelgabe charackterisiert, um ein Maß für Nanozytotoxizität in Abhangigkeit der Form, Funktionalisierung Stabilität oder Ladung der Partikel zu erhalten.rnAls Schlussfolgerung ist zu nennen, dass die neuartigen Echtzeit-Biosensoren QCM und ECIS eine hohe Zellspezifität besitzen, auf Zytoskelettdynamiken reagieren sowie als sensitive Detektoren für die Zellvitalität fungieren können.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Standardmodell der Teilchenphysik, das drei der vier fundamentalen Wechselwirkungen beschreibt, stimmt bisher sehr gut mit den Messergebnissen der Experimente am CERN, dem Fermilab und anderen Forschungseinrichtungen überein. rnAllerdings können im Rahmen dieses Modells nicht alle Fragen der Teilchenphysik beantwortet werden. So lässt sich z.B. die vierte fundamentale Kraft, die Gravitation, nicht in das Standardmodell einbauen.rnDarüber hinaus hat das Standardmodell auch keinen Kandidaten für dunkle Materie, die nach kosmologischen Messungen etwa 25 % unseres Universum ausmacht.rnAls eine der vielversprechendsten Lösungen für diese offenen Fragen wird die Supersymmetrie angesehen, die eine Symmetrie zwischen Fermionen und Bosonen einführt. rnAus diesem Modell ergeben sich sogenannte supersymmetrische Teilchen, denen jeweils ein Standardmodell-Teilchen als Partner zugeordnet sind.rnEin mögliches Modell dieser Symmetrie ist das R-Paritätserhaltende mSUGRA-Modell, falls Supersymmetrie in der Natur realisiert ist.rnIn diesem Modell ist das leichteste supersymmetrische Teilchen (LSP) neutral und schwach wechselwirkend, sodass es nicht direkt im Detektor nachgewiesen werden kann, sondern indirekt über die vom LSP fortgetragene Energie, die fehlende transversale Energie (etmiss), nachgewiesen werden muss.rnrnDas ATLAS-Experiment wird 2010 mit Hilfe des pp-Beschleunigers LHC mit einer Schwerpunktenergie von sqrt(s)=7-10 TeV mit einer Luminosität von 10^32 #/(cm^2*s) mit der Suche nach neuer Physik starten.rnDurch die sehr hohe Datenrate, resultierend aus den etwa 10^8 Auslesekanälen des ATLAS-Detektors bei einer Bunchcrossingrate von 40 MHz, wird ein Triggersystem benötigt, um die zu speichernde Datenmenge zu reduzieren.rnDabei muss ein Kompromiss zwischen der verfügbaren Triggerrate und einer sehr hohen Triggereffizienz für die interessanten Ereignisse geschlossen werden, da etwa nur jedes 10^8-te Ereignisse für die Suche nach neuer Physik interessant ist.rnZur Erfüllung der Anforderungen an das Triggersystem wird im Experiment ein dreistufiges System verwendet, bei dem auf der ersten Triggerstufe mit Abstand die höchste Datenreduktion stattfindet.rnrnIm Rahmen dieser Arbeit rn%, die vollständig auf Monte-Carlo-Simulationen basiert, rnist zum einen ein wesentlicher Beitrag zum grundlegenden Verständnis der Eigenschaft der fehlenden transversalen Energie auf der ersten Triggerstufe geleistet worden.rnZum anderen werden Methoden vorgestellt, mit denen es möglich ist, die etmiss-Triggereffizienz für Standardmodellprozesse und mögliche mSUGRA-Szenarien aus Daten zu bestimmen. rnBei der Optimierung der etmiss-Triggerschwellen für die erste Triggerstufe ist die Triggerrate bei einer Luminosität von 10^33 #/(cm^2*s) auf 100 Hz festgelegt worden.rnFür die Triggeroptimierung wurden verschiedene Simulationen benötigt, bei denen eigene Entwicklungsarbeit eingeflossen ist.rnMit Hilfe dieser Simulationen und den entwickelten Optimierungsalgorithmen wird gezeigt, dass trotz der niedrigen Triggerrate das Entdeckungspotential (für eine Signalsignifikanz von mindestens 5 sigma) durch Kombinationen der etmiss-Schwelle mit Lepton bzw. Jet-Triggerschwellen gegenüber dem bestehenden ATLAS-Triggermenü auf der ersten Triggerstufe um bis zu 66 % erhöht wird.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Domoinsäure ist ein von mehreren Arten mariner Kieselalgen der Gattung Pseudonitzschia produziertes Toxin, welches während einer Algenblüte in Molluscen wie z.B. der Miesmuschel Mytilus sp. akkumuliert werden kann. Beim Verzehr solch kontaminierter Muscheln können sowohl beim Menschen als auch bei Tieren erhebliche Vergiftungserscheinungen auftreten, die von Übelkeit, Kopfschmerzen und Orientierungsstörungen bis hin zum Verlust des Kurzzeitgedächtnisses (daher auch als amnesic shellfish poisoning bekannt) reichen und in einigen Fällen tödlich enden. rnDie heute gängigen Methoden zur Detektion von Domoinsäure in Muschelgewebe wie Flüssigkeitschromatographie und Maus-Bioassay sind zeit- und kostenintensiv bzw. in Anbetracht einer Verbesserung des Tierschutzes aus ethischer Sicht nicht zu vertreten. Immunologische Testsysteme stellen eine erstrebenswerte Alternative dar, da sie sich durch eine vergleichsweise einfache Handhabung, hohe Selektivität und Reproduzierbarkeit auszeichnen.rnDas Ziel der vorliegenden Arbeit war es, ein solches immunologisches Testsystem zur Detektion von Domoinsäure zu entwickeln. Hierfür wurden zunächst Antikörper gegen Domoinsäure gewonnen, wofür das Toxin wiederum als erstes über die Carbodiimid-Methode an das Trägerprotein keyhole limpet hemocyanin (KLH) gekoppelt wurde, um eine Immunantwort auslösen zu können. Kaninchen und Mäuse wurden mit KLH-DO-Konjugaten nach vorgegebenen Immunisierungsschemata immunisiert. Nach vier Blutabnahmen zeigte das polyklonale Kaninchenantiserum eine ausreichend hohe Sensitivität zum Antigen; das nachfolgende Detektionssystem wurde mit Hilfe dieses polyklonalen Antikörpers aufgebaut. Zwar ist es gegen Ende der Arbeit auch gelungen, einen spezifischen monoklonalen Antikörper aus der Maus zu gewinnen, jedoch konnte dieser aus zeitlichen Gründen nicht mehr im Detektionssystem etabliert werden, was durchaus wünschenswert gewesen wäre. rnWeiterhin wurde Domoinsäure im Zuge der Entwicklung eines neuartigen Testsystems an die Trägerproteine Ovalbumin, Trypsininhibitor und Casein sowie an Biotin konjugiert. Die Kopplungserfolge wurden im ELISA, Western Blot bzw. Dot Blot nachgewiesen. Die Ovalbumin-gekoppelte sowie die biotinylierte Domoinsäure dienten im Folgenden als die zu messenden Größen in den Detektionsassays- die in einer zu untersuchenden Probe vorhandende, kompetitierende Domoinsäure wurde somit indirekt nachgewiesen. rnDer zulässige Höchstwert für Domoinsäure liegt bei 20 µg/g Muschelgewebe. Sowohl mit Biotin-DO als auch mit OVA-DO als den zu messenden Größen waren Domoinsäurekonzentrationen unterhalb dieses Grenzwertes nachweisbar; allerdings erwies sich der Aufbau mit Biotin-DO um das ca. 20-fache empfindlicher als jener mit OVA-DO. rnDie in dieser Arbeit präsentierten Ergebnisse könnten als Grundlage zur Etablierung eines kommerzialisierbaren immunologischen Testsystems zur Detektion von Domoinsäure und anderen Biotoxinen dienen. Nach erfolgreicher Validierung wäre ein solches Testsystem in seiner Handhabung einfacher als die gängige Flüssigkeitschromatographie und besser reproduzierbar als der Maus-Bioassay.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wurden Derivate des Ionentransporters Valinomycin synthetisiert und als Sensorelemente in Modellmembransysteme inkorporiert. Als Modellmembranen wurden festkörpergestützte Lipiddoppelschichten (tBLMs, tethered bilayer lipid membranes) verwendet. rnValinomycin transportiert selektiv Kalium-Ionen durch Membranen, was durch einen Rückgang des Widerstandes über elektrochemische Messmethoden nachgewiesen werden kann. Es ist ein zyklisches Dodecadepsipeptid, das aus zwei verschiedenen Aminosäuren (L- und D-Valin) und  Hydroxysäuren (L Milchsäure und D Hydroxyisovaleriansäure) besteht. In dieser Arbeit wurde ein L Valin durch ein L-Lysin ausgetauscht, um eine freie Aminogruppe zum Anbinden verschiedenster Liganden zu erhalten. rnDie Synthese erfolgte in Lösung über einen linearen Decadepsipeptid-Precursor, hierbei wurde hauptsächlich mit Benzyl- und Boc-Schutzgruppen gearbeitet. An den Precursor wurden dann unterschiedlich modifizierte Lysin-Didepside gebunden und das daraus erhaltene lineare Dodecadepsipeptid zyklisiert.rnInsgesamt wurden sechs verschiedene Derivate synthetisiert, deren Ionentransportfähigkeit mit Hilfe eines angebundenen Liganden blockiert wurde. Diese Blockade kann entweder mechanisch durch Festhalten des Ionencarriers an der Oberfläche der Membran oder chemisch durch Einbringen einer Ladung erfolgen, da geladene Moleküle eine Membran nicht überwinden können. rnAcetyl-Lysin-Valinomycin wurde als Testsystem hergestellt, um zu zeigen, dass die Synthese einen funktionsfähigen Ionencarrier ergeben hatte. Im nächsten Schritt wurde Lysin-Valinomycin mit freier Aminogruppe synthetisiert, um es als pH-Sensor zu nutzen und damit zu überprüfen, ob das chemische Einbringen einer Ladung möglich ist. Es konnte ein pH abhängiger Kalium-Transport nachgewiesen werden, die Blockade der Ionentransportfähigkeit über eine eingebrachte Ladung ist somit möglich. rnAuf dem gleichen Konzept beruht Ferrocen-Valinomycin. Wird der Ferrocen-Ligand oxidiert, liegt eine positive Ladung vor und der Ionencarrier kann die Membran nicht mehr überwinden. Eine Reduktion macht diesen Prozess reversibel. Ferrocen-Valinomycin konnte innerhalb einer tBLM chemisch oxidiert und reduziert werden, dieses System kann somit als chemischer Redox-Sensor eingesetzt werden.rnEine mechanische Blockade liegt dem Biotin- und dem Sulfonamid-Valinomycin zugrunde. Dabei soll die Zugabe von Streptavidin bzw. BCA II (bovine Carboanhydrase) den Ionentransport durch die Membran stoppen. Beide Valinomycin-Derivate zeigten aber keine Ionentransportfähigkeit, eine Inkorporation in tBLMs konnte jedoch über SPR gezeigt werden. rnDie Synthese eines fluoreszenz-markierten (FITC) Valinomycins ergab zwar auch keinen transportfähigen Ionencarrier, aber mit diesem Derivat konnte der Diffusionskoeffizient von Valinomycin in sBLMs mit Hilfe von Fluorescence Recovery after photobleaching (FRAP) bestimmt werden.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the present dissertation we consider Feynman integrals in the framework of dimensional regularization. As all such integrals can be expressed in terms of scalar integrals, we focus on this latter kind of integrals in their Feynman parametric representation and study their mathematical properties, partially applying graph theory, algebraic geometry and number theory. The three main topics are the graph theoretic properties of the Symanzik polynomials, the termination of the sector decomposition algorithm of Binoth and Heinrich and the arithmetic nature of the Laurent coefficients of Feynman integrals.rnrnThe integrand of an arbitrary dimensionally regularised, scalar Feynman integral can be expressed in terms of the two well-known Symanzik polynomials. We give a detailed review on the graph theoretic properties of these polynomials. Due to the matrix-tree-theorem the first of these polynomials can be constructed from the determinant of a minor of the generic Laplacian matrix of a graph. By use of a generalization of this theorem, the all-minors-matrix-tree theorem, we derive a new relation which furthermore relates the second Symanzik polynomial to the Laplacian matrix of a graph.rnrnStarting from the Feynman parametric parameterization, the sector decomposition algorithm of Binoth and Heinrich serves for the numerical evaluation of the Laurent coefficients of an arbitrary Feynman integral in the Euclidean momentum region. This widely used algorithm contains an iterated step, consisting of an appropriate decomposition of the domain of integration and the deformation of the resulting pieces. This procedure leads to a disentanglement of the overlapping singularities of the integral. By giving a counter-example we exhibit the problem, that this iterative step of the algorithm does not terminate for every possible case. We solve this problem by presenting an appropriate extension of the algorithm, which is guaranteed to terminate. This is achieved by mapping the iterative step to an abstract combinatorial problem, known as Hironaka's polyhedra game. We present a publicly available implementation of the improved algorithm. Furthermore we explain the relationship of the sector decomposition method with the resolution of singularities of a variety, given by a sequence of blow-ups, in algebraic geometry.rnrnMotivated by the connection between Feynman integrals and topics of algebraic geometry we consider the set of periods as defined by Kontsevich and Zagier. This special set of numbers contains the set of multiple zeta values and certain values of polylogarithms, which in turn are known to be present in results for Laurent coefficients of certain dimensionally regularized Feynman integrals. By use of the extended sector decomposition algorithm we prove a theorem which implies, that the Laurent coefficients of an arbitrary Feynman integral are periods if the masses and kinematical invariants take values in the Euclidean momentum region. The statement is formulated for an even more general class of integrals, allowing for an arbitrary number of polynomials in the integrand.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wird eine kontinuierliche, kohärente Strahlungsquelle bei 121,56nm, der Lyman-alpha Linie in Wasserstoff, vorgestellt. Diese Lyman-alpha Quelle soll zur zukünftigen Laserkühlung von Antiwasserstoff dienen. Die Strahlung wird durch Vier-Wellen-Mischen in Quecksilberdampf produziert. Dabei wird ein Festkörperlasersystem zur Erzeugung der Fundamentalstrahlen eingesetzt. Zur Erhöhung der nichtlinearen Suszeptibilität wird die 6^1S-7^1S Zwei-Photonen-Resonanz ausgenutzt. Zusätzlich wird mit Hilfe eines durchstimmbaren ultravioletten Lasersystems die 6^1S-6^3P Ein-Photon-Resonanz genutzt, was es erlaubt, die nichtlineare Suszeptibilität des Mischprozesses um Größenordnungen zu erhöhen. Um den Einfluss der 6^1S-6^3P Ein-Photon-Resonanz zu untersuchen, wurden zunächst die Phasenanpassungstemperaturen bei verschiedenen Verstimmungen der ultravioletten Strahlung zur 6^3P Resonanz vermessen und festgestellt, dass kleinere Verstimmungen zu niedrigeren Phasenanpassungstemperaturen führen. Es konnte sowohl theoretisch wie auch experimentell gezeigt werden, dass diese niedrigeren Phasenanpassungstemperaturen bei kleinen Verstimmungen der Erhöhung der Lyman-alpha Erzeugung durch die größere nichtlineare Suszeptibilität bei kleinen Verstimmungen entgegenwirken. Bei immer kleineren Verstimmungen zur 6^3P Resonanz limitiert die Absorption der ultravioletten Strahlung die Lyman-alpha Erzeugung. Ein positiver Effekt der niedrigeren Phasenanpassungstemperaturen ist, dass es möglich wird, auf das bisher nötige Puffergas in der Quecksilber-Dampfzelle zu verzichten, was die Lyman-alpha Erzeugung um einen Faktor 1,7 erhöht. Damit war es möglich, die bisherige Effizienz der Lyman-alpha Erzeugung zu verbessern. Es wurde eine Lyman-alpha Leistung von 0,3nW erreicht. Zusätzlich zum Einfluss der 6^3P Resonanz auf die Lyman-alpha Erzeugung wurde ein weiterer Effekt beobachtet. Durch die Nähe der 6^1S-6^3P Ein-Photon-Resonanz wird auch mehr Besetzung in das obere 7^1S Niveau der Zwei-Photonen-Resonanz gepumpt. Dadurch konnte erstmals eine kontinuierliche Lasertätigkeit auf der 6^1P-7^1S Linie in Quecksilber bei 1014nm beobachtet werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Beständig werden Spurenstoffe in die Atmosphäre emittiert, die ihren Ursprung in biogenen oder anthropogenen Quellen haben. Daß es dennoch im allgemeinen nicht zu einer Anreicherung bis hin zu toxischen Konzentrationen kommt, liegt an dem Vermögen der Atmosphäre sich durch Oxidationsprozesse selbst zu reinigen. Eine wichtige Aufgabe kommt dabei dem Hydroxylradikal OH zu, welches tagsüber die Oxidationskapazität der Atmosphäre bestimmt. Hierbei spielen die tropischen Regionen mit einer der höchsten OH-Produktionsraten eine zentrale Rolle. Gleichzeitig sind die tropischen Regenwälder eine bedeutende globale Quelle für Kohlenwasserstoffe, die durch Reaktion mit OH-Radikalen dessen Konzentration und damit die Oxidationskapazität der Atmosphäre herabsetzen. Während der GABRIEL-Meßkampagne 2005 im äquatorialen Südamerika wurde der Einfluß der Regenwaldemissionen auf das HOx-Budget (HOx = OH+HO2) untersucht. Zu diesem Zweck wurde das Radikalmeßinstrument HORUS entwickelt. Im Rahmen dieser Arbeit wurden unterschiedliche Komponenten des Gerätes optimiert, der Meßaufbau ins Flugzeug integriert und Methoden zur Kalibrierung entwickelt. Bei der internationalen Vergleichskampagne HOxComp2005 zeigte HORUS seine Eignung zur Messung von troposphärischen OH- und HO2-Radikalen.rnrnDie durchgeführten HOx-Messungen während der GABRIEL-Meßkampagne sind die ersten ihrer Art, die über einem tropischen Regenwald stattgefunden haben. Im Gegensatz zu den Vorhersagen globaler Modelle wurden unerwartet hohe OH- und HO2-Konzentrationen in der planetaren Grenzschicht des tropischen Regenwalds beobachtet. Der Vergleich der berechneten OH-Produktions- und Verlustraten, die aus dem umfangreichen Datensatz von GABRIEL ermittelt wurden, zeigte, daß hierbei eine wichtige OH-Quelle unberücksichtigt blieb. Mit Hilfe des Boxmodells MECCA, in welchem die gemessenen Daten als Randbedingungen in die Simulationen eingingen, wurden die modellierten OH- und HO2- Konzentrationen im Gleichgewichtszustand den beobachteten Konzentrationen gegenübergestellt. Luftmassen der freien Troposphäre und der maritimen Grenzschicht zeigten eine gute Übereinstimmung zwischen Messung und Modell. Über dem tropischen Regenwald jedoch wurden die beobachteten HOx-Konzentrationen in der planetaren Grenzschicht durch das Modell, vor allem am Nachmittag, signifikant unterschätzt. Dabei lag die Diskrepanz zwischen den beobachteten und simulierten Konzentrationen bei einem mittleren Wert von OHobs/OHmod = 12.2 ± 3.5 und HO2obs/HO2mod = 4.1 ± 1.4. Die Abweichung zwischen Messung und Modell korrelieren hierbei mit der Isoprenkonzentration. Während für niedrige Isoprenmischungsverhältnisse, wie sie über dem Ozean oder in Höhen > 3 km vorherrschten, die Beobachtungen mit den Simulationen innerhalb eines Faktors 1.6±0.7 übereinstimmten, nahm die Unterschätzung durch das Modell für steigende Isoprenmischungsverhältnisse > 200 pptV über dem tropischen Regenwald zu.rnrnDer kondensierte chemische Mechanismus von MECCA wurde mit der ausführlichen Isoprenchemie des ”Master Chemical Mechanism“ überprüft, welches vergleichbare HOx-Konzentrationen lieferte. OH-Simulationen, durchgeführt mit der gemessenen HO2-Konzentration als zusätzliche Randbedingung, zeigten, daß die Konversion zwischen HO2 und OH innerhalb des Modells nicht ausreichend ist. Durch Vernachlässigung der gesamten Isoprenchemie konnte dagegen eine Übereinstimmung zwischen Modell und Messung erreicht werden. Eine OH-Quelle in der gleichen Größenordnung wie die OH-Senke durch Isopren, ist somit zur Beschreibung der beobachteten OH-Konzentration notwendig. Reaktionsmechanismen, die innerhalb der Isoprenchemie die gleiche Anzahl an OH-Radikalen erzeugen wie sie verbrauchen, könnten eine mögliche Ursache sein. Unterschiedliche zusätzliche Reaktionen wurden in die Isoprenabbaumechanismen des Modells implementiert, die zur Erhöhung der OH-Quellstärke führen sollten. Diese bewirkten eine Zunahme der simulierten HO2-Konzentrationen um einen maximalen Faktor von 5 für OH und 2 für HO2. Es wird eine OH-Zyklierungswahrscheinlichkeit r von bis zu 94% gefordert, wie sie für die GABRIEL-Messungen erreicht wurde. Die geringe OH-Zyklierungswahrscheinlichkeit von 38% des Modells zeigte, daß wichtige Zyklierungsvorgänge im chemischen Mechanismus bislang nicht berücksichtigt werden. Zusätzliche Zyklierungsreaktionen innerhalb des Isoprenmechanismus, die auch unter niedrigen NO-Konzentrationen zur Rückbildung von OHRadikalen führen, könnten eine Erklärung für die über dem Regenwald beobachteten hohen OH-Konzentration liefern.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oxidative DNA-Basenmodifikationen, wie 7,8-Dihydro-8-oxoguanin (8-oxoG), werden endogen in allen Zellen gebildet. Die beobachtbaren Spiegel ergeben sich aus dem Gleichgewicht zwischen der Bildung durch reaktive Sauerstoffspezies (ROS), sowie der gleichzeitigen Reparatur der DNA-Schäden. Durch ihr hohes mutagenes Potential, tragen oxidative DNA-Basenmodifikationen zur spontanen Mutationsrate bei. Der Ausfall wichtiger DNA-Reparaturmechanismen führt in Ogg1(-/-)Csb(-/-)-Knockout-Mäusen zu einem Anstieg von 8 oxoG und der spontanen Mutationsrate.rnIn dieser Arbeit sollte untersucht werden, ob die basalen Spiegel an oxidativen Basenmodifikationen und die spontanen Mutationsraten in vivo durch die orale Gabe von Resveratrol moduliert werden können. Resveratrol ist ein Pflanzeninhaltsstoff (u.a. aus Rotwein) mit einer Vielzahl von Wirkungen, der bereits in zahlreichen Studien ein chemopräventives Potential gezeigt hat und antioxidativ wirkt.rnAn verschiedenen Mausgenotypen wurden zum einen eine Kurzzeit-Behandlung (7 Tage mit 100 mg/kg per Gavage) und zum anderen eine Langzeit-Behandlung (3-9 Monate mit 0,04% ad libitum) mit Resveratrol durchgeführt. Die oxidativen DNA Schäden wurden in primären Maushepatozyten mit Hilfe einer modifizierten Alkalischen Elution, mit der bakteriellen Formamidopyrimidin-DNA Glykosylase als Sonde, bestimmt. Zur Analyse der Mutationsrate wurde der BigBlue® Mutationsassay mit anschließender Sequenzierung der Mutationen verwendet.rnDie Ergebnisse zeigen, dass die Kurzzeit- und die Langzeit-Behandlung mit Resveratrol die basalen Spiegel oxidativer DNA-Basenmodifikationen senken. Die Reduktion ist jeweils wesentlich ausgeprägter in den reparaturdefizienten Ogg1(-/-)Csb(-/-)-Mäusen zu erkennen. Auch die spontane Mutationsrate wird durch eine mehrmonatige Behandlung mit Resveratrol um ungefähr 20-30% reduziert.rnAnschließende mechanistische Untersuchungen zeigten, dass dieser Schutz wahrscheinlich auf einer Induktion der antioxidativen Schutzmechanismen begründet ist. So wurde gefunden, dass primäre Hepatozyten aus mit Resveratrol behandelten Mäusen wesentlich besser gegen exogen herbeigeführten oxidativen Stress geschützt sind, als Hepatozyten von unbehandelten Tieren. Ein weiterer Hinweis ist die Hochregulation der mRNA-Spiegel von verschiedenen antioxidativen Schutzenzymen, wie Superoxiddismutase 1 / 2, Hämoxygenase 1, Glutathionperoxidase 1, nach der Gabe von Resveratrol in Mäuselebern. Außerdem sind die oxidativen Markermutationen (GC->TA-Transversionen) stärker von der Reduktion der spontanen Mutationsrate betroffen, als andere Mutationen (z.B. GC->AT-Transitionen).rnDie Ergebnisse zeigen erstmalig, dass spontane Mutationen in vivo durch Fremdstoffe in der Nahrung reduziert werden können. Im Falle von Resveratrol wird diese Reduktion wahrscheinlich durch eine Stimulation der antioxidativen Schutzmechanismen ausgelöst.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In den westlichen Ländern nimmt die Zahl der Schlaganfall-Patienten stetig zu und zählt mittlerweilernzu einer der häufigsten Todesursachen. Derzeit ist die Rekanalisationstherapie mit demrnFibrinolytikum rt-PA die einzig zugelassene Therapie. Die Rekanalisationsrate ist oftmals inkomplettrnund aufgrund von möglichen Blutungskomplikationen die Therapie nicht bei allen Patientenrnmöglich. Daher ist es wichtig, Alternativtherapieansätze (z.B. Ultraschallthrombolyse) zurnentwickeln. Blutgerinnsel können mit Hilfe von Ultraschall in Schwingung gebracht und sornlysiert oder die Wirkung von rt-PA verstärkt werden. Die vorliegende Arbeit hatte die Evaluationrnvon Bioeffekten von 60 kHz Ultraschall an gesundem und ischämischem Hirngewebe zum Ziel.rnNeben tierexperimentellen Methoden kamen auch molekular-biologische Techniken zur Anwendung.rnDie erste Studie beschäftigte sich mit der Wirkung von 60 kHz (Intensität: 0,2 W/cm2 undrnDuty Cycle 50%) auf ischämisches Hirngewebe (permanent ischämisch und nach Reperfusion).rnLediglich nach Reperfusion und Ultraschallbehandlung war das Läsionsvolumen signifikantrnerhöht, so dass von einer besonderen Vulnerabilität des Hirngewebes nach Reperfusionrnauszugehen ist (Penumbraschädigung). In der neurologischen Beurteilung der Tiere zeigte sichrnbei allen Tieren mit permanenter Okklusion und etwa einem Drittel der Tiere nach Reperfusionrnund Ultraschallbehandlung eine Hörminderung. In der anschließenden Studie wurde diernUltraschallintensität erniedrigt und der Duty Cycle variiert. In einer publizierten in vitro Studiernkonnte die zunehmende Lyserate mit steigendem Duty Cycle nachgewiesen werden. DiernAuswertung ergab eine Abhängigkeit des Läsionsvolumens von der Länge des Duty Cycles. Derrndritte Teil der Arbeit befasst sich mit der Wirkung von Ultraschall auf die Genexpression. Hierzurnwurden gesunde Ratten mit Ultraschall verschiedener Frequenzen (60 kHz, 488 kHz und 3 MHz)rntranskraniell behandelt und 4 h bzw. 24 h nach der Behandlung getötet. Proben von ischämischenrnTieren dienten als positive Kontrollen. Aufgrund von Literaturrecherchen wurden mehrerernKandidatengene ermittelt. Die Messung der Ischämieproben ergab eine weitgehende Übereinstimmungrnmit der Literatur. Die Messungen an den mit 60 kHz behandelten Proben ergabenrnkaum Anzeichen für eine differenzielle Genregulation. Die Frequenz von 488 kHz zeigte diernmeisten Regulationen, gefolgt von der Behandlung mit 3 MHz. Dieses Ergebnis lässt vermuten,rndass es sich bei den detektierten Veränderungen um protektive Mechanismen handelt, da diesernFrequenzen bislang im Tierversuch als nebenwirkungsarm beschrieben wurden. Die Auswertungrnvon 60 kHz-Proben mit Affymetrix Arrays ergab lediglich einige wenige differentiell regulierternGene. Die Array-Experimente konnten nicht durch qPCR-Messungen bestätigt werden.