33 resultados para Optimierung von Prozessparametern,
em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha
Resumo:
In der Herstellung fester Darreichungsformen umfasst die Granulierung einen komplexen Teilprozess mit hoher Relevanz für die Qualität des pharmazeutischen Produktes. Die Wirbelschichtgranulierung ist ein spezielles Granulierverfahren, welches die Teilprozesse Mischen, Agglomerieren und Trocknen in einem Gerät vereint. Durch die Kombination mehrerer Prozessstufen unterliegt gerade dieses Verfahren besonderen Anforderungen an ein umfassendes Prozessverständnis. Durch die konsequente Verfolgung des PAT- Ansatzes, welcher im Jahre 2004 durch die amerikanische Zulassungsbehörde (FDA) als Guideline veröffentlicht wurde, wurde der Grundstein für eine kontinuierliche Prozessverbesserung durch erhöhtes Prozessverständnis, für Qualitätserhöhung und Kostenreduktion gegeben. Die vorliegende Arbeit befasste sich mit der Optimierung der Wirbelschicht-Granulationsprozesse von zwei prozesssensiblen Arzneistoffformulierungen, unter Verwendung von PAT. rnFür die Enalapril- Formulierung, einer niedrig dosierten und hochaktiven Arzneistoffrezeptur, wurde herausgefunden, dass durch eine feinere Zerstäubung der Granulierflüssigkeit deutlich größere Granulatkörnchen erhalten werden. Eine Erhöhung der MassRatio verringert die Tröpfchengröße, dies führt zu größeren Granulaten. Sollen Enalapril- Granulate mit einem gewünschten D50-Kornverteilung zwischen 100 und 140 um hergestellt werden, dann muss die MassRatio auf hohem Niveau eingestellt werden. Sollen Enalapril- Granulate mit einem D50- Wert zwischen 80 und 120µm erhalten werden, so muss die MassRatio auf niedrigem Niveau eingestellt sein. Anhand der durchgeführten Untersuchungen konnte gezeigt werden, dass die MassRatio ein wichtiger Parameter ist und zur Steuerung der Partikelgröße der Enalapril- Granulate eingesetzt werden kann; unter der Voraussetzung dass alle anderen Prozessparameter konstant gehalten werden.rnDie Betrachtung der Schnittmengenplots gibt die Möglichkeit geeignete Einstellungen der Prozessparameter bzw. Einflussgrößen zu bestimmen, welche dann zu den gewünschten Granulat- und Tabletteneigenschaften führen. Anhand der Lage und der Größe der Schnittmenge können die Grenzen der Prozessparameter zur Herstellung der Enalapril- Granulate bestimmt werden. Werden die Grenzen bzw. der „Design Space“ der Prozessparameter eingehalten, kann eine hochwertige Produktqualität garantiert werden. rnUm qualitativ hochwertige Enalapril Tabletten mit der gewählten Formulierung herzustellen, sollte die Enalapril- Granulation mit folgenden Prozessparametern durchgeführt werden: niedrige Sprührate, hoher MassRatio, einer Zulufttemperatur von mindestens > 50 °C und einer effektiven Zuluftmenge < 180 Nm³/h. Wird hingegen eine Sprührate von 45 g/min und eine mittlere MassRatio von 4.54 eingestellt, so muss die effektive Zuluftmenge mindestens 200 Nm³/h und die Zulufttemperatur mindestens 60 °C betragen, um eine vorhersagbar hohe Tablettenqualität zu erhalten. Qualität wird in das Arzneimittel bereits während der Herstellung implementiert, indem die Prozessparameter bei der Enalapril- Granulierung innerhalb des „Design Space“ gehalten werden.rnFür die Metformin- Formulierung, einer hoch dosierten aber wenig aktiven Arzneistoffrezeptur wurde herausgefunden, dass sich der Wachstumsmechanismus des Feinanteils der Metformin- Granulate von dem Wachstumsmechanismus der D50- und D90- Kornverteilung unterscheidet. Der Wachstumsmechanismus der Granulate ist abhängig von der Partikelbenetzung durch die versprühten Flüssigkeitströpfchen und vom Größenverhältnis von Partikel zu Sprühtröpfchen. Der Einfluss der MassRatio ist für die D10- Kornverteilung der Granulate vernachlässigbar klein. rnMit Hilfe der Störgrößen- Untersuchungen konnte eine Regeleffizienz der Prozessparameter für eine niedrig dosierte (Enalapril)- und eine hoch dosierte (Metformin) Arzneistoffformulierung erarbeitet werden, wodurch eine weitgehende Automatisierung zur Verringerung von Fehlerquellen durch Nachregelung der Störgrößen ermöglicht wird. Es ergibt sich für die gesamte Prozesskette ein in sich geschlossener PAT- Ansatz. Die Prozessparameter Sprührate und Zuluftmenge erwiesen sich als am besten geeignet. Die Nachregelung mit dem Parameter Zulufttemperatur erwies sich als träge. rnFerner wurden in der Arbeit Herstellverfahren für Granulate und Tabletten für zwei prozesssensible Wirkstoffe entwickelt. Die Robustheit der Herstellverfahren gegenüber Störgrößen konnte demonstriert werden, wodurch die Voraussetzungen für eine Echtzeitfreigabe gemäß dem PAT- Gedanken geschaffen sind. Die Kontrolle der Qualität des Produkts findet nicht am Ende der Produktions- Prozesskette statt, sondern die Kontrolle wird bereits während des Prozesses durchgeführt und basiert auf einem besseren Verständnis des Produktes und des Prozesses. Außerdem wurde durch die konsequente Verfolgung des PAT- Ansatzes die Möglichkeit zur kontinuierlichen Prozessverbesserung, zur Qualitätserhöhung und Kostenreduktion gegeben und damit das ganzheitliche Ziel des PAT- Gedankens erreicht und verwirklicht.rn
Resumo:
In der vorliegenden Arbeit werden Entwicklungen zur Optimierung von Selektivität und Effizienz von Resonanzionisations-Laserionenquellen vorgestellt. Mit der Perspektive auf die Anwendungen radioaktiver Ionenstrahlen in der Grundlagenforschung sowie auf Fragestellungen in der Ultraspurenanalytik wurden verschiedene Methoden entwickelt und erprobt: Auf Seiten der Grundlagenforschung wurden zwei komplementäre Ansätze, die Konstruktion von Ionenquellen aus Materialien niedriger Austrittsarbeit und die Weiterentwicklung der Laserionenquelle und -falle LIST umgesetzt. Hierdurch konnte die Selektivität der Resonanzionisation in on-line Tests um einige Gröÿenordnungen verbessert werden. Für die Ultraspurenanalytik wurden speziell angepasste, hocheffiziente Ionenquellen entwickelt. Mit diesen Ionenquellen wurde für die Resonanzionisation von Gallium eine Ionisationseffizienz von 67 % demonstriert, für den Ultraspurennachweis des im Zusammenhang der nuklearen Endlagerung wichtigen Radioisotops 99g-Technetium wurde auf dieser Grundlage eine Nachweisgrenze von weniger als 10^6 Atomen gezeigt.
Resumo:
Therapeutisches Drug Monitoring (TDM) findet Anwendung in der Therapie mit Immunosuppressiva, Antibiotika, antiretroviraler Medikation, Antikonvulsiva, Antidepressiva und auch Antipsychotika, um die Effizienz zu steigern und das Risiko von Intoxikationen zu reduzieren. Jedoch ist die Anwendung von TDM für Substanzen, die Einsatz finden in der Rückfallprophylaxe, der Substitution oder dem Entzug von Abhängigkeitserkrankungen nicht etabliert. Für diese Arbeit wurde im ersten Schritt eine sensitive Rating-Skala mit 22 Items entwickelt, mit Hilfe derer der theoretische Nutzen von TDM in der Pharmakotherapie von substanzbezogenen Abhängigkeitserkrankungen auf der Basis von pharmakologischen Eigenschaften der Medikamente und von Patientencharakteristika evaluiert wurde. Die vorgenommene Einschätzung zeigte für Bupropion, Buprenorphin, Disulfiram (oder einen Metaboliten), Methadon (chirale Bestimmung wenn möglich) und Naltrexon einen potentiellen Nutzen von TDM.rnFür die meisten Medikamente, die zur Behandlung von Abhängigkeitserkrankungen zugelassen sind, fehlen valide Messverfahren für TDM. Im Alltag werden überwiegend Drogen Screening-Tests in Form immunologischer Schnelltests angewendet. Für die Anwendung von TDM wurden in dieser Arbeit chromatographische Verfahren für die Bestimmung von Naltrexon und 6β-Naltrexol, Bupropion und Hydroxybupropion sowie R,S-Methadon und R,S-2-Ethyliden-1,5-dimethyl-3,3-diphenylpyrrolidin entwickelt, optimiert und validiert. Es handelt sich dabei HPLC-UV-Methoden mit Säulenschaltung sowie zur Bestimmung von Naltrexon und 6β-Naltrexol zusätzlich eine LC-MS/MS-Methode. Voraussetzung für die Interpretation der Plasmaspiegel ist im Wesentlichen die Kenntnis eines therapeutischen Bereichs. Für Naltrexon und seinen aktiven Metaboliten 6β-Naltrexol konnte eine signifikante Korrelation zwischen dem auftretenden Craving und der Summenkonzentration gefunden werden. Mittels Receiver-Operation-Characteristics-Kurven-Analyse wurde ein Schwellenwert von 16,6 ng/ml ermittelt, oberhalb dessen mit einem erhöhten Ansprechen gerechnet werden kann. Für Levomethadon wurde bezüglich der Detoxifikationsbehandlung ein Zusammenhang in der prozentualen Reduktion des Plasmaspiegels und den objektiven und subjektiven Entzugssymptomen gefunden. rnDoch nicht nur die Wirkstoffe, sondern auch das Patientenmerkmal substanzbezogene Abhängigkeit wurde charakterisiert, zum einen bezüglich pharmakokinetischer Besonderheiten, zum anderen in Hinsicht auf die Therapietreue (Adhärenz). Für Patienten mit komorbider Substanzabhängigkeit konnte eine verminderte Adhärenz unabhängig von der Hauptdiagnose gezeigt werden. Die Betrachtung des Einflusses von veränderten Leberwerten zeigt für komorbide Patienten eine hohe Korrelation mit dem Metabolisiererstatus, nicht aber für Patienten ohne Substanzabhängigkeit.rnÜbergeordnetes Ziel von TDM ist die Erhöhung der Therapiesicherheit und die Steigerung der Therapieeffizienz. Dies ist jedoch nur möglich, wenn TDM im klinischen Alltag integriert ist und korrekt eingesetzt wird. Obwohl es klare Evidenz für TDM von psychiatrischer Medikation gibt, ist die Diskrepanz zwischen Laborempfehlung und der klinischen Umsetzung hoch. Durch Intensivierung der interdisziplinären Zusammenarbeit zwischen Ärzten und Labor, der Entwicklung von interaktivem TDM (iTDM), konnte die Qualität der Anwendung von TDM verbessert und das Risiko von unerwünschten Arzneimittelwirkungen vermindert werden. rnInsgesamt konnte durch die eigenen Untersuchungen gezeigt werden, dass TDM für die medikamentöse Einstellung von Patienten mit Abhängigkeitserkrankung sinnvoll ist und dass optimales TDM eine interdisziplinäre Zusammenarbeit erfordert.rn
Resumo:
Ziel war es, molekularbiologische Untersuchungen zum Kolumnarwachstum des Apfels durchzuführen. Anhand Sequenzdaten des ‘Golden Delicious’ Genoms (Velasco et al. 2010) wurden drei neue SSR Marker entwickelt. Sie konnten bei untersuchten Geisenheimer Nachkommenschaften zuverlässig den Kolumnarwuchs auf DNA-Ebene detektieren. Zusätzlich wurden von Bai et al. (2012) veröffentlichte Marker untersucht. Die von Bai et al. (2012) gefundenen Grenzen des co-Lokus konnten in dieser Arbeit anhand der Geisenheimer Nachkommenschaften nicht bestätigt werden. Die „linke“ Begrenzung der co-Region wird nach Untersuchungen dieser Arbeit am ehesten von dem Marker Mdo.chr10.11 (Moriya et al. 2012) bei 18,757 Mbp definiert. Die „rechte“ Begrenzung der co-Region wird vermutlich von den Markern Co04R13 (Baldi et al. 2012) und C1753-3520 (Bai et al. 2012) bei 18,905 Mbp definiert, wodurch die potentielle co-Region auf 148 kb auf Chromosom 10 eingegrenzt werden könnte. Für Funktionsanalysen möglicher Kandidatengene des co-Gens wurde ein Agrobakterien-vermitteltes Transformationssystem für die Geisenheimer Apfelselektionen ‘A 14’ und ‘Procats 28’ adaptiert. Zusätzlich wurde der bereits in der Literatur als transformierbar beschriebene Genotyp ‘Jonagold’ (Viss et al. 2003) transformiert. Bei Transformationen der Apfelselektion ‘A 14’ gelang es, transgene Zellen an den Explantaten, am Kallusgewebe und an den Regeneraten zu erzeugen. Bei Transformationen von ‘Jonagold’ wurde ein fast vollständig transgenes Regenerat erzeugt.
Resumo:
Im Rahmen dieser Arbeit wurde eine Routinemethode zur Differenzierung und Identifizierung von Unterlagssorten in jedem Verarbeitungsstadium, wie Holz, Pfropfrebe, bereits im Weinberg gepflanzte Rebe, entwickelt. Hierfür wurde eine Methode erarbeitet, die es ermöglicht, DNA aus Blättern, Holz und Wurzeln gleichermaßen zu extrahieren. Vermischungen von Unterlagssorten in einem Unterlagenholzbündel konnten bis zu 10% Fremd-Unterlagenholz durch eine RAPD-PCR nachgewiesen werden. Mit den 12mer Primer #722b und #722c wurden sortenspezifische Banden für die Unterlagssorten Börner, 8B, 3309C und 5BB festgestellt. Der Primers # 751 war in der Lage von 151 Unterlagssorten und Wildarten 144 Genotypen zu unterschieden. Mit Hilfe der Optimierung von RAMP-Zeiten konnten die Bandenmuster der sieben in Deutschland am häufigsten verwendeten Unterlagssorten auf zwei unterschiedlichen Thermocyclern reproduziert werden. Aufgrund der Optimierung der RAPD-PCR war es möglich, die zur Unterscheidung notwendigen Banden durch eine lineare Transformation anhand einer ermittelten Referenzbande mathematisch und graphisch darzustellen. Klone der Unterlagssorten SO4, 125AA und 5C, sowie die Unterlagssorte Binova, wurden auf die Unterscheidungsmöglichkeit hin mit RAPD, AFLP und SAMPL untersucht. Innerhalb der AFLP-/SAMPL-Methode bildeten die zu einer Sorte gehörenden Unterlagenklone ein Cluster, wobei Binova innerhalb der SO4 Klone zu finden war. Es wurden âunterlagssortenspezifische Bandenâ, âwiederholende Bandenâ und âEinzelbandenâ gefunden.
Resumo:
Das Cydia pomonella Granulovirus (CpGV, Fam. Baculoviridae) ist ein sehr virulentes und hoch spezifisches Pathogen des Apfelwicklers (Cydia pomonella), das seit mehreren Jahren in der Bundesrepublik Deutschland und anderen Ländern der EU als Insektizid zugelassen ist. Wie andere Baculoviren auch befällt es die Larven der Insekten und ist aufgrund seiner Selektivität für Nicht-Zielorganismen unbedenklich. In der Vergangenheit konzentrierte sich die Erforschung des CpGV auf Bereiche, die für die Anwendung im Pflanzenschutz relevant waren, wobei nach fast 20 Jahren nach der ersten Zulassung noch immer nicht bekannt ist, ob und wie sich das CpGV in der Umwelt etablieren kann. Im Rahmen der vorliegenden Arbeit wurden verschiedene Parameter, mit deren Hilfe die Populationsdynamik des CpGV beschrieben werden kann, analysiert und quantitativ bestimmt. Neben den biologischen Eigenschaften wie Virulenz, DNA-Charakterisierung und Quantifizierung der Virusnachkommenschaft wurden insbesondere die horizontale sowie die vertikale Transmission, die Inaktivierung und die Infektion später Larvenstadien untersucht. Letztlich wurden die ermittelten Parameter zusammen mit Daten aus der Literatur in ein mathematisches Modell integriert. Um die Wahrscheinlichkeit der horizontalen Transmission zu quantifizieren, wurde ein Modellsystem mit losen Äpfeln etabliert, in dem verschiedene Szenarien möglicher horizontaler Transmission unter definierten Laborbedingungen getestet wurden. In Versuchsserien, in denen ein Virusfleck, entsprechend der produzierten Virusmenge einer Eilarve, auf einen Apfel appliziert worden war, war unter den aufgesetzten Apfelwicklerlarven lediglich eine sehr geringe Mortalität von 3 - 6% zu beobachten. Wurde jedoch ein an einer Virusinfektion gestorbener Larvenkadaver als Inokulum verwendet, lag die Mortalitätsrate aufgesetzter Larven bei über 40%. Diese beobachtete hohe horizontale Transmissionsrate konnte mit dem Verhalten der Larven erklärt werden. Die Larven zeigten eine deutliche Einbohrpräferenz für den Stielansatz bzw. den Kelch, wodurch die Wahrscheinlichkeit des Zusammentreffens einer an der Infektion verendeten Larve mit einer gesunden Larve um ein Vielfaches zunahm. In einem ähnlich angelegten Freilandversuch konnte eine horizontale Transmission nicht belegt werden. Der Unterschied zur Kontrollgruppe fiel aufgrund einer hohen natürlichen Mortalität und einer damit einhergehenden niedrigen Dichte der Larven zu gering aus. Parallel hierzu wurde außerdem eine Halbwertszeit von 52 Sonnenstunden für das CpGV ermittelt. Weiterhin konnte festgestellt werden, dass die Mortalität von späteren Larvenstadien, die 14 Tage Zeit hatten sich in die Äpfel einzubohren, bevor eine CpGV-Applikation durchgeführt wurde, ebenso hoch war wie bei Larven, die sich im L1-Stadium auf der Apfeloberfläche infizierten. Aufgrund des höheren Alters jener Larven war der Fraßschaden an befallenen Äpfeln jedoch wesentlich größer und vergleichbar mit dem Fraßschaden einer unbehandelten Kontrolle. Der Versuch zur vertikalen Transmission zeigte dass, obwohl die verwendete Apfelwicklerzucht nicht frei von CpGV war, die Mortalitätsrate der Nachkommen subletal infizierter Weibchen (44%) jedoch deutlich höher war als die der Nachkommen subletal infizierter Männchen (28%) und der unbehandelten Kontrolle (27%). Auch in den PCR-Analysen konnte eine größere Menge an CpGV-Trägern bei den Nachkommen subletal infizierter Weibchen (67%) als bei den Nachkommen subletal infizierter Männchen (49%) und bei der Kontrolle (42%) nachgewiesen werden. Die Ergebnisse deuten darauf hin, dass eine Infektion durch subletal infizierte Weibchen vertikal in die nächste Generation übertragen werden kann. Dies lässt erkennen, dass in der Folgegeneration des Apfelwicklers eine zusätzliche Wirkung des CpGV durch vertikale Transmission auftreten kann. Hierin wäre auch ein potentieller Mechanismus für eine dauerhafte Etablierung des Virus zu sehen. Letztlich wurden alle Parameter, die die CpGV-Apfelwickler-Beziehung beschreiben, in ein mathematisches Modell GRANULO integriert. Nach einer Sensitivitätsanalyse wurde GRANULO teilweise mit Daten aus den Freilandversuchen verifiziert. Durch Modifikation der Virusparameter im Modell konnte anschließend der Einfluss veränderter biologischer Eigenschaften (UV-Stabilität und Transmissionsraten) der Viren in Simulationen theoretisch erprobt werden. Das beschriebene Modell, das allerdings noch einer weitergehenden Verifizierung und Validierung bedarf, ist eine erste Annäherung an die quantitative Erfassung und Modellierung der Populationsdynamik des Systems CpGV-Apfelwickler. Die im Zusammenhang mit der Populationsdynamik des Apfelwicklers erhobenen Daten können einen wertvollen Beitrag zur Optimierung von Kontrollstrategien des Apfelwicklers mittels CpGV leisten. Außerdem geben sie Aufschluss über die Etablierungsmöglichkeiten dieses Bioinsektizids.
Resumo:
Durch globale Expressionsprofil-Analysen auf Transkriptom-, Proteom- oder Metabolom-Ebene können biotechnologische Produktionsprozesse besser verstanden und die Erkenntnisse für die zielgerichtete, rationale Optimierung von Expressionssystemen genutzt werden. In der vorliegenden Arbeit wurde die Überexpression einer Glukose-Dehydrogenase (EC 1.1.5.2), die von der Roche Diagnostics GmbH für die diagnostische Anwendung optimiert worden war, in Escherichia coli untersucht. Die Enzymvariante unterscheidet sich in sieben ihrer 455 Aminosäuren vom Wildtyp-Enzym und wird im sonst isogenen Wirt-/Vektor-System in signifikant geringeren Mengen (Faktor 5) gebildet. Das prokaryontische Expressionssystem wurde auf Proteom-Ebene charakterisiert. Die 2-dimensionale differenzielle Gelelektrophorese (DIGE) wurde zuvor unter statistischen Aspekten untersucht. Unter Berücksichtigung von technischen und biologischen Variationen, falsch-positiven (α-) und falsch-negativen (β-) Fehlern sowie einem daraus abgeleiteten Versuchsdesign konnten Expressionsunterschiede als signifikant quantifiziert werden, wenn sie um den Faktor ≥ 1,4 differierten. Durch eine Hauptkomponenten-Analyse wurde gezeigt, dass die DIGE-Technologie für die Expressionsprofil-Analyse des Modellsystems geeignet ist. Der Expressionsstamm für die Enzymvariante zeichnete sich durch eine höhere Variabilität an Enzymen für den Zuckerabbau und die Nukleinsäure-Synthese aus. Im Expressionssystem für das Wildtyp-Enzym wurde eine unerwartet erhöhte Plasmidkopienzahl nachgewiesen. Als potenzieller Engpass in der Expression der rekombinanten Glukose-Dehydrogenase wurde die Löslichkeitsvermittlung identifiziert. Im Expressionsstamm für das Wildtyp-Enzym wurden viele Proteine für die Biogenese der äußeren Membran verstärkt exprimiert. Als Folge dessen wurde ein sog. envelope stress ausgelöst und die Zellen gingen in die stationäre Wuchsphase über. Die Ergebnisse der Proteomanalyse wurden weiterführend dazu genutzt, die Produktionsleistung für die Enzymvariante zu verbessern. Durch den Austausch des Replikationsursprungs im Expressionsvektor wurde die Plasmidkopienzahl erhöht und die zelluläre Expressionsleistung für die diagnostisch interessantere Enzymvariante um Faktor 7 - 9 gesteigert. Um die Löslichkeitsvermittlung während der Expression zu verbessern, wurde die Plasmidkopienzahl gesenkt und die Coexpression von Chaperonen initiiert. Die Ausbeuten aktiver Glukose-Dehydrogenase wurden durch die Renaturierung inaktiven Produkts aus dem optimierten Expressionssystem insgesamt um einen Faktor von 4,5 erhöht. Somit führte im Rahmen dieser Arbeit eine proteombasierte Expressionsprofil-Analyse zur zielgerichteten, rationalen Expressionsoptimierung eines prokaryontischen Modellsystems.
Resumo:
The mixing of nanoparticles with polymers to form composite materials has been applied for decades. They combine the advantages of polymers (e.g., elasticity, transparency, or dielectric properties) and inorganic nanoparticles (e.g., specific absorption of light, magneto resistance effects, chemical activity, and catalysis etc.). Nanocomposites exhibit several new characters that single-phase materials do not have. Filling the polymeric matrix with an inorganic material requires its homogeneous distribution in order to achieve the highest possible synergetic effect. To fulfill this requirement, the incompatibility between the filler and the matrix, originating from their opposite polarity, has to be resolved. A very important parameter here is the strength and irreversibility of the adsorption of the surface active compound on the inorganic material. In this work the Isothermal titration calorimetry (ITC) was applied as a method to quantify and investigate the adsorption process and binding efficiencies in organic-inorganic–hybrid-systems by determining the thermodynamic parameters (ΔH, ΔS, ΔG, KB as well as the stoichiometry n). These values provide quantification and detailed understanding of the adsorption process of surface active molecules onto inorganic particles. In this way, a direct correlation between the adsorption strength and structure of the surface active compounds can be achieved. Above all, knowledge of the adsorption mechanism in combination with the structure should facilitate a more rational design into the mainly empirically based production and optimization of nanocomposites.
Resumo:
Das Standardmodell der Teilchenphysik, das drei der vier fundamentalen Wechselwirkungen beschreibt, stimmt bisher sehr gut mit den Messergebnissen der Experimente am CERN, dem Fermilab und anderen Forschungseinrichtungen überein. rnAllerdings können im Rahmen dieses Modells nicht alle Fragen der Teilchenphysik beantwortet werden. So lässt sich z.B. die vierte fundamentale Kraft, die Gravitation, nicht in das Standardmodell einbauen.rnDarüber hinaus hat das Standardmodell auch keinen Kandidaten für dunkle Materie, die nach kosmologischen Messungen etwa 25 % unseres Universum ausmacht.rnAls eine der vielversprechendsten Lösungen für diese offenen Fragen wird die Supersymmetrie angesehen, die eine Symmetrie zwischen Fermionen und Bosonen einführt. rnAus diesem Modell ergeben sich sogenannte supersymmetrische Teilchen, denen jeweils ein Standardmodell-Teilchen als Partner zugeordnet sind.rnEin mögliches Modell dieser Symmetrie ist das R-Paritätserhaltende mSUGRA-Modell, falls Supersymmetrie in der Natur realisiert ist.rnIn diesem Modell ist das leichteste supersymmetrische Teilchen (LSP) neutral und schwach wechselwirkend, sodass es nicht direkt im Detektor nachgewiesen werden kann, sondern indirekt über die vom LSP fortgetragene Energie, die fehlende transversale Energie (etmiss), nachgewiesen werden muss.rnrnDas ATLAS-Experiment wird 2010 mit Hilfe des pp-Beschleunigers LHC mit einer Schwerpunktenergie von sqrt(s)=7-10 TeV mit einer Luminosität von 10^32 #/(cm^2*s) mit der Suche nach neuer Physik starten.rnDurch die sehr hohe Datenrate, resultierend aus den etwa 10^8 Auslesekanälen des ATLAS-Detektors bei einer Bunchcrossingrate von 40 MHz, wird ein Triggersystem benötigt, um die zu speichernde Datenmenge zu reduzieren.rnDabei muss ein Kompromiss zwischen der verfügbaren Triggerrate und einer sehr hohen Triggereffizienz für die interessanten Ereignisse geschlossen werden, da etwa nur jedes 10^8-te Ereignisse für die Suche nach neuer Physik interessant ist.rnZur Erfüllung der Anforderungen an das Triggersystem wird im Experiment ein dreistufiges System verwendet, bei dem auf der ersten Triggerstufe mit Abstand die höchste Datenreduktion stattfindet.rnrnIm Rahmen dieser Arbeit rn%, die vollständig auf Monte-Carlo-Simulationen basiert, rnist zum einen ein wesentlicher Beitrag zum grundlegenden Verständnis der Eigenschaft der fehlenden transversalen Energie auf der ersten Triggerstufe geleistet worden.rnZum anderen werden Methoden vorgestellt, mit denen es möglich ist, die etmiss-Triggereffizienz für Standardmodellprozesse und mögliche mSUGRA-Szenarien aus Daten zu bestimmen. rnBei der Optimierung der etmiss-Triggerschwellen für die erste Triggerstufe ist die Triggerrate bei einer Luminosität von 10^33 #/(cm^2*s) auf 100 Hz festgelegt worden.rnFür die Triggeroptimierung wurden verschiedene Simulationen benötigt, bei denen eigene Entwicklungsarbeit eingeflossen ist.rnMit Hilfe dieser Simulationen und den entwickelten Optimierungsalgorithmen wird gezeigt, dass trotz der niedrigen Triggerrate das Entdeckungspotential (für eine Signalsignifikanz von mindestens 5 sigma) durch Kombinationen der etmiss-Schwelle mit Lepton bzw. Jet-Triggerschwellen gegenüber dem bestehenden ATLAS-Triggermenü auf der ersten Triggerstufe um bis zu 66 % erhöht wird.
Resumo:
Die Entstehung der Atherosklerose ist ein komplexer Vorgang, der sich durch Ablagerung von Lipiden an der Gefäßwand sowie durch immunologische und inflammatorische Prozesse auszeichnet. Neben konventionellen Risikofaktoren wie Alter, Geschlecht, Rauchen, HDL-Cholesterin, Diabetes mellitus und einer positiven Familienanamnese werden zur Bestimmung des atherosklerotischen Risikos neue Biomarker der inflammatorischen Reaktion untersucht. Ziel dieser Arbeit war die Entwicklung einer Methode zur Diagnostik des Atheroskleroserisikos. Es wurde eine neuartige Chip-Technologie eingesetzt, um das Risiko für eine potentiell drohende atherosklerotische Erkrankung abzuschätzen. Dabei wurde ausgenutzt, dass molekulare Veränderungen in Genen bestimmte Krankheitsbilder auslösen können. rnEs wurde ein molekularbiologischer Test entwickelt, welcher die Untersuchung von genetischen Variationen aus genomischer DNA ermöglicht. Dafür fand die Entwicklung einer Multiplex-PCR statt, deren Produkt mit der Chip-Technologie untersucht werden kann. Dazu wurden auf einem Mikroarray Sonden immobilisiert, mit deren Hilfe genspezifische Mutationen nachgewiesen werden können. So wurden mehrere Gene mit einem geringen Aufwand gleichzeitig getestet. rnDie Auswahl der entsprechenden Marker erfolgte anhand einer Literaturrecherche von randomisierten und kontrollierten klinischen Studien. Der Mikroarray konnte für zwölf Variationen in den acht Genen Prostaglandinsynthase-1 (PTGS1), Endotheliale NO-Synthase (eNOS), Faktor V (F5), 5,10-Methylentetrahydrofolsäure-Reduktase (MTHFR), Cholesterinester-Transferprotein (CETP), Apolipoprotein E (ApoE), Prothrombin (F2) und Lipoproteinlipase (LPL) erfolgreich etabliert werden. Die Präzision des Biochips wurde anhand der Echtzeit-PCR und der Sequenzierung nachgewiesen. rnDer innovative Mikroarray ermöglicht eine einfache, schnelle und kosteneffektive Genotypisierung von wichtigen Allelen. Viele klinisch relevante Variationen für Atherosklerose können nun in nur einem Test überprüft werden. Zukünftige Studien müssen zeigen, ob die Methode eine Vorhersage über den Ausbruch der Erkrankung und eine gezielte Therapie ermöglicht. Dies wäre ein erster Schritt in Richtung präventive und personalisierter Medizin für Atherosklerose.rn
Resumo:
In der vorliegenden Arbeit wurde die Bedeutung verschiedener Präparationsparameter auf die Schichtpräparation von Polymerfilmen durch Schleuderbeschichtung untersucht. Insbesondere war der Einfluß der Konzentration bzw. Viskosität der Polymerlösungen, der Umdrehungszahl und der Präparationstemperatur auf die Schichtdicke und Schichtrauhigkeit von Interesse. Eine systematische Variation der Präparationsparameter wurde an Polystyrol/Toluol-, Polycarbonat/DMF- und Polycarbonat/Cyclohexanon-Lösungen vorgenommen. Es stellte sich heraus, daß eine Schichtpräparation beim Gebrauch des Lösungsmittels DMF erst bei Temperaturen oberhalb der Raumtemperatur möglich wurde. Das Auftreten von Defekten in den aus höherkonzentrierten Lösungen hergestellten Schichten ist möglicherweise auf die Bildung von Gelpartikeln in den Lösungen zurückzuführen. Die Lösungsmittelauswahl spielt daher eine Schlüsselrolle bei der Präparation defektfreier Schichten. Es sollte ein Lösungsmittel verwendet werden, dessen Löslichkeitsparameter mit dem zu lösenden Polymeren idealerweise übereinstimmt und das einen hohen Siedepunkt besitzt. Falls die Schichtdicke auf einen bestimmten Wert festgelegt ist, so folgen aus den Polystyrol- und Polycarbonatergebnissen unterschiedliche Schlußfolgerungen zur Reduzierung der Rauhigkeit, die sich jedoch auf einen gemeinsamen Nenner bringen lassen. Betrachtet man die an Polystyrol- und Polycarbonatschichten gewonnenen Resultate gemeinsam, so erscheint es zur Reduzierung der Rauhigkeit bei vorgegebener Schichtdicke sinnvoller, die Präparation bei großer Umdrehungszahl und hoher Konzentration durchzuführen als bei kleiner Umdrehungszahl aus niederkonzentrierten Lösungen. Eine Variation der Präparationstemperatur erweist sich als außerordentlich hilfreich zur Optimierung der Schichtqualität. Dies zeigt sich insbesondere bei der Präparation von Polycarbonat-, D/A-PPV- und Polyvinylkarbazol-Schichten, wenn DMF als Lösungsmittel verwendet wird. Durch eine Temperaturerhöhung ist zudem eine größere Schichtdicke erreichbar. Dies kann sich unter Umständen bei schwerlöslichen Substanzen als vorteilhaft erweisen, um die für Wellenleiteranwendungen erforderliche Mindestschichtdicke zu erreichen. Aus den Abhängigkeiten der Schichtdicke von den Präparationsparametern Konzentration und Umdrehungszahl lassen dich Potenzgesetze der Form ? ableiten. Der Exponent ? hängt vom speziellen Polymer/Lösungsmittelsystem und von der Temperatur ab; für ? wurde meistens ein Wert von -0.5 gefunden. Zur Bestimmung der Exponenten sind nur vier verschiedene Parametersätze (?,?) notwendig. Bei Kenntnis von ? und ? kann die Schichtdicke für eine beliebige (?,?)-Kombination im voraus in guter Näherung bestimmt werden, was in der Praxis häufig nützlich ist. Durch Beachtung dieser Präparationsregeln konnten neben dämpfungsarmen Polystyrol- und Polycarbonatschichten auch filme aus konjugierten Polymeren hergestellt werden, deren Dämpfungskoeffizienten teilweise deutlich unter 1 dB/cm lagen. Hier sind besonders die Resultate an DPOP-PPV und CNE-PPV Schichten hervorzuheben. Die erreichten Dämpfungswerte sind besser bzw. vergleichbar mit den geringsten Werten, die bisher in der Literatur zu konjugierten Polymerfilmen veröffentlicht wurden. Bei einigen Substanzen scheiterte die Präparation ausreichend dicker Filme bzw. Dämpfungsmessungen an einer zu geringen Löslichkeit oder an der Bildung polykristalliner Domänen bzw. sonstiger Defekte. Dies macht deutlich, daß eine erfolgreiche Schichtpräparation wesentlich von der chemischen struktur abhängt. Die Abschätzung des Güteparameters (Figure Of Merit) ergab mit den gemessenen nichtlinear-optischen Suszeptibilitäten ?
Resumo:
Zusammenfassung Das Ziel der Arbeit bestand darin, mit der Aufklärung der Abbindereaktion von Zinkphosphatzement eine Grundlage für eine gezielte Modifikation bzw. Optimierung zu schaffen, insbesondere im Hinblick auf einen Einsatz als permanenter Füllungswerkstoff. Über den Abbindechemismus war bislang lediglich bekannt, daß es sich bei den primär gebildeten Reaktionsprodukten um röntgenamorphe Phasen handelt, die sich nach Wochen bzw. Monaten in das thermodynamisch stabile Reaktionsprodukt alpha-Hopeit (alpha-Zn3(PO4)2·4H2O) umwandeln.Im Rahmen der vorliegenden Arbeit gelang durch den Einsatz der Infrarot-Reflexionsspek-troskopie (DRIFT) die Identifikation von Dizink Cyclotetraphosphat-Octahydrat (Zn2P4O12·8H2O) als röntgenamorpher Vorläuferphase. Das kondensierte Phosphat ist hydrolyseempfindlich sowie thermodynamisch instabil. Mit Hilfe der zeitaufgelösten 1H NMR-Spektroskopie konnte gezeigt werden, daß bereits nach ca. 10 Minuten eine Phasenumwandlung (topochemische Disproportionierung) in ein zunächst röntgenamorphes Orthophosphat stattfindet. Mittels 31P Doppelquanten-NMR-Spektroskopie gelang der Nachweis, daß innerhalb des röntgenamorphen Bereiches lokal nahgeordnete (nanokristalline) Bereiche auftreten, deren Ordnung sich auf einer Längenskala von 10 bis 30 Å erstreckt. Die Nanokristallite unterliegen einem Wachstumsprozeß, der schließlich zu alpha-Hopeit-Kristallen mit Ausdehnungen im Mikrometerbereich führt. Die Ursache für die primäre Ausbildung röntgenamorpher Reaktionsprodukte kann zunächst gelösten Aluminophosphatkomplexen zugeordnet werden, die im Verlauf der Abbindereaktion zu anorganischen Polymeren aggregieren und damit als Kristallisationsinhibitoren fungieren.
Resumo:
Bei Nierenzellkarzinomen (NZK), wie auch bei vielen anderen Tumoren konnte eine reduzierte Expression der Klasse I Haupthistokompatibilitäts-Komplexe (MHC Klasse I) nachgewiesen werden, die assoziiert sein kann mit der gestörten Expression oder Funktion von Komponenten der Antigenprozessierung. Eine verminderte Erkennung solcher Tumore durch zytotoxische T-Lymphozyten und ein Zusammenhang mit einem Fortschreiten der Erkrankung führte zu der Annahme, daß es sich bei diesen Störungen um "immune escape"-Mechanismen handelt. Um die Bedeutung des heterodimeren Peptidtransporters TAP ("transporter associated with antigen processing") für die Immunogenität von Nierenzellkarzinomen zu untersuchen, wurde im Rahmen dieser Arbeit erstmals der stabile Gentransfer des humanen TAP1A-Gens in Nierenzellkarzinom-Zellen erfolgreich durchgeführt.
Dies konnte durch die Optimierung der Transfektionsmethode und des verwendeten Plasmid-Vektors erreicht werden. Die Transfektionen wurden mit Hilfe der Rechteck-Impuls-Elektroporation unter spezifischen, in der Arbeit etablierten Bedingungen durchgeführt. Der CMV-regulierte TAP-Expressions-Vektor wurde dahingehend verbessert, daß durch die Einführung einer IRES ("internal ribosomal entry site") Sequenz eine bicistronische m-RNS transkribiert wird, die sowohl das TAP1-Transgen als auch den Neomycin-Selektionsmarker enthält.
Es konnte nach klonaler Selektion eine stabile, aber unter den sieben getesteten Klonen heterogene Transkription der transgenen TAP1-mRNS nachgewiesen werden. In der Protein-Expression zeigten 5/7 der TAP1A-positive Klone eine mindestens zweifache Induktion der TAP1-Expression. In 2/7 dieser TAP1A-positive Klone war die TAP1-Überexpression mit einer Erhöhung der MHC Klasse I-Expression und selektiver Induktion des HLA-A2-Moleküls in der Durchflußzytometrie verbunden. Eine Quantifizierung des Peptidtransportes ergab je nach verwendetem Modellpeptid eine geringe oder gar keine Erhöhung der Transportrate in den TAP1-Transfektanden gegenüber Kontrollzellen. Ebenfalls konnte in Zytotoxizitäts-Analysen mit einer autologen T-Zellinie eine Erhöhung der spezifischen Lyse nicht gezeigt werden. Jedoch wurden im Zellkultur-Überstand dieser Zytotoxizitäts-Analysen bei einigen TAP1A-positive Transfektanden gegenüber mock transfizierten-Kontrollzellen deutlich erhöhte Werte des Tumornekrose-Faktor-alpha (TNF-alpha) gemessen, was als Maß einer T-Zell-Aktivierung gilt. Diese Ergebnisse sind konsistent mit einer ebenfalls deutlich gesteigerten T-Zell-Proliferation in Anwesenheit von TAP1A-positive Transfektanden.
Die alleinige stabile Überexpression von TAP1 in Nierenzellkarzinomzellen kann somit zu einer Modulation der MHC Klasse I-Expression und der T-Zell-Reaktivität führen. Das weist darauf hin, daß eine starke, konstitutive TAP1-Expression eine grundlegende Voraussetzung für eine effiziente Antigenprozessierung und Immunantwort darstellt und die Immuntoleranz gegenüber NZK durch stabilen TAP1-Gentransfer beinflußbar ist. Eine denkbare klinische Anwendung dieser Technik ist die Herstellung einer Tumorantigen-präsentierenden Zellvakzine, die eine T-Zell-Anergie gegenüber NZK durchbrechen könnte.
Schlüsselwörter: TAP, MHC, Antigenprozessierung, Tumorimmunologie, Gentransfer
Resumo:
Der AMANDA-II Detektor ist primär für den richtungsaufgelösten Nachweis hochenergetischer Neutrinos konzipiert. Trotzdem können auch niederenergetische Neutrinoausbrüche, wie sie von Supernovae erwartet werden, mit hoher Signifikanz nachgewiesen werden, sofern sie innerhalb der Milchstraße stattfinden. Die experimentelle Signatur im Detektor ist ein kollektiver Anstieg der Rauschraten aller optischen Module. Zur Abschätzung der Stärke des erwarteten Signals wurden theoretische Modelle und Simulationen zu Supernovae und experimentelle Daten der Supernova SN1987A studiert. Außerdem wurden die Sensitivitäten der optischen Module neu bestimmt. Dazu mussten für den Fall des südpolaren Eises die Energieverluste geladener Teilchen untersucht und eine Simulation der Propagation von Photonen entwickelt werden. Schließlich konnte das im Kamiokande-II Detektor gemessene Signal auf die Verhältnisse des AMANDA-II Detektors skaliert werden. Im Rahmen dieser Arbeit wurde ein Algorithmus zur Echtzeit-Suche nach Signalen von Supernovae als Teilmodul der Datennahme implementiert. Dieser beinhaltet diverse Verbesserungen gegenüber der zuvor von der AMANDA-Kollaboration verwendeten Version. Aufgrund einer Optimierung auf Rechengeschwindigkeit können nun mehrere Echtzeit-Suchen mit verschiedenen Analyse-Zeitbasen im Rahmen der Datennahme simultan laufen. Die Disqualifikation optischer Module mit ungeeignetem Verhalten geschieht in Echtzeit. Allerdings muss das Verhalten der Module zu diesem Zweck anhand von gepufferten Daten beurteilt werden. Dadurch kann die Analyse der Daten der qualifizierten Module nicht ohne eine Verzögerung von etwa 5 Minuten geschehen. Im Falle einer erkannten Supernova werden die Daten für die Zeitdauer mehrerer Minuten zur späteren Auswertung in 10 Millisekunden-Intervallen archiviert. Da die Daten des Rauschverhaltens der optischen Module ansonsten in Intervallen von 500 ms zur Verfgung stehen, ist die Zeitbasis der Analyse in Einheiten von 500 ms frei wählbar. Im Rahmen dieser Arbeit wurden drei Analysen dieser Art am Südpol aktiviert: Eine mit der Zeitbasis der Datennahme von 500 ms, eine mit der Zeitbasis 4 s und eine mit der Zeitbasis 10 s. Dadurch wird die Sensitivität für Signale maximiert, die eine charakteristische exponentielle Zerfallszeit von 3 s aufweisen und gleichzeitig eine gute Sensitivität über einen weiten Bereich exponentieller Zerfallszeiten gewahrt. Anhand von Daten der Jahre 2000 bis 2003 wurden diese Analysen ausführlich untersucht. Während die Ergebnisse der Analyse mit t = 500 ms nicht vollständig nachvollziehbare Ergebnisse produzierte, konnten die Resultate der beiden Analysen mit den längeren Zeitbasen durch Simulationen reproduziert und entsprechend gut verstanden werden. Auf der Grundlage der gemessenen Daten wurden die erwarteten Signale von Supernovae simuliert. Aus einem Vergleich zwischen dieser Simulation den gemessenen Daten der Jahre 2000 bis 2003 und der Simulation des erwarteten statistischen Untergrunds kann mit einem Konfidenz-Niveau von mindestens 90 % gefolgert werden, dass in der Milchstraße nicht mehr als 3.2 Supernovae pro Jahr stattfinden. Zur Identifikation einer Supernova wird ein Ratenanstieg mit einer Signifikanz von mindestens 7.4 Standardabweichungen verlangt. Die Anzahl erwarteter Ereignisse aus dem statistischen Untergrund beträgt auf diesem Niveau weniger als ein Millionstel. Dennoch wurde ein solches Ereignis gemessen. Mit der gewählten Signifikanzschwelle werden 74 % aller möglichen Vorläufer-Sterne von Supernovae in der Galaxis überwacht. In Kombination mit dem letzten von der AMANDA-Kollaboration veröffentlicheten Ergebnis ergibt sich sogar eine obere Grenze von nur 2.6 Supernovae pro Jahr. Im Rahmen der Echtzeit-Analyse wird für die kollektive Ratenüberhöhung eine Signifikanz von mindestens 5.5 Standardabweichungen verlangt, bevor eine Meldung über die Detektion eines Supernova-Kandidaten verschickt wird. Damit liegt der überwachte Anteil Sterne der Galaxis bei 81 %, aber auch die Frequenz falscher Alarme steigt auf bei etwa 2 Ereignissen pro Woche. Die Alarm-Meldungen werden über ein Iridium-Modem in die nördliche Hemisphäre übertragen, und sollen schon bald zu SNEWS beitragen, dem weltweiten Netzwerk zur Früherkennung von Supernovae.
Resumo:
Die vorliegende Dissertation analysiert die Middleware- Technologien CORBA (Common Object Request Broker Architecture), COM/DCOM (Component Object Model/Distributed Component Object Model), J2EE (Java-2-Enterprise Edition) und Web Services (inklusive .NET) auf ihre Eignung bzgl. eng und lose gekoppelten verteilten Anwendungen. Zusätzlich werden primär für CORBA die dynamischen CORBA-Komponenten DII (Dynamic Invocation Interface), IFR (Interface Repository) und die generischen Datentypen Any und DynAny (dynamisches Any) im Detail untersucht. Ziel ist es, a. konkrete Aussagen über diese Komponenten zu erzielen, und festzustellen, in welchem Umfeld diese generischen Ansätze ihre Berechtigung finden. b. das zeitliche Verhalten der dynamischen Komponenten bzgl. der Informationsgewinnung über die unbekannten Objekte zu analysieren. c. das zeitliche Verhalten der dynamischen Komponenten bzgl. ihrer Kommunikation zu messen. d. das zeitliche Verhalten bzgl. der Erzeugung von generischen Datentypen und das Einstellen von Daten zu messen und zu analysieren. e. das zeitliche Verhalten bzgl. des Erstellens von unbekannten, d. h. nicht in IDL beschriebenen Datentypen zur Laufzeit zu messen und zu analysieren. f. die Vorzüge/Nachteile der dynamischen Komponenten aufzuzeigen, ihre Einsatzgebiete zu definieren und mit anderen Technologien wie COM/DCOM, J2EE und den Web Services bzgl. ihrer Möglichkeiten zu vergleichen. g. Aussagen bzgl. enger und loser Koppelung zu tätigen. CORBA wird als standardisierte und vollständige Verteilungsplattform ausgewählt, um die o. a. Problemstellungen zu untersuchen. Bzgl. seines dynamischen Verhaltens, das zum Zeitpunkt dieser Ausarbeitung noch nicht oder nur unzureichend untersucht wurde, sind CORBA und die Web Services richtungsweisend bzgl. a. Arbeiten mit unbekannten Objekten. Dies kann durchaus Implikationen bzgl. der Entwicklung intelligenter Softwareagenten haben. b. der Integration von Legacy-Applikationen. c. der Möglichkeiten im Zusammenhang mit B2B (Business-to-Business). Diese Problemstellungen beinhalten auch allgemeine Fragen zum Marshalling/Unmarshalling von Daten und welche Aufwände hierfür notwendig sind, ebenso wie allgemeine Aussagen bzgl. der Echtzeitfähigkeit von CORBA-basierten, verteilten Anwendungen. Die Ergebnisse werden anschließend auf andere Technologien wie COM/DCOM, J2EE und den Web Services, soweit es zulässig ist, übertragen. Die Vergleiche CORBA mit DCOM, CORBA mit J2EE und CORBA mit Web Services zeigen im Detail die Eignung dieser Technologien bzgl. loser und enger Koppelung. Desweiteren werden aus den erzielten Resultaten allgemeine Konzepte bzgl. der Architektur und der Optimierung der Kommunikation abgeleitet. Diese Empfehlungen gelten uneingeschränkt für alle untersuchten Technologien im Zusammenhang mit verteilter Verarbeitung.