994 resultados para Optimierung von Prozessparametern,
Resumo:
Die hier vorliegende Arbeit wurde im Rahmen eines europäischen Projektes mit dem Titel „Improving Fraxinus (Ash) productivity for European needs by testing, selection, propagation and promotion of improved genetic resources“ an der Niedersächsischen Forstlichen Versuchsanstalt, Abteilung Waldgenressourcen erstellt. Im Rahmen des Projektes wurden 62 Plusbäume aus einem 15 Jahre alten europäischen Herkunfts-/ Nachkommenschaftsversuch in den Niedersächsischen Forstämtern Bovenden und Dannenberg nach den Kriterien Stammform und Wuchsleistung für die vegetative Vermehrung ausgewählt. Ziel dieser Arbeit war die Optimierung bestehender in vitro Protokolle sowie die Entwicklung eines bisher noch nicht existierenden Kryokonservierungsprotokolls für in vitro Sprossspitzen. Im ersten Teil dieser Arbeit wird die Entwicklung des in vitro Protokolls für Fraxinus excelsior dargestellt. Die Optimierung der Methoden zur Etablierung, Vermehrung und Bewurzelung erfolgte durch Versuchsreihen mit unterschiedlichen Klonen, so dass insgesamt 26 der selektierten Plusbäume erfolgreich in vitro etabliert werden konnten. Achselknospen frischer Triebe der Pfropflinge der Mutterbäume stellten die beste Explantatquelle dar. Die Explantate wurden mit 0,2 % Quecksilberchlorid (HgCl2) oberflächensterilisiert bevor sie auf hormonfreies Woody Plant Medium (WPM) transferiert wurden. Nach zwei Wochen erfolgte ein Transfer auf WPM mit 4 mg/l 6-Benzylaminopurine (BAP) und 0,15 mg/l Indole-3-butyric acid (IBA). Die besten Vermehrungsraten wurden auf WPM mit 4 mg/l BAP, 0,15 mg/l IBA und 0,01 mg/l TDZ und 0,7 % Agar in Honiggläsern mit einem Plastikdeckel erzielt. Als Bewurzelungsmedium wurde 0,5 konzentriertes Murashige und Skoog (MS) Medium mit 2 mg/l IBA, 0,25 mg/l BAP und 0,8 % Agar verwandt. Im zweiten Teil der Arbeit werden die Versuchsreihen zur Entwicklung des Kryokonservierungsprotokolls von in vitro Sprossspitzen dargestellt. Zur Entwicklung der Methode wurden die Vorbehandlungsbedingungen verbessert und zwei Techniken, die Alginat- / Dehydrati-onsmethode und die Vitrifikationsmethode mit Hilfe der sogenannten PVS2-Lösung (Plant Vitrification solution number 2) getestet. Die optimierte PVS2-Methode erwies sich als die für Esche besser geeignete Technik und ließ sich erfolgreich zur Kryokonservierung juveniler und adulter Kulturen anwenden. Die Regenerationsraten lagen zwischen 50 und 100 % für juvenile bzw. 50 und 80 % für adulte Kulturen.
Resumo:
Ein Luft-Erdwärmetauscher (L-EWT) kommt wegen seines niedrigen Energiebedarfs und möglicher guter Aufwandszahlen als umweltfreundliche Versorgungskomponente für Gebäude in Betracht. Dabei ist besonders vorteilhaft, dass ein L-EWT die Umgebungsluft je nach Jahreszeit vorwärmen oder auch kühlen kann. Dem zufolge sind L-EWT zur Energieeinsparung nicht nur für den Wohnhausbau interessant, sondern auch dort, wo immer noch große Mengen an fossiler Energie für die Raumkühlung benötigt werden, im Büro- und Produktionsgebäudesektor. Der Einsatzbereich eines L-EWT liegt zwischen Volumenströmen von 100 m3/h und mehreren 100.000 m3/h. Aus dieser Bandbreite und den instationären Randbedingungen entstehen erhebliche Schwierigkeiten, allgemeingültige Aussagen über das zu erwartende thermische Systemverhalten aus der Vielzahl möglicher Konstruktionsvarianten zu treffen. Hauptziel dieser Arbeit ist es, auf Basis umfangreicher, mehrjähriger Messungen an einer eigens konzipierten Testanlage und eines speziell angepassten numerischen Rechenmodells, Kennzahlen zu entwickeln, die es ermöglichen, die Betriebseigenschaften eines L-EWT im Planungsalltag zu bestimmen und ein technisch, ökologisch wie ökonomisch effizientes System zu identifizieren. Es werden die Kennzahlen elewt (Aufwandszahl), QV (Netto-Volumenleistung), ME (Meterertrag), sowie die Kombination aus v (Strömungsgeschwindigkeit) und VL (Metervolumenstrom) definiert, die zu wichtigen Informationen führen, mit denen die Qualität von Systemvarianten in der Planungsphase bewertet werden können. Weiterführende Erkenntnisse über die genauere Abschätzung von Bodenkennwerten werden dargestellt. Die hygienische Situation der durch den L-EWT transportierten Luft wird für die warme Jahreszeit, aufgrund auftretender Tauwasserbildung, beschrieben. Aus diesem Grund werden alle relevanten lufthygienischen Parameter in mehreren aufwendigen Messkampagnen erfasst und auf pathogene Wirkungen überprüft. Es wird über Sensitivitätsanalysen gezeigt, welche Fehler bei Annahme falscher Randbedingungen eintreten. Weiterhin werden in dieser Arbeit wesentliche, grundsätzliche Erkenntnisse aufbereitet, die sich aus der Betriebsbeobachtung und der Auswertung der umfangreich vorliegenden Messdaten mehrerer Anlagen ergeben haben und für die praktische Umsetzung und die Betriebsführung bedeutend sind. Hinweise zu Materialeigenschaften und zur Systemwirtschaftlichkeit sind detailliert aufgeführt.
Resumo:
Nach 35 Jahren Entwicklungszeit wurde im Jahr 2004 in Shanghai die erste kommerzielle Anwendung des innovativen Magnetbahnsystems Transrapid in Betrieb genommen; in Deutschland konnte bislang keine Transrapid-Strecke realisiert werden, obwohl dieses System entsprechend den Ergebnissen einer vom damaligen Bundesverkehrsminister beauftragten Studie aus dem Jahr 1972 für den Einsatz in Deutschland entwickelt wurde. Beim Transrapid handelt es sich um eine echte Produkt-Innovation im Bahnverkehr und nicht um eine Weiterentwicklung oder Optimierung wie beim ICE, und ist somit als innovativer Verkehrsträger der Zukunft in die langfristige Entwicklung der Verkehrssysteme einzufügen. Die modernen HGV Bahnsysteme (Shinkansen/TGV/ICE) hingegen sind, ähnlich der Clipper in der Phase der Segelschifffahrt im Übergang zum Dampfschiff, letzte Abwehrentwicklungen eines am Zenit angekommenen Schienen-Verkehrssystems. Die Einführung von Innovationen in einen geschlossenen Markt stellt sich als schwierig dar, da sie zu einem Bruch innerhalb eines etablierten Systems führen. Somit wird in der vorliegenden Arbeit im ersten Teil der Themenkomplex Innovation und die Einordnung der Magnet-Schwebe-Technologie in diese langfristig strukturierten Abläufe untersucht und dargestellt. Das Transrapid-Projekt ist demzufolge in eine zeitstrukturelle Zyklizität einzuordnen, die dafür spricht, die Realisierung des Gesamtprojektes in eine Zeitspanne von 20 bis 30 Jahre zu verlagern. Im zweiten Teil wird auf der Basis einer regionalstrukturellen Analyse der Bundesrepublik Deutschland ein mögliches Transrapidnetz entworfen und die in diesem Netz möglichen Reisezeiten simuliert. Weiterhin werden die Veränderungen in den Erreichbarkeiten der einzelnen Regionen aufgrund ihrer Erschließung durch das Transrapidnetz simuliert und grafisch dargestellt. Die vorliegende Analyse der zeitlichen Feinstruktur eines perspektiven Transrapidnetzes ist ein modellhafter Orientierungsrahmen für die Objektivierung von Zeitvorteilen einer abgestimmten Infrastruktur im Vergleich zu real möglichen Reisezeiten innerhalb Deutschlands mit den gegebenen Verkehrsträgern Schiene, Straße, Luft. So würde der Einsatz des Transrapid auf einem entsprechenden eigenständigen Netz die dezentrale Konzentration von Agglomerationen in Deutschland fördern und im Durchschnitt annähernd 1 h kürzere Reisezeiten als mit den aktuellen Verkehrsträgern ermöglichen. Zusätzlich wird noch ein Ausblick über mögliche Realisierungsschritte eines Gesamtnetzes gegeben und die aufgetretenen Schwierigkeiten bei der Einführung des innovativen Verkehrssystems Transrapid dargestellt.
Resumo:
Die Unternehmensumwelt wird zunehmend von dynamischen Veränderungen und Turbulenzen geprägt. Globalisierung der Märkte und schneller wechselnde Umfeldveränderungen zwingen die Unternehmen dazu, ihr strategisches Verhalten ständig an neue Bedingungen anzupassen. Ein vorausschauendes Denken und Handeln wird immer notwendiger, da in vielen Branchen Produkte und Dienstleistungen in wesentlich kürzeren Zeitabständen als bisher durch Neue ersetzt werden. Um das unternehmerische Umfeld im Blick zu haben und über Pläne, Leistungen und Kompetenzen der Konkurrenten und Kunden über Marktveränderungen und technische Neuerungen etc. aktuell und vorausschauend informiert zu sein, wird ein intelligentes, systematisches Vorgehen bei der Informationsversorgung mit Umfeldinformationen benötigt. Die Dissertation befasst sich mit der Entwicklung, Implementierung und Untersuchung eines Softwareinstrumentes und systematischen Arbeitsprozesses, um die Versorgung von Managern und Mitarbeitern mit Umfeldinformationen (externen Informationen) zu verbessern um aufkommende Chancen und/oder Risiken frühzeitig zu erkennen. Der Schwerpunkt der Arbeit bezieht sich hauptsächlich auf die Phase der Informationsbereitstellung (Beschaffung, Verarbeitung und Präsentation) und dem Abruf der Umfeldinformationen durch die Manager und Mitarbeiter. Das entwickelte Softwareinstrument und die Arbeitsabläufe werden in drei Untersuchungsfirmen implementiert und evaluiert. Über eine schriftliche Befragung soll der Zustand vor Einführung des Softwareinstrumentes und Arbeitsabläufen und ein Jahr danach erfasst werden. Zur Ergänzung der Ergebnisse der schriftlichen Erhebung werden zusätzlich leitfadengestützte Einzelinterviews durchgeführt werden. Spezielle Auswertungen der Systemzugriffe sollen Aufschluss über den Nutzungsumfang und -häufigkeit im Zeitablauf geben. Über eine sukzessive Optimierung der Software und Arbeitsabläufe werden abschließend ein überarbeitetes Softwareinstrument sowie angepasste Arbeitsabläufe und ein Einführungsverfahren vorgestellt.
Resumo:
Diese Arbeit befasst sich mit zwei Aspekten der kohärenten Quantenkontrolle, die sich aus der räumlichen Struktur von Molekülen und der daraus folgenden Vektoreigenschaft der Laser-Molekül-Wechselwirkung ergeben. Im ersten Teil der vorliegenden Arbeit wird zum ersten Mal experimentell gezeigt, dass es möglich ist, den vektoriellen Charakter der Licht-Molekül-Wechselwirkung gezielt zu einer besseren Kontrolle der Moleküldynamik auszunutzen. Dazu wurde in einem Molekularstrahlexperiment die Multi-Photonen-Ionisation von K$_2$-Dimeren durch polarisationsgeformte Femtosekundenlaserpulse untersucht. Mit Hilfe der Technik der Polarisationsformung ist es möglich, Laserpulse zu generieren, bei denen nicht nur der zeitliche Verlauf der Einhüllenden des elektrischen Feldes, sondern auch der zeitliche Verlauf des Polarisationszustandes manipuliert werden kann. Um die optimale Pulsform zu finden, wurde ein adaptives, rückgekoppeltes Verfahren angewandt. Es wird gezeigt, dass im Vergleich zu reiner Phasenformung die Polarisationsformung neue, bisher nicht zugängliche Kontrollmöglichkeiten bietet und so zu einer qualitativ neuen Art von Kontrolle führt. Der zweiten Teil dieser Arbeit hat die Ausrichtung von Molekülen durch ultrakurze Laserpulse zum Thema. Dabei wird zum ersten Mal systematisch untersucht, ob und inwieweit das erzeugte Rotationswellenpaket und damit die erzielte transiente Ausrichtung durch geformte Laserpulse manipuliert und kontrolliert werden kann. Im Experiment wurde mit linear polarisierten phasengeformten Laserpulsen N$_2$ und O$_2$ in Gasphase und bei Raumtemperatur ausgerichtet und der zeitliche Verlauf der so erzeugten transienten Molekülausrichtung aufgenommen. Es wird gezeigt, dass mit Hilfe einer adaptiven Optimierung der Pulsform des Lasers der zeitlichen Verlauf der transienten Molekülausrichtung gezielt manipuliert werden kann. Des weiteren wird die transiente Molekülausrichtung untersucht, die durch Doppelpulse, Pulszüge und durch Pulse mit TOD-Phase erzeugt wird.
Resumo:
Das Ziel der Dissertation war die Untersuchung des Computereinsatzes zur Lern- und Betreuungsunterstützung beim selbstgesteuerten Lernen in der Weiterbildung. In einem bisher konventionell durchgeführten Selbstlernkurs eines berufsbegleitenden Studiengangs, der an das Datenmanagement der Bürodatenverarbeitung heranführt, wurden die Kursunterlagen digitalisiert, die Betreuung auf eine online-basierte Lernbegleitung umgestellt und ein auf die neuen Lernmedien abgestimmtes Lernkonzept entwickelt. Dieses neue Lernkonzept wurde hinsichtlich der Motivation und der Akzeptanz von digitalen Lernmedien evaluiert. Die Evaluation bestand aus zwei Teilen: 1. eine formative, den Entwicklungsprozess begleitende Evaluation zur Optimierung der entwickelten Lernsoftware und des eingeführten Lernkonzeptes, 2. eine sowohl qualitative wie quantitative summative Evaluation der Entwicklungen. Ein zentraler Aspekt der Untersuchung war die freie Wahl der Lernmedien (multimediale Lernsoftware oder konventionelles Begleitbuch) und der Kommunikationsmedien (online-basierte Lernplattform oder die bisher genutzten Kommunikationskanäle: E-Mail, Telefon und Präsenztreffen). Diese Zweigleisigkeit erlaubte eine differenzierte Gegenüberstellung von konventionellen und innovativen Lernarrangements. Die Verbindung von qualitativen und quantitativen Vorgehensweisen, auf Grund derer die subjektiven Einstellungen der Probanden in das Zentrum der Betrachtung rückten, ließen einen Blickwinkel auf den Nutzen und die Wirkung der Neuen Medien in Lernprozessen zu, der es erlaubte einige in der Literatur als gängig angesehene Interpretationen in Frage zu stellen und neu zu diskutieren. So konnten durch eine Kategorisierung des Teilnehmerverhaltens nach online-typisch und nicht online-typisch die Ursache-Wirkungs-Beziehungen der in vielen Untersuchungen angeführten Störungen in Online-Seminaren verdeutlicht werden. In den untersuchten Kursen zeigte sich beispielsweise keine Abhängigkeit der Drop-out-Quote von den Lern- und Betreuungsformen und dass diese Quote mit dem neuen Lernkonzept nur geringfügig beeinflusst werden konnte. Die freie Wahl der Lernmedien führte zu einer gezielten Nutzung der multimedialen Lernsoftware, wodurch die Akzeptanz dieses Lernmedium stieg. Dagegen war die Akzeptanz der Lernenden gegenüber der Lernbegleitung mittels einer Online-Lernplattform von hoch bis sehr niedrig breit gestreut. Unabhängig davon reichte in allen Kursdurchgängen die Online-Betreuung nicht aus, so dass Präsenztreffen erbeten wurde. Hinsichtlich der Motivation war die Wirkung der digitalen Medien niedriger als erwartet. Insgesamt bieten die Ergebnisse Empfehlungen für die Planung und Durchführung von computerunterstützten, online-begleiteten Kursen.
Resumo:
Vor dem Hintergund der Integration des wissensbasierten Managementsystems Precision Farming in den Ökologischen Landbau wurde die Umsetzung bestehender sowie neu zu entwickelnder Strategien evaluiert und diskutiert. Mit Blick auf eine im Precision Farming maßgebende kosteneffiziente Ertragserfassung der im Ökologischen Landbau flächenrelevanten Leguminosen-Grasgemenge wurden in zwei weiteren Beiträgen die Schätzgüten von Ultraschall- und Spektralsensorik in singulärer und kombinierter Anwendung analysiert. Das Ziel des Precision Farming, ein angepasstes Management bezogen auf die flächeninterne Variabilität der Standorte umzusetzen, und damit einer Reduzierung von Betriebsmitteln, Energie, Arbeit und Umwelteffekten bei gleichzeitiger Effektivitätssteigerung und einer ökonomischen Optimierung zu erreichen, deckt sich mit wesentlichen Bestrebungen im Ökogischen Landbau. Es sind vorrangig Maßnahmen zur Erfassung der Variabilität von Standortfaktoren wie Geländerelief, Bodenbeprobung und scheinbare elektrische Leitfähigkeit sowie der Ertragserfassung über Mähdrescher, die direkt im Ökologischen Landbau Anwendung finden können. Dagegen sind dynamisch angepasste Applikationen zur Düngung, im Pflanzenschutz und zur Beseitigung von Unkräutern aufgrund komplexer Interaktionen und eines eher passiven Charakters dieser Maßnahmen im Ökologischen Landbau nur bei Veränderung der Applikationsmodelle und unter Einbindung weiterer dynamischer Daten umsetzbar. Beispiele hiefür sind einzubeziehende Mineralisierungsprozesse im Boden und organischem Dünger bei der Düngemengenberechnung, schwer ortsspezifisch zuzuordnende präventive Maßnamen im Pflanzenschutz sowie Einflüsse auf bodenmikrobiologische Prozesse bei Hack- oder Striegelgängen. Die indirekten Regulationsmechanismen des Ökologischen Landbaus begrenzen daher die bisher eher auf eine direkte Wirkung ausgelegten dynamisch angepassten Applikationen des konventionellen Precision Farming. Ergänzend sind innovative neue Strategien denkbar, von denen die qualitätsbezogene Ernte, der Einsatz hochsensibler Sensoren zur Früherkennung von Pflanzenkrankheiten oder die gezielte teilflächen- und naturschutzorientierte Bewirtschaftung exemplarisch in der Arbeit vorgestellt werden. Für die häufig große Flächenanteile umfassenden Leguminosen-Grasgemenge wurden für eine kostengünstige und flexibel einsetzbare Ertragserfassung die Ultraschalldistanzmessung zur Charakterisierung der Bestandeshöhe sowie verschiedene spektrale Vegetationsindices als Schätzindikatoren analysiert. Die Vegetationsindices wurden aus hyperspektralen Daten nach publizierten Gleichungen errechnet sowie als „Normalized Difference Spectral Index“ (NDSI) stufenweise aus allen möglichen Wellenlängenkombinationen ermittelt. Die Analyse erfolgte für Ultraschall und Vegetationsindices in alleiniger und in kombinierter Anwendung, um mögliche kompensatorische Effekte zu nutzen. In alleiniger Anwendung erreichte die Ultraschallbestandeshöhe durchweg bessere Schätzgüten, als alle einzelnen Vegetationsindices. Bei den letztgenannten erreichten insbesondere auf Wasserabsorptionsbanden basierende Vegetationsindices eine höhere Schätzgenauigkeit als traditionelle Rot/Infrarot-Indices. Die Kombination beider Sensorda-ten ließ eine weitere Steigerung der Schätzgüte erkennen, insbesondere bei bestandesspezifischer Kalibration. Hierbei kompensieren die Vegetationsindices Fehlschätzungen der Höhenmessung bei diskontinuierlichen Bestandesdichtenänderungen entlang des Höhengradienten, wie sie beim Ährenschieben oder durch einzelne hochwachsende Arten verursacht werden. Die Kombination der Ultraschallbestandeshöhe mit Vegetationsindices weist das Potential zur Entwicklung kostengünstiger Ertragssensoren für Leguminosen-Grasgemenge auf. Weitere Untersuchungen mit hyperspektralen Vegetationsindices anderer Berechnungstrukturen sowie die Einbindung von mehr als zwei Wellenlängen sind hinsichtlich der Entwicklung höherer Schätzgüten notwendig. Ebenso gilt es, Kalibrierungen und Validationen der Sensorkombination im artenreichen Grasland durchzuführen. Die Ertragserfassung in den Leguminosen-Grasgemengen stellt einen wichtigen Beitrag zur Erstellung einer Ertragshistorie in den vielfältigen Fruchtfolgen des Ökologischen Landbaus dar und ermöglicht eine verbesserte Einschätzung von Produktionspotenzialen und Defizitarealen für ein standortangepasstes Management.
Resumo:
Im Rahmen der vorliegenden Arbeit wird ein Verfahren vorgestellt und untersucht, mit welchem Früchte annähernd verlustfrei und unter sehr hygienischen Bedingungen geschnitten werden können. Die Produkte – hier gezeigt am Beispiel von Äpfeln und Melonen – werden mit einem Hochdruckwasserstrahl geschnitten, der durch ein bildverarbeitendes System entsprechend der Anatomie der Frucht geführt werden kann. Die Vorteile dieses Verfahrens sind die individuelle Schnittführung, die Materialverluste minimiert und die Tatsache, dass die Frucht ohne wesentlichen Eingriff von Personal bearbeitet wird. Die Literaturauswertung ergab, dass diese Technologie bislang noch nicht bearbeitet wurde. Der Einsatz des Hochdruckwasserstrahlschneidens im Bereich der Agrartechnik beschränkte sich auf das Schneiden von Zuckerrüben Brüser [2008], Ligocki [2005] bzw. Kartoffeln Becker u. Gray [1992], das Zerteilen von Fleisch Bansal u. Walker [1999] und Fisch Lobash u. a. [1990] sowie die Nutzung von Wasserstrahlen im Zusammenhang mit der Injektion von Flüssigdünger in Ackerböden Niemoeller u. a. [2011]. Ziel dieser Arbeit war es daher, die Einsatzmöglichkeiten des Wasserstrahlschneidens zu erfassen und zu bewerten. Dazu wurden in einer Vielzahl von Einzelversuchen die Zusammenhänge zwischen den Prozessparametern wie Wasserdruck, Düsendurchmesser, Vorschubgeschwindigkeit und Düsenabstand auf das Schnittergebnis, also die Rauheit der entstehenden Schnittfläche untersucht. Ein Vergleich mit konventionellen Schneidemethoden erfolgte hinsichtlich der Schnittergebnisse und der Auswirkungen des Wasserstrahlschneidens auf nachfolgende Verfahrensschritte, wie dem Trocknen.
Resumo:
Die laserinduzierte Plasmaspektroskopie (LIPS) ist eine spektrochemische Elementanalyse zur Bestimmung der atomaren Zusammensetzung einer beliebigen Probe. Für die Analyse ist keine spezielle Probenpräparation nötig und kann unter atmosphärischen Bedingungen an Proben in jedem Aggregatzustand durchgeführt werden. Femtosekunden Laserpulse bieten die Vorteile einer präzisen Ablation mit geringem thermischen Schaden sowie einer hohen Reproduzierbarkeit. Damit ist fs-LIPS ein vielversprechendes Werkzeug für die Mikroanalyse technischer Proben, insbesondere zur Untersuchung ihres Ermüdungsverhaltens. Dabei ist interessant, wie sich die initiierten Mikrorisse innerhalb der materialspezifschen Struktur ausbreiten. In der vorliegenden Arbeit sollte daher ein schnelles und einfach zu handhabendes 3D-Rasterabbildungsverfahren zur Untersuchung der Rissausbreitung in TiAl, einer neuen Legierungsklasse, entwickelt werden. Dazu wurde fs-LIPS (30 fs, 785 nm) mit einem modifizierten Mikroskopaufbau (Objektiv: 50x/NA 0.5) kombiniert, welcher eine präzise, automatisierte Probenpositionierung ermöglicht. Spektrochemische Sensitivität und räumliches Auflösungsvermögen wurden in energieabhängigen Einzel- und Multipulsexperimenten untersucht. 10 Laserpulse pro Position mit einer Pulsenergie von je 100 nJ führten in TiAl zum bestmöglichen Kompromiss aus hohem S/N-Verhältnis von 10:1 und kleinen Lochstrukturen mit inneren Durchmessern von 1.4 µm. Die für das Verfahren entscheidende laterale Auflösung, dem minimalen Lochabstand bei konstantem LIPS-Signal, beträgt mit den obigen Parametern 2 µm und ist die bislang höchste bekannte Auflösung einer auf fs-LIPS basierenden Mikro-/Mapping-Analyse im Fernfeld. Fs-LIPS Scans von Teststrukturen sowie Mikrorissen in TiAl demonstrieren eine spektrochemische Sensitivität von 3 %. Scans in Tiefenrichtung erzielen mit denselben Parametern eine axiale Auflösung von 1 µm. Um die spektrochemische Sensitivität von fs-LIPS zu erhöhen und ein besseres Verständnis für die physikalischen Prozesse während der Laserablation zu erhalten, wurde in Pump-Probe-Experimenten untersucht, in wieweit fs-Doppelpulse den laserinduzierten Abtrag sowie die Plasmaemission beeinflussen. Dazu wurden in einem Mach-Zehnder-Interferometer Pulsabstände von 100 fs bis 2 ns realisiert, Gesamtenergie und Intensitätsverhältnis beider Pulse variiert sowie der Einfluss der Materialparameter untersucht. Sowohl das LIPS-Signal als auch die Lochstrukturen zeigen eine Abhängigkeit von der Verzögerungszeit. Diese wurden in vier verschiedene Regimes eingeteilt und den physikalischen Prozessen während der Laserablation zugeordnet: Die Thermalisierung des Elektronensystems für Pulsabstände unter 1 ps, Schmelzprozesse zwischen 1 und 10 ps, der Beginn des Abtrags nach mehreren 10 ps und die Expansion der Plasmawolke nach über 100 ps. Dabei wird das LIPS-Signal effizient verstärkt und bei 800 ps maximal. Die Lochdurchmesser ändern sich als Funktion des Pulsabstands wenig im Vergleich zur Tiefe. Die gesamte Abtragsrate variiert um maximal 50 %, während sich das LIPS-Signal vervielfacht: Für Ti und TiAl typischerweise um das Dreifache, für Al um das 10-fache. Die gemessenen Transienten zeigen eine hohe Reproduzierbarkeit, jedoch kaum eine Energie- bzw. materialspezifische Abhängigkeit. Mit diesen Ergebnissen wurde eine gezielte Optimierung der DP-LIPS-Parameter an Al durchgeführt: Bei einem Pulsabstand von 800 ps und einer Gesamtenergie von 65 nJ (vierfach über der Ablationsschwelle) wurde eine 40-fache Signalerhöhung bei geringerem Rauschen erzielt. Die Lochdurchmesser vergrößerten sich dabei um 44 % auf (650±150) nm, die Lochtiefe um das Doppelte auf (100±15) nm. Damit war es möglich, die spektrochemische Sensitivität von fs-LIPS zu erhöhen und gleichzeitig die hohe räumliche Auflösung aufrecht zu erhalten.
Resumo:
In der vorliegenden Arbeit wurde die Bedeutung verschiedener Präparationsparameter auf die Schichtpräparation von Polymerfilmen durch Schleuderbeschichtung untersucht. Insbesondere war der Einfluß der Konzentration bzw. Viskosität der Polymerlösungen, der Umdrehungszahl und der Präparationstemperatur auf die Schichtdicke und Schichtrauhigkeit von Interesse. Eine systematische Variation der Präparationsparameter wurde an Polystyrol/Toluol-, Polycarbonat/DMF- und Polycarbonat/Cyclohexanon-Lösungen vorgenommen. Es stellte sich heraus, daß eine Schichtpräparation beim Gebrauch des Lösungsmittels DMF erst bei Temperaturen oberhalb der Raumtemperatur möglich wurde. Das Auftreten von Defekten in den aus höherkonzentrierten Lösungen hergestellten Schichten ist möglicherweise auf die Bildung von Gelpartikeln in den Lösungen zurückzuführen. Die Lösungsmittelauswahl spielt daher eine Schlüsselrolle bei der Präparation defektfreier Schichten. Es sollte ein Lösungsmittel verwendet werden, dessen Löslichkeitsparameter mit dem zu lösenden Polymeren idealerweise übereinstimmt und das einen hohen Siedepunkt besitzt. Falls die Schichtdicke auf einen bestimmten Wert festgelegt ist, so folgen aus den Polystyrol- und Polycarbonatergebnissen unterschiedliche Schlußfolgerungen zur Reduzierung der Rauhigkeit, die sich jedoch auf einen gemeinsamen Nenner bringen lassen. Betrachtet man die an Polystyrol- und Polycarbonatschichten gewonnenen Resultate gemeinsam, so erscheint es zur Reduzierung der Rauhigkeit bei vorgegebener Schichtdicke sinnvoller, die Präparation bei großer Umdrehungszahl und hoher Konzentration durchzuführen als bei kleiner Umdrehungszahl aus niederkonzentrierten Lösungen. Eine Variation der Präparationstemperatur erweist sich als außerordentlich hilfreich zur Optimierung der Schichtqualität. Dies zeigt sich insbesondere bei der Präparation von Polycarbonat-, D/A-PPV- und Polyvinylkarbazol-Schichten, wenn DMF als Lösungsmittel verwendet wird. Durch eine Temperaturerhöhung ist zudem eine größere Schichtdicke erreichbar. Dies kann sich unter Umständen bei schwerlöslichen Substanzen als vorteilhaft erweisen, um die für Wellenleiteranwendungen erforderliche Mindestschichtdicke zu erreichen. Aus den Abhängigkeiten der Schichtdicke von den Präparationsparametern Konzentration und Umdrehungszahl lassen dich Potenzgesetze der Form ? ableiten. Der Exponent ? hängt vom speziellen Polymer/Lösungsmittelsystem und von der Temperatur ab; für ? wurde meistens ein Wert von -0.5 gefunden. Zur Bestimmung der Exponenten sind nur vier verschiedene Parametersätze (?,?) notwendig. Bei Kenntnis von ? und ? kann die Schichtdicke für eine beliebige (?,?)-Kombination im voraus in guter Näherung bestimmt werden, was in der Praxis häufig nützlich ist. Durch Beachtung dieser Präparationsregeln konnten neben dämpfungsarmen Polystyrol- und Polycarbonatschichten auch filme aus konjugierten Polymeren hergestellt werden, deren Dämpfungskoeffizienten teilweise deutlich unter 1 dB/cm lagen. Hier sind besonders die Resultate an DPOP-PPV und CNE-PPV Schichten hervorzuheben. Die erreichten Dämpfungswerte sind besser bzw. vergleichbar mit den geringsten Werten, die bisher in der Literatur zu konjugierten Polymerfilmen veröffentlicht wurden. Bei einigen Substanzen scheiterte die Präparation ausreichend dicker Filme bzw. Dämpfungsmessungen an einer zu geringen Löslichkeit oder an der Bildung polykristalliner Domänen bzw. sonstiger Defekte. Dies macht deutlich, daß eine erfolgreiche Schichtpräparation wesentlich von der chemischen struktur abhängt. Die Abschätzung des Güteparameters (Figure Of Merit) ergab mit den gemessenen nichtlinear-optischen Suszeptibilitäten ?
Resumo:
Zusammenfassung Das Ziel der Arbeit bestand darin, mit der Aufklärung der Abbindereaktion von Zinkphosphatzement eine Grundlage für eine gezielte Modifikation bzw. Optimierung zu schaffen, insbesondere im Hinblick auf einen Einsatz als permanenter Füllungswerkstoff. Über den Abbindechemismus war bislang lediglich bekannt, daß es sich bei den primär gebildeten Reaktionsprodukten um röntgenamorphe Phasen handelt, die sich nach Wochen bzw. Monaten in das thermodynamisch stabile Reaktionsprodukt alpha-Hopeit (alpha-Zn3(PO4)2·4H2O) umwandeln.Im Rahmen der vorliegenden Arbeit gelang durch den Einsatz der Infrarot-Reflexionsspek-troskopie (DRIFT) die Identifikation von Dizink Cyclotetraphosphat-Octahydrat (Zn2P4O12·8H2O) als röntgenamorpher Vorläuferphase. Das kondensierte Phosphat ist hydrolyseempfindlich sowie thermodynamisch instabil. Mit Hilfe der zeitaufgelösten 1H NMR-Spektroskopie konnte gezeigt werden, daß bereits nach ca. 10 Minuten eine Phasenumwandlung (topochemische Disproportionierung) in ein zunächst röntgenamorphes Orthophosphat stattfindet. Mittels 31P Doppelquanten-NMR-Spektroskopie gelang der Nachweis, daß innerhalb des röntgenamorphen Bereiches lokal nahgeordnete (nanokristalline) Bereiche auftreten, deren Ordnung sich auf einer Längenskala von 10 bis 30 Å erstreckt. Die Nanokristallite unterliegen einem Wachstumsprozeß, der schließlich zu alpha-Hopeit-Kristallen mit Ausdehnungen im Mikrometerbereich führt. Die Ursache für die primäre Ausbildung röntgenamorpher Reaktionsprodukte kann zunächst gelösten Aluminophosphatkomplexen zugeordnet werden, die im Verlauf der Abbindereaktion zu anorganischen Polymeren aggregieren und damit als Kristallisationsinhibitoren fungieren.
Resumo:
Bei Nierenzellkarzinomen (NZK), wie auch bei vielen anderen Tumoren konnte eine reduzierte Expression der Klasse I Haupthistokompatibilitäts-Komplexe (MHC Klasse I) nachgewiesen werden, die assoziiert sein kann mit der gestörten Expression oder Funktion von Komponenten der Antigenprozessierung. Eine verminderte Erkennung solcher Tumore durch zytotoxische T-Lymphozyten und ein Zusammenhang mit einem Fortschreiten der Erkrankung führte zu der Annahme, daß es sich bei diesen Störungen um "immune escape"-Mechanismen handelt. Um die Bedeutung des heterodimeren Peptidtransporters TAP ("transporter associated with antigen processing") für die Immunogenität von Nierenzellkarzinomen zu untersuchen, wurde im Rahmen dieser Arbeit erstmals der stabile Gentransfer des humanen TAP1A-Gens in Nierenzellkarzinom-Zellen erfolgreich durchgeführt.
Dies konnte durch die Optimierung der Transfektionsmethode und des verwendeten Plasmid-Vektors erreicht werden. Die Transfektionen wurden mit Hilfe der Rechteck-Impuls-Elektroporation unter spezifischen, in der Arbeit etablierten Bedingungen durchgeführt. Der CMV-regulierte TAP-Expressions-Vektor wurde dahingehend verbessert, daß durch die Einführung einer IRES ("internal ribosomal entry site") Sequenz eine bicistronische m-RNS transkribiert wird, die sowohl das TAP1-Transgen als auch den Neomycin-Selektionsmarker enthält.
Es konnte nach klonaler Selektion eine stabile, aber unter den sieben getesteten Klonen heterogene Transkription der transgenen TAP1-mRNS nachgewiesen werden. In der Protein-Expression zeigten 5/7 der TAP1A-positive Klone eine mindestens zweifache Induktion der TAP1-Expression. In 2/7 dieser TAP1A-positive Klone war die TAP1-Überexpression mit einer Erhöhung der MHC Klasse I-Expression und selektiver Induktion des HLA-A2-Moleküls in der Durchflußzytometrie verbunden. Eine Quantifizierung des Peptidtransportes ergab je nach verwendetem Modellpeptid eine geringe oder gar keine Erhöhung der Transportrate in den TAP1-Transfektanden gegenüber Kontrollzellen. Ebenfalls konnte in Zytotoxizitäts-Analysen mit einer autologen T-Zellinie eine Erhöhung der spezifischen Lyse nicht gezeigt werden. Jedoch wurden im Zellkultur-Überstand dieser Zytotoxizitäts-Analysen bei einigen TAP1A-positive Transfektanden gegenüber mock transfizierten-Kontrollzellen deutlich erhöhte Werte des Tumornekrose-Faktor-alpha (TNF-alpha) gemessen, was als Maß einer T-Zell-Aktivierung gilt. Diese Ergebnisse sind konsistent mit einer ebenfalls deutlich gesteigerten T-Zell-Proliferation in Anwesenheit von TAP1A-positive Transfektanden.
Die alleinige stabile Überexpression von TAP1 in Nierenzellkarzinomzellen kann somit zu einer Modulation der MHC Klasse I-Expression und der T-Zell-Reaktivität führen. Das weist darauf hin, daß eine starke, konstitutive TAP1-Expression eine grundlegende Voraussetzung für eine effiziente Antigenprozessierung und Immunantwort darstellt und die Immuntoleranz gegenüber NZK durch stabilen TAP1-Gentransfer beinflußbar ist. Eine denkbare klinische Anwendung dieser Technik ist die Herstellung einer Tumorantigen-präsentierenden Zellvakzine, die eine T-Zell-Anergie gegenüber NZK durchbrechen könnte.
Schlüsselwörter: TAP, MHC, Antigenprozessierung, Tumorimmunologie, Gentransfer
Resumo:
Der AMANDA-II Detektor ist primär für den richtungsaufgelösten Nachweis hochenergetischer Neutrinos konzipiert. Trotzdem können auch niederenergetische Neutrinoausbrüche, wie sie von Supernovae erwartet werden, mit hoher Signifikanz nachgewiesen werden, sofern sie innerhalb der Milchstraße stattfinden. Die experimentelle Signatur im Detektor ist ein kollektiver Anstieg der Rauschraten aller optischen Module. Zur Abschätzung der Stärke des erwarteten Signals wurden theoretische Modelle und Simulationen zu Supernovae und experimentelle Daten der Supernova SN1987A studiert. Außerdem wurden die Sensitivitäten der optischen Module neu bestimmt. Dazu mussten für den Fall des südpolaren Eises die Energieverluste geladener Teilchen untersucht und eine Simulation der Propagation von Photonen entwickelt werden. Schließlich konnte das im Kamiokande-II Detektor gemessene Signal auf die Verhältnisse des AMANDA-II Detektors skaliert werden. Im Rahmen dieser Arbeit wurde ein Algorithmus zur Echtzeit-Suche nach Signalen von Supernovae als Teilmodul der Datennahme implementiert. Dieser beinhaltet diverse Verbesserungen gegenüber der zuvor von der AMANDA-Kollaboration verwendeten Version. Aufgrund einer Optimierung auf Rechengeschwindigkeit können nun mehrere Echtzeit-Suchen mit verschiedenen Analyse-Zeitbasen im Rahmen der Datennahme simultan laufen. Die Disqualifikation optischer Module mit ungeeignetem Verhalten geschieht in Echtzeit. Allerdings muss das Verhalten der Module zu diesem Zweck anhand von gepufferten Daten beurteilt werden. Dadurch kann die Analyse der Daten der qualifizierten Module nicht ohne eine Verzögerung von etwa 5 Minuten geschehen. Im Falle einer erkannten Supernova werden die Daten für die Zeitdauer mehrerer Minuten zur späteren Auswertung in 10 Millisekunden-Intervallen archiviert. Da die Daten des Rauschverhaltens der optischen Module ansonsten in Intervallen von 500 ms zur Verfgung stehen, ist die Zeitbasis der Analyse in Einheiten von 500 ms frei wählbar. Im Rahmen dieser Arbeit wurden drei Analysen dieser Art am Südpol aktiviert: Eine mit der Zeitbasis der Datennahme von 500 ms, eine mit der Zeitbasis 4 s und eine mit der Zeitbasis 10 s. Dadurch wird die Sensitivität für Signale maximiert, die eine charakteristische exponentielle Zerfallszeit von 3 s aufweisen und gleichzeitig eine gute Sensitivität über einen weiten Bereich exponentieller Zerfallszeiten gewahrt. Anhand von Daten der Jahre 2000 bis 2003 wurden diese Analysen ausführlich untersucht. Während die Ergebnisse der Analyse mit t = 500 ms nicht vollständig nachvollziehbare Ergebnisse produzierte, konnten die Resultate der beiden Analysen mit den längeren Zeitbasen durch Simulationen reproduziert und entsprechend gut verstanden werden. Auf der Grundlage der gemessenen Daten wurden die erwarteten Signale von Supernovae simuliert. Aus einem Vergleich zwischen dieser Simulation den gemessenen Daten der Jahre 2000 bis 2003 und der Simulation des erwarteten statistischen Untergrunds kann mit einem Konfidenz-Niveau von mindestens 90 % gefolgert werden, dass in der Milchstraße nicht mehr als 3.2 Supernovae pro Jahr stattfinden. Zur Identifikation einer Supernova wird ein Ratenanstieg mit einer Signifikanz von mindestens 7.4 Standardabweichungen verlangt. Die Anzahl erwarteter Ereignisse aus dem statistischen Untergrund beträgt auf diesem Niveau weniger als ein Millionstel. Dennoch wurde ein solches Ereignis gemessen. Mit der gewählten Signifikanzschwelle werden 74 % aller möglichen Vorläufer-Sterne von Supernovae in der Galaxis überwacht. In Kombination mit dem letzten von der AMANDA-Kollaboration veröffentlicheten Ergebnis ergibt sich sogar eine obere Grenze von nur 2.6 Supernovae pro Jahr. Im Rahmen der Echtzeit-Analyse wird für die kollektive Ratenüberhöhung eine Signifikanz von mindestens 5.5 Standardabweichungen verlangt, bevor eine Meldung über die Detektion eines Supernova-Kandidaten verschickt wird. Damit liegt der überwachte Anteil Sterne der Galaxis bei 81 %, aber auch die Frequenz falscher Alarme steigt auf bei etwa 2 Ereignissen pro Woche. Die Alarm-Meldungen werden über ein Iridium-Modem in die nördliche Hemisphäre übertragen, und sollen schon bald zu SNEWS beitragen, dem weltweiten Netzwerk zur Früherkennung von Supernovae.
Resumo:
Die vorliegende Dissertation analysiert die Middleware- Technologien CORBA (Common Object Request Broker Architecture), COM/DCOM (Component Object Model/Distributed Component Object Model), J2EE (Java-2-Enterprise Edition) und Web Services (inklusive .NET) auf ihre Eignung bzgl. eng und lose gekoppelten verteilten Anwendungen. Zusätzlich werden primär für CORBA die dynamischen CORBA-Komponenten DII (Dynamic Invocation Interface), IFR (Interface Repository) und die generischen Datentypen Any und DynAny (dynamisches Any) im Detail untersucht. Ziel ist es, a. konkrete Aussagen über diese Komponenten zu erzielen, und festzustellen, in welchem Umfeld diese generischen Ansätze ihre Berechtigung finden. b. das zeitliche Verhalten der dynamischen Komponenten bzgl. der Informationsgewinnung über die unbekannten Objekte zu analysieren. c. das zeitliche Verhalten der dynamischen Komponenten bzgl. ihrer Kommunikation zu messen. d. das zeitliche Verhalten bzgl. der Erzeugung von generischen Datentypen und das Einstellen von Daten zu messen und zu analysieren. e. das zeitliche Verhalten bzgl. des Erstellens von unbekannten, d. h. nicht in IDL beschriebenen Datentypen zur Laufzeit zu messen und zu analysieren. f. die Vorzüge/Nachteile der dynamischen Komponenten aufzuzeigen, ihre Einsatzgebiete zu definieren und mit anderen Technologien wie COM/DCOM, J2EE und den Web Services bzgl. ihrer Möglichkeiten zu vergleichen. g. Aussagen bzgl. enger und loser Koppelung zu tätigen. CORBA wird als standardisierte und vollständige Verteilungsplattform ausgewählt, um die o. a. Problemstellungen zu untersuchen. Bzgl. seines dynamischen Verhaltens, das zum Zeitpunkt dieser Ausarbeitung noch nicht oder nur unzureichend untersucht wurde, sind CORBA und die Web Services richtungsweisend bzgl. a. Arbeiten mit unbekannten Objekten. Dies kann durchaus Implikationen bzgl. der Entwicklung intelligenter Softwareagenten haben. b. der Integration von Legacy-Applikationen. c. der Möglichkeiten im Zusammenhang mit B2B (Business-to-Business). Diese Problemstellungen beinhalten auch allgemeine Fragen zum Marshalling/Unmarshalling von Daten und welche Aufwände hierfür notwendig sind, ebenso wie allgemeine Aussagen bzgl. der Echtzeitfähigkeit von CORBA-basierten, verteilten Anwendungen. Die Ergebnisse werden anschließend auf andere Technologien wie COM/DCOM, J2EE und den Web Services, soweit es zulässig ist, übertragen. Die Vergleiche CORBA mit DCOM, CORBA mit J2EE und CORBA mit Web Services zeigen im Detail die Eignung dieser Technologien bzgl. loser und enger Koppelung. Desweiteren werden aus den erzielten Resultaten allgemeine Konzepte bzgl. der Architektur und der Optimierung der Kommunikation abgeleitet. Diese Empfehlungen gelten uneingeschränkt für alle untersuchten Technologien im Zusammenhang mit verteilter Verarbeitung.
Resumo:
Die Berechnung von experimentell überprüfbaren Vorhersagen aus dem Standardmodell mit Hilfe störungstheoretischer Methoden ist schwierig. Die Herausforderungen liegen in der Berechnung immer komplizierterer Feynman-Integrale und dem zunehmenden Umfang der Rechnungen für Streuprozesse mit vielen Teilchen. Neue mathematische Methoden müssen daher entwickelt und die zunehmende Komplexität durch eine Automatisierung der Berechnungen gezähmt werden. In Kapitel 2 wird eine kurze Einführung in diese Thematik gegeben. Die nachfolgenden Kapitel sind dann einzelnen Beiträgen zur Lösung dieser Probleme gewidmet. In Kapitel 3 stellen wir ein Projekt vor, das für die Analysen der LHC-Daten wichtig sein wird. Ziel des Projekts ist die Berechnung von Einschleifen-Korrekturen zu Prozessen mit vielen Teilchen im Endzustand. Das numerische Verfahren wird dargestellt und erklärt. Es verwendet Helizitätsspinoren und darauf aufbauend eine neue Tensorreduktionsmethode, die Probleme mit inversen Gram-Determinanten weitgehend vermeidet. Es wurde ein Computerprogramm entwickelt, das die Berechnungen automatisiert ausführen kann. Die Implementierung wird beschrieben und Details über die Optimierung und Verifizierung präsentiert. Mit analytischen Methoden beschäftigt sich das vierte Kapitel. Darin wird das xloopsnosp-Projekt vorgestellt, das verschiedene Feynman-Integrale mit beliebigen Massen und Impulskonfigurationen analytisch berechnen kann. Die wesentlichen mathematischen Methoden, die xloops zur Lösung der Integrale verwendet, werden erklärt. Zwei Ideen für neue Berechnungsverfahren werden präsentiert, die sich mit diesen Methoden realisieren lassen. Das ist zum einen die einheitliche Berechnung von Einschleifen-N-Punkt-Integralen, und zum anderen die automatisierte Reihenentwicklung von Integrallösungen in höhere Potenzen des dimensionalen Regularisierungsparameters $epsilon$. Zum letzteren Verfahren werden erste Ergebnisse vorgestellt. Die Nützlichkeit der automatisierten Reihenentwicklung aus Kapitel 4 hängt von der numerischen Auswertbarkeit der Entwicklungskoeffizienten ab. Die Koeffizienten sind im allgemeinen Multiple Polylogarithmen. In Kapitel 5 wird ein Verfahren für deren numerische Auswertung vorgestellt. Dieses neue Verfahren für Multiple Polylogarithmen wurde zusammen mit bekannten Verfahren für andere Polylogarithmus-Funktionen als Bestandteil der CC-Bibliothek ginac implementiert.