24 resultados para Robustheit
Resumo:
Ziegenrassen, die in Deutschland in der Landschaftspflege eingesetzt werden, besitzen vorwiegend den Charakter einer intensiven Produktionsausrichtung. Das vorherrschende marginale Futterangebot auf Magerrasen-Biotopen kann die hohen Anforderungen auf das Fütterungsniveau der Tiere nicht erfüllen. Angeführt durch diese Ausgangssituation, begann das Fachgebiet Internationale Nutztierzucht und -haltung der Universität Kassel in Witzenhausen mit dem "Zuchtprogramm der Witzenhäuser Landschaftspflegeziege". Ziel dieser Untersuchung war es, die Leistungsfähigkeit und Robustheit der Endzuchtgruppe aus dem Zuchtprogramm über einen längeren Zeitraum (2001 bis 2003) anhand von definierten Merkmalen zu erfassen und zu dokumentieren. Alle Merkmale wurden zum selben Zeitpunkt ebenfalls an einer Kaschmirziegenherde, einer der drei Ursprungsrassen, zum Vergleich erhoben. Ausgangspunkt der Untersuchung, neben dem Hauptuntersuchungsareal des Naturschutzgebiets Ebenhöhe-Liebenberg, war die Lehr- und Versuchsbetrieb der Universität Kassel in Witzenhausen in Neu-Eichenberg. Achtung: Die Seitenzählung der Printausgabe ist mit der Online-Publikation nicht identisch.
Resumo:
Zuletzt häuften sich Erwähnungen des Begriffs 'Robustheit' in Veröffentlichungen, die die Intralogistik betreffen. Der vorliegende Beitrag bietet einen Überblick über einige dieser Sichtweisen, beleuchtet ergänzend eine Reihe relevanter Aspekte und begründet den Vorschlag einer Ausrichtung von 'Robustheit' in der Intralogistik auf die Verringerung unternehmerischer Risiken.
Resumo:
Leistungsverfügbarkeit bewertet den Erfüllungsgrad vorgegebener Anforderungen an intralogistische Anlagen. Für die Gewährleistung der Leistungsfähigkeit bei schwankender Last und Störungen müssen die Anlagen eine hohe Robustheit aufweisen. Der Beitrag beschreibt einen Ansatz zur Bewertung der Robustheit solcher Systeme, insbesondere während verschiedener Phasen der Planung, und liefert damit Ansätze zur Steigerung der Robustheit und folglich zur planbaren Absicherung der Leistungsverfügbarkeit.
Resumo:
Aufgrund ihrer Vorteile hinsichtlich Dauerhaftigkeit und Bauwerkssicherheit ist in Deutschland seit 1998 die externe Vorspannung in Hohlkastenbrücken zur Regelbauweise geworden. Durch Verwendung der austauschbaren externen Vorspannung verspricht man sich im Brückenbau weitere Verbesserungen der Robustheit und damit eine Verlängerung der Lebensdauer. Trotz des besseren Korrosionsschutzes im Vergleich zur internen Vorspannung mit Verbund sind Schäden nicht völlig auszuschließen. Um die Vorteile der externen Vorspannung zu nutzen, ist daher eine periodische Überwachung der Spanngliedkräfte, z. B. während der Hauptprüfung des Bauwerks, durchzuführen. Für die Überwachung der Spanngliedkräfte bei Schrägseilbrücken haben sich die Schwingungsmessmethoden als wirtschaftlich und leistungsfähig erwiesen. Für die Übertragung der Methode auf den Fall der externen Vorspannung, wo kürzere Schwingungslängen vorliegen, waren zusätzliche Untersuchungen hinsichtlich der effektiven Schwingungslänge, der Randbedingungen sowie der effektiven Biegesteifigkeit erforderlich. Im Rahmen der vorliegenden Arbeit wurde das Modellkorrekturverfahren, basierend auf der iterativen Anpassung eines F.E.-Modells an die identifizierten Eigenfrequenzen und Eigenformen des Spanngliedes, für die Bestimmung der Spanngliedkräfte verwendet. Dieses Verfahren ermöglicht die Berücksichtigung der Parameter (Schwingungslänge, Randbedingungen und effektive Biegesteifigkeit) bei der Identifikation der effektiven Spanngliedkräfte. Weiterhin ist eine Modellierung jeder beliebigen Spanngliedausbildung, z. B. bei unterschiedlichen Querschnitten in den Verankerungs- bzw. Umlenkbereichen, gewährleistet. Zur Anwendung bei der Ermittlung der Spanngliedkräfte wurde eine spezielle Methode, basierend auf den besonderen dynamischen Eigenschaften der Spannglieder, entwickelt, bei der die zuvor genannten Parameter innerhalb jedes Iterationsschrittes unabhängig korrigiert werden, was zur Robustheit des Identifikationsverfahrens beiträgt. Das entwickelte Verfahren ist in einem benutzerfreundlichen Programmsystem implementiert worden. Die erzielten Ergebnisse wurden mit dem allgemeinen Identifikationsprogramm UPDATE_g2 verglichen; dabei ist eine sehr gute Übereinstimmung festgestellt worden. Beim selbst entwickelten Verfahren wird die benötigte Rechenzeit auf ca. 30 % reduziert [100 sec à 30 sec]. Es bietet sich daher für die unmittelbare Auswertung vor Ort an. Die Parameteridentifikationsverfahren wurden an den Spanngliedern von insgesamt sechs Brücken (vier unterschiedliche Spannverfahren) angewendet. Die Anzahl der getesteten Spannglieder beträgt insgesamt 340. Die Abweichung zwischen den durch Schwingungs-messungen identifizierten und gemessenen (bei einer Brücke durch eine Abhebekontrolle) bzw. aufgebrachten Spanngliedkräften war kleiner als 3 %. Ferner wurden die Auswirkungen äußerer Einflüsse infolge Temperaturschwankungen und Verkehr bei den durchgeführten Messungen untersucht. Bei der praktischen Anwendung sind Besonderheiten aufgetreten, die durch die Verwendung des Modellkorrekturverfahrens weitgehend erfasst werden konnten. Zusammenfassend lässt sich sagen, dass die Verwendung dieses Verfahrens die Genauigkeit im Vergleich mit den bisherigen Schwingungsmessmethoden beachtlich erhöht. Ferner wird eine Erweiterung des Anwendungsbereiches auch auf Spezialfälle (z. B. bei einem unplanmäßigen Anliegen) gewährleistet.
Resumo:
In den vorliegenden Untersuchungen wurde der Gehalt von Carotinoiden in Weizen, Mais und Möhren sowie der Polyphenolgehalt in Möhren mit analytischen Methoden zum Nachweis dieser Substanzen gemessen. Der Gehalt der Carotinoide in Mais und der Gehalt der phenolischen Bestandteile in Möhren wurde mit Messungen mittels HPLC-Analytik gemessen. Die Methoden wurden aus literaturbekannten Verfahren abgeleitet und an die Anforderungen der untersuchten Probenmatrices angepasst und validiert. Dem Verfahren lag die Frage zugrunde, ob es möglich ist, Kulturpflanzen aus verschiedenen Anbausystemen auf der Basis des Gehaltes bestimmter sekundärer Pflanzeninhaltsstoffe zu differenzieren und aufgrund von Unterschieden im Gehalt der sekundären Pflanzeninhaltsstoffe zu klassifizieren. Die Gesamtverfahren wurden dabei gemäß der ISO 17025 validiert. Für die Messungen standen Proben aus definierten Langzeitversuchen und Erzeugerproben ausgesuchter ökologisch bzw. konventionell arbeitender Anbaubetriebe zur Verfügung. Als Grundlage für eine valide Methodeneinschätzung wurden die Messungen an codierten Proben vorgenommen. Eine Decodierung der Proben erfolgte erst nach der Vorlage der Messergebnisse in den genannten Projekten. Die Messung und Auswertung des Carotinoidgehaltes in Weizen, Mais und Möhren vor dem Hintergrund der Differenzierung und Klassifizierung erfolgte in Proben eines Erntejahres. Die Messung des Gehaltes phenolischer Substanzen in Möhren erfolgte in Möhren aus 3 Erntejahren. Die verwendeten HPLC-Verfahren konnten in Bezug auf den analytischen Teil der Messungen in den einzelnen Verfahrensschritten Linearität, Spezifität, Präzision und Robustheit erfolgreich überprüft werden. Darüber hinaus wurden wichtige Einflussgrößen auf die Messungen bestimmt. Für die Verfahren zur photometrischen Bestimmung der Gesamtcarotinoide konnte eine Grundkalibrierung der Parameter Präzision und Linearität des Verfahrens erfolgreich durchgeführt werden. Während der Anwendung der HPLC-Methoden an codierten Proben konnten in allen untersuchten Probenmatrices quantitativ bedeutende Inhaltsstoffe nachgewiesen und identifiziert werden. Eine vollständige Identifizierung aller dargestellten Peaks konnte in den Untersuchungen der Polyphenole in Möhren und der Carotinoide in Mais nicht erfolgen. Im Hinblick auf die Frage nach der Differenzierung und Klassifizierung ergab sich in den verschiedenen Proben ein unterschiedliches Bild. Sowohl durch den Carotinoid- als auch den Polyphenolgehalt konnten einzelne Proben statistisch signifikant differenziert werden. Die Trennleistung hing dabei sowohl von den jeweiligen Komponenten als auch von der untersuchten Probenmatrix ab. Ein durchgängig höherer Gehalt sekundärer Pflanzeninhaltsstoffe in Proben aus ökologischem Anbau konnte nicht bestätigt werden. Für die Klassifizierung der Proben verschiedener Anbauvarianten und konnten multivariate statistische Methoden, wie lineare Diskriminantenanalyse (LDA) und Classification and Regression Tree (CART), erfolgreich angewandt werden. Eine Klassifizierung mit unterschiedlichen statistischen Verfahren erbrachte dabei unterschiedliche Ergebnisse. In der Klassifizierung der decodierten Proben mittels LDA wirkten sich die Faktoren Sorte und Standort stärker auf das Klassifizierungsergebnis aus als der Faktor Anbausystem. Eine Klassifizierung der decodierten Proben nach dem Anbausystem wurde mit dem CART-Verfahren durchgeführt. Auf dieser Basis wurden für die Polyphenole in Möhren 97 % der Proben richtig klassifiziert. Durch die Messwerte des Carotinoidgehaltes und des Luteingehaltes in Weizen konnte der größere Teil der Proben (90 %) korrekt klassifiziert werden. Auf der Basis des Carotinoidgehaltes in Mais wurde der Großteil der Proben (95 %) korrekt nach dem Anbausystem klassifiziert. Auf der Basis des mittels HPLC gemessenen Carotinoidgehaltes in Möhren konnten die Proben 97 % korrekt klassifiziert werden (97 %). Insgesamt erscheint der Grundgedanke der Klassifizierung durch den Gehalt sekundärer Pflanzeninhaltsstoffe vielversprechend. Durch die vielfältigen Einflussgrößen auf den Sekundärstoffwechsel von Pflanzen müssten Veränderungen, die durch Sorte und Standort auftreten, über mehrere Jahre erhoben und systematisiert werden.
Resumo:
Summary: Productivity, botanical composition and forage quality of legume-grass swards are important factors for successful arable farming in both organic and conventional farming systems. As these attributes can vary considerably within a field, a non-destructive method of detection while doing other tasks would facilitate a more targeted management of crops, forage and nutrients in the soil-plant-animal system. This study was undertaken to explore the potential of field spectral measurements for a non destructive prediction of dry matter (DM) yield, legume proportion in the sward, metabolizable energy (ME), ash content, crude protein (CP) and acid detergent fiber (ADF) of legume-grass mixtures. Two experiments were conducted in a greenhouse under controlled conditions which allowed collecting spectral measurements which were free from interferences such as wind, passing clouds and changing angles of solar irradiation. In a second step this initial investigation was evaluated in the field by a two year experiment with the same legume-grass swards. Several techniques for analysis of the hyperspectral data set were examined in this study: four vegetation indices (VIs): simple ratio (SR), normalized difference vegetation index (NDVI), enhanced vegetation index (EVI) and red edge position (REP), two-waveband reflectance ratios, modified partial least squares (MPLS) regression and stepwise multiple linear regression (SMLR). The results showed the potential of field spectroscopy and proved its usefulness for the prediction of DM yield, ash content and CP across a wide range of legume proportion and growth stage. In all investigations prediction accuracy of DM yield, ash content and CP could be improved by legume-specific calibrations which included mixtures and pure swards of perennial ryegrass and of the respective legume species. The comparison between the greenhouse and the field experiments showed that the interaction between spectral reflectance and weather conditions as well as incidence angle of light interfered with an accurate determination of DM yield. Further research is hence needed to improve the validity of spectral measurements in the field. Furthermore, the developed models should be tested on varying sites and vegetation periods to enhance the robustness and portability of the models to other environmental conditions.
Resumo:
A real-time analysis of renewable energy sources, such as arable crops, is of great importance with regard to an optimised process management, since aspects of ecology and biodiversity are considered in crop production in order to provide a sustainable energy supply by biomass. This study was undertaken to explore the potential of spectroscopic measurement procedures for the prediction of potassium (K), chloride (Cl), and phosphate (P), of dry matter (DM) yield, metabolisable energy (ME), ash and crude fibre contents (ash, CF), crude lipid (EE), nitrate free extracts (NfE) as well as of crude protein (CP) and nitrogen (N), respectively in pretreated samples and undisturbed crops. Three experiments were conducted, one in a laboratory using near infrared reflectance spectroscopy (NIRS) and two field spectroscopic experiments. Laboratory NIRS measurements were conducted to evaluate to what extent a prediction of quality parameters is possible examining press cakes characterised by a wide heterogeneity of their parent material. 210 samples were analysed subsequent to a mechanical dehydration using a screw press. Press cakes serve as solid fuel for thermal conversion. Field spectroscopic measurements were carried out with regard to further technical development using different field grown crops. A one year lasting experiment over a binary mixture of grass and red clover examined the impact of different degrees of sky cover on prediction accuracies of distinct plant parameters. Furthermore, an artificial light source was used in order to evaluate to what extent such a light source is able to minimise cloud effects on prediction accuracies. A three years lasting experiment with maize was conducted in order to evaluate the potential of off-nadir measurements inside a canopy to predict different quality parameters in total biomass and DM yield using one sensor for a potential on-the-go application. This approach implements a measurement of the plants in 50 cm segments, since a sensor adjusted sideways is not able to record the entire plant height. Calibration results obtained by nadir top-of-canopy reflectance measurements were compared to calibration results obtained by off-nadir measurements. Results of all experiments approve the applicability of spectroscopic measurements for the prediction of distinct biophysical and biochemical parameters in the laboratory and under field conditions, respectively. The estimation of parameters could be conducted to a great extent with high accuracy. An enhanced basis of calibration for the laboratory study and the first field experiment (grass/clover-mixture) yields in improved robustness of calibration models and allows for an extended application of spectroscopic measurement techniques, even under varying conditions. Furthermore, off-nadir measurements inside a canopy yield in higher prediction accuracies, particularly for crops characterised by distinct height increment as observed for maize.
Resumo:
We are currently at the cusp of a revolution in quantum technology that relies not just on the passive use of quantum effects, but on their active control. At the forefront of this revolution is the implementation of a quantum computer. Encoding information in quantum states as “qubits” allows to use entanglement and quantum superposition to perform calculations that are infeasible on classical computers. The fundamental challenge in the realization of quantum computers is to avoid decoherence – the loss of quantum properties – due to unwanted interaction with the environment. This thesis addresses the problem of implementing entangling two-qubit quantum gates that are robust with respect to both decoherence and classical noise. It covers three aspects: the use of efficient numerical tools for the simulation and optimal control of open and closed quantum systems, the role of advanced optimization functionals in facilitating robustness, and the application of these techniques to two of the leading implementations of quantum computation, trapped atoms and superconducting circuits. After a review of the theoretical and numerical foundations, the central part of the thesis starts with the idea of using ensemble optimization to achieve robustness with respect to both classical fluctuations in the system parameters, and decoherence. For the example of a controlled phasegate implemented with trapped Rydberg atoms, this approach is demonstrated to yield a gate that is at least one order of magnitude more robust than the best known analytic scheme. Moreover this robustness is maintained even for gate durations significantly shorter than those obtained in the analytic scheme. Superconducting circuits are a particularly promising architecture for the implementation of a quantum computer. Their flexibility is demonstrated by performing optimizations for both diagonal and non-diagonal quantum gates. In order to achieve robustness with respect to decoherence, it is essential to implement quantum gates in the shortest possible amount of time. This may be facilitated by using an optimization functional that targets an arbitrary perfect entangler, based on a geometric theory of two-qubit gates. For the example of superconducting qubits, it is shown that this approach leads to significantly shorter gate durations, higher fidelities, and faster convergence than the optimization towards specific two-qubit gates. Performing optimization in Liouville space in order to properly take into account decoherence poses significant numerical challenges, as the dimension scales quadratically compared to Hilbert space. However, it can be shown that for a unitary target, the optimization only requires propagation of at most three states, instead of a full basis of Liouville space. Both for the example of trapped Rydberg atoms, and for superconducting qubits, the successful optimization of quantum gates is demonstrated, at a significantly reduced numerical cost than was previously thought possible. Together, the results of this thesis point towards a comprehensive framework for the optimization of robust quantum gates, paving the way for the future realization of quantum computers.
Resumo:
Punktförmig messende optische Sensoren zum Erfassen von Oberflächentopografien im Nanometerbereich werden in der Forschung und Industrie benötigt. Dennoch ist die Auswahl unterschiedlicher Technologien und kommerziell verfügbarer Sensoren gering. In dieser Dissertationsschrift werden die wesentlichen Aspekte eines Messsystems untersucht das über das Potenzial verfügt, zu den künftigen Standardmessmethoden zu gehören. Das Messprinzip beruht auf einem Common-Path-Interferometer. In einer mikrooptischen Sonde wird das Laserlicht auf die zu untersuchende Oberfläche gerichtet. Das vom Messobjekt reflektierte Licht interferiert sondenintern mit einem Referenzreflex. Die kompakte Bauweise bewirkt kurze optische Wege und eine gewisse Robustheit gegen Störeinflüsse. Die Abstandsinformation wird durch eine mechanische Oszillation in eine Phasenmodulation überführt. Die Phasenmodulation ermöglicht eine robuste Auswertung des Interferenzsignals, auch wenn eine zusätzliche Amplitudenmodulation vorhanden ist. Dies bietet den Vorteil, unterschiedlich geartete Oberflächen messen zu können, z. B. raue, teilweise transparente und geneigte Oberflächen. Es können wiederholbar Messungen mit einer Standardabweichung unter einem Nanometer erzielt werden. Die beschriebene mechanische Oszillation wird durch ein periodisches elektrisches Signal an einem piezoelektrischen Aktor hervorgerufen, der in einem Biegebalken integriert ist. Die Bauform des Balkens gestattet eine Hybridisierung von optischen und mechanischen Komponenten zu einer Einheit, welche den Weg zur weiteren Miniaturisierung aufzeigt. Im Rahmen dieser Arbeit konnte so u. a. eine Sonde mit einer Bauhöhe unter 10 mm gefertigt werden. Durch eine zweite optische Wellenlänge lässt sich der eingeschränkte Eindeutigkeitsbereich des Laserinterferometers nachweislich vergrößern. Die hierfür eingesetzte Methode, die Stand der Technik ist, konnte erfolgreich problemspezifisch angepasst werden. Um das volle Potenzial des Sensors nutzen zu können, wurden zudem zahlreiche Algorithmen entworfen und erfolgreich getestet. Anhand von hier dokumentierten Messergebnissen können die Möglichkeiten, als auch die Schwächen des Messsystems abgeschätzt werden.
Resumo:
Die fünf Arten des Heterobasidion annosum s. l.-Komplexes sind in Nordamerika und Eurasien dafür bekannt große Schäden in Nadelforsten zu verursachen. In Deutschland sind mit H. annsosum s. s., H. parviporum und H. abietinum alle drei eurasischen Weißfäuleerreger sympatrisch vertreten. Besonders in der Norddeutschen Tiefebene fallen H. annsoums s. s.-Stämme durch ansteigende Befallsherde und hohe Pathogenität auf. Seit Jahren untersucht die Nordwestdeutsche forstliche Versuchsanstalt (NW-FVA) Göttingen die Zusammenhänge der sogenannte „Ackersterbe“ in einzelnen Regionen. In diesem Zusammenhang sollte die vorliegende Arbeit den molekular-genetischen Aspekt behandeln und die inner- und zwischenartlichen Strukturen sowie das Beziehungsgefüge von H. annosum s. s. und H. parviporum-Individuen aus 18 europäischen Ländern darstellen. Für die molekularen Untersuchungen wurde die AFLP-Analyse (amplified fragment length polymorphism) ausgewählt. Die Vorteile der AFLP liegen in der großen Anzahl polymorpher und selektionsneutraler Marker, der guten Reproduzierbarkeit und der damit verbundenen Robustheit dieser Methode. Basierend auf acht AFLP-Primerpaarkombinationen mit 209 Individuen wurde eine binäre Matrix erstellt. Diese bildete die Grundlage für die molekulargenetischen Analysen und folgende Fragestellungen: Können die Heterobasidion-Individuen in Netzwerk- und Dendrogramm-Analysen den herkunftsspezifischen Populationen zugeordnet werden und lässt sich ein geografisches Muster erkennen? Wie groß ist das Ausmaß der genetischen Diversität innerhalb und zwischen den untersuchten europäischen Heterobasidion annosum s. l.-Populationen? Ist das gesteigerte Schadbild in der norddeutschen Tiefebene auf eine mögliche invasive Heterobasidion-Art zurückzuführen? Wie sieht die Populationsstruktur von Heterobasidion annosum s. l. in Europa bzw. Deutschland aus und gibt es Hinweise auf Subpopulationen oder Hybridisierungsereignisse? Die von der AFLP-Analyse erzeugten 888 informativen Marker wurden in Neighbor-Joining- und UPGMA-Phänogrammen, Median-joining Netzwerk und einem Principal coordinates analysis (PCoA)-Koordinatensystem dargestellt. Übereinstimmend zeigten sich die Arten H. annosum und H. parviporum eindeutig distinkt. Die Boostrapunterstützung der meisten H. annosum s. s.-Individuen erwies sich jedoch innerartlich als überwiegend schwach. Häufig kam es zu Gruppierungen der Individuen gemäß ihrer regionalen Herkunft. Seltener bildeten die Populationen gemeinsame Cluster entsprechend ihrer Länderzugehörigkeit. Eine zonale Gruppierungsstruktur der Individuen nach Süd-, Mittel-, und Nordeuropa konnte in keiner Analyse beobachtet werden. Mit der Analysis of Molecular Variance (AMOVA) wurde mit der AFLP-Methode eine genetische Varianz zwischen den beiden untersuchten Arten von 72 % nachgewiesen. Intraspezifisch ließ H. annosum s. s eine sehr hohe genetische Varianz innerhalb der Populationen (73%) und eine geringe Differenzierung zwischen diesen erkennen. Lediglich die deutschen Populationen zeigten eine gewisse Abgrenzung zueinander (33%). Als Ursache für die hohe individuelle genetische Vielfalt wird zum Einen das dichte Vorkommen der H. annosum s. s.- Wirte in Europa angesehen. Darüber hinaus sind gebietsfremde Sporeneinträge durch überregionale Forstarbeiten, globale Holzimporte und die für H. annosum s. s. nachgewiesenen weiten Sporenflüge zu erklären. Das Populationsannahmemodell von STRUCTURE generierte für den Datensatz beider Arten eine optimale Populationsanzahl von ΔK=4. Drei der Subpopulationen wurden H. annosum s. s. zugeordnet. Eine Korrelation dieser genetischen Cluster mit ihrem geografischen Ursprung oder der Wirtsbaumart war nicht feststellbar. Ein möglicher Zusammenhang der Subpopulationen mit weiteren ökologischen Parametern wie z. B. Substratgrundlage, Pathogenität, Sporulationsverhalten und sich änderte klimatische Umweltbedingungen konnten in dieser Studie nicht untersucht werden. Des Weiteren zeigte die STRUCTURE-Analyse, dass einige H. parviorum-Individuen Anteile eines H. annosum s. s.-Clusters führten. Um zu klären, ob es sich hierbei um einen erebten und konservierten Polymorphisums, oder um Introgression handelt, wären weiterführende Analysen notwendig.
Resumo:
Einer der Hauptschwerpunkte der Arbeit lag in der Entwicklung einer spezies-spezifischen und einer spezies-unspezifischen GC-ICP-Q-MSIVA von Schwefelspezies in Petroprodukten. Es wurden hierzu Indikatoren, ausgehend von elementarem 34S-angereichertem Schwefel, im Mikromaßstab synthetisiert. Für die spezies-spezifische GC-ICP-Q-MSIVA wurde die erstmalige Synthese von 34S-markiertem Thiophen, Dibenzothiophen und 4-Methyldibenzothiophen verwirklicht. Als Indikatorsynthese für die spezies-unspezifische GC-ICP-Q-MSIVA erfolgte die erstmalige Darstellung von 34S-angereichertem Dimethyldisulid. Mit Hilfe der synthetisierten Verbindungen wurden spezies-spezifische und spezies-unspezifische massenspektrometrische Isotopenverdünnungsanalysen von Schwefelspezies in Petroprodukten durchgeführt. Vor allen GC-ICP-Q-MSIVA-Analysen erfolgte eine umfangreiche Speziesidentifizierung durch Aufstockexperimente mit kommerziell erhältlichen Standards und mit einem mit der GC gekoppelten Elektronenstoß (EI)-MS. Beide ICP-Q-MS Methoden zeichnen sich durch sehr niedrige Nachweisgrenzen (7 ng S/g) aus, welche auch eine Anwendbarkeit auf tiefentschwefelte Kraftstoffe garantieren. Mit der spezies-unspezifischen GC-ICP-Q-MSIVA ist neben einer Speziesanalyse auch eine Gesamtschwefelanalyse durch Aufsummierung aller in der Probe vorhandenen Spezies möglich. Es wurde im Rahmen dieser Arbeit auch der Einfluss möglicher Empfindlichkeitsänderungen des ICP-Q-MS durch koeluierende Kohlenwasserstoffe überprüft, wobei diese erwartungsgemäß auf das Ergebnis der spezies-spezifischen und spezies-unspezifischen GC-ICP-Q-MSIVA keinerlei Einfluss haben. Der zweite Hauptschwerpunkt der Arbeit lag auf der Ausarbeitung routinefähiger, schneller und zuverlässiger Methoden zur Gesamtelementspurenanalytik von Schwefel und Schwermetallen in Erdölen und Petroprodukten. Für die Gesamtschwefelanalyse wurde eine MSIVA nach thermaler Verdampfung mit 34S-markierten Dibenzothiophen als Indikator entwickelt. Die neu entwickelte Methode erlaubt eine sehr schnelle Bestimmung des Gesamtschwefelgehalts, wobei die eigentliche Messung des Isotopenverhältnisses innerhalb von Sekunden nach der Injektion der Probe erfolgt. Weiterhin zeichnet sich die Methode durch Robustheit und eine niedrige Nachweisgrenze (40 ng S/g) aus. Für die Analyse von Schwermetallen wurden erstmals Möglichkeiten einer direkten MSIVA von Erdölproben ohne zeitraubenden, kontaminationsträchtigen Aufschluss bzw. die schwierige Erzeugung einer Mikroemulsion zwischen hydrophober Probe und wässrigem Indikator entwickelt. Um eine homogene Verteilung des Indikators in der hydrophoben Probe zu ermöglichen, musste ausgehend von den zur Verfügung stehenden wässrigen Indikatorlösungen, eine Überführung des Indikators in ein organisches Lösungsmittel erfolgen. Hierzu wurde der jeweilige Metallindikator unter Komplexierung aus wässrigen Metallindikatorlösungen extrahiert. Für die Analyse der mit diesen Indikatorlösungen in organischer Phase versetzten Proben wurden zwei alternative Methoden ausgearbeitet. Bei der mit der Laserablation (LA) kombinierten ICP-SF-MSIVA wird die isotopenverdünnte Probe aus einer eigens für diesen Zweck entwickelten Probenhalterung ablatiert und so dem ICP-SF-MS zugeführt wird. Bei zeitlich sich verändernden Intensitäten der gemessenen Isotope werden aber reproduzierbare und konstante Isotopenverhältnisse erhalten. Im Falle einer homogenen Verteilung der Metallspuren wurde eine hervorragende Übereinstimmung mit Vergleichsmethoden und einem Referenzmaterial festgestellt. Im Falle einer heterogenen partikulären Verteilung der Metallspuren, wie sie z.B. bei Eisenspuren in den Erdölen vorlag, ist die Anwendbarkeit der LA-ICP-SF-MSIVA aufgrund des kleinen Probenvolumens (20 µL) jedoch begrenzt. Als Alternative zur LA-ICP-SF-MSIVA wurde ein System unter Verwendung der Fließinjektion für die Zuführung der isotopenverdünnten Probe zum ICP-SF-MS ausgearbeitet. Die isotopenverdünnte Probe wird hierbei in einen Eluentenstrom von Toluol injiziert und mit Hilfe einer Total-Consumption-Zerstäuber/Sprühkammer-Einheit vollständig bei einer Flussrate von 10 µL/min in das Plasma eingebracht. Neben einer nochmaligen Verkürzung der Analysenzeit und Vereinfachung der Probenvorbereitung bietet diese Methode zusätzlich stark verbesserte Nachweisgrenzen (z.B. Ni 0,9 ng/g). Leider sind mit diesem Verfahren bis jetzt nur Ni und Mo zuverlässig bestimmbar. Das in dieser Arbeit ausgearbeitete Methodenpaket erlaubt erstmals eine breite Einführung der ICP-MSIVA als zuverlässige Methode in die Routineanalytik der Petroindustrie. Durch die bewiesene Zuverlässigkeit, den geringen Zeitaufwand und die Robustheit der Methoden steht ihrem routinemäßigen Einsatz, außer einer weitergehenderen Automatisierung einzelner Verfahrensteile, prinzipiell nichts entgegen.
Resumo:
Ziel der Arbeit ist die Analyse von Prinzipien der Konturintegration im menschlichen visuellen System. Die perzeptuelle Verbindung benachbarter Teile in einer visuellen Szene zu einem Ganzen wird durch zwei gestalttheoretisch begründete Propositionen gekennzeichnet, die komplementäre lokale Mechanismen der Konturintegration beschreiben. Das erste Prinzip der Konturintegration fordert, dass lokale Ähnlichkeit von Elementen in einem anderen Merkmal als Orientierung nicht hinreicht für die Entdeckung von Konturen, sondern ein zusätzlicher statistischer Merkmalsunterschied von Konturelementen und Umgebung vorliegen muss, um Konturentdeckung zu ermöglichen. Das zweite Prinzip der Konturintegration behauptet, dass eine kollineare Ausrichtung von Konturelementen für Konturintegration hinreicht, und es bei deren Vorliegen zu robuster Konturintegrationsleistung kommt, auch wenn die lokalen merkmalstragenden Elemente in anderen Merkmalen in hohem Maße zufällig variieren und damit keine nachbarschaftliche Ähnlichkeitsbeziehung entlang der Kontur aufweisen. Als empirische Grundlage für die beiden vorgeschlagenen Prinzipien der Konturintegration werden drei Experimente berichtet, die zunächst die untergeordnete Rolle globaler Konturmerkmale wie Geschlossenheit bei der Konturentdeckung aufweisen und daraufhin die Bedeutung lokaler Mechanismen für die Konturintegration anhand der Merkmale Kollinearität, Ortsfrequenz sowie der spezifischen Art der Interaktion zwischen beiden Merkmalen beleuchten. Im ersten Experiment wird das globale Merkmal der Geschlossenheit untersucht und gezeigt, dass geschlossene Konturen nicht effektiver entdeckt werden als offene Konturen. Das zweite Experiment zeigt die Robustheit von über Kollinearität definierten Konturen über die zufällige Variation im Merkmal Ortsfrequenz entlang der Kontur und im Hintergrund, sowie die Unmöglichkeit der Konturintegration bei nachbarschaftlicher Ähnlichkeit der Konturelemente, wenn Ähnlichkeit statt über kollineare Orientierung über gleiche Ortsfrequenzen realisiert ist. Im dritten Experiment wird gezeigt, dass eine redundante Kombination von kollinearer Orientierung mit einem statistischen Unterschied im Merkmal Ortsfrequenz zu erheblichen Sichtbarkeitsgewinnen bei der Konturentdeckung führt. Aufgrund der Stärke der Summationswirkung wird vorgeschlagen, dass durch die Kombination mehrerer Hinweisreize neue kortikale Mechanismen angesprochen werden, die die Konturentdeckung unterstützen. Die Resultate der drei Experimente werden in den Kontext aktueller Forschung zur Objektwahrnehmung gestellt und ihre Bedeutung für die postulierten allgemeinen Prinzipien visueller Gruppierung in der Konturintegration diskutiert. Anhand phänomenologischer Beispiele mit anderen Merkmalen als Orientierung und Ortsfrequenz wird gezeigt, dass die gefundenen Prinzipien Generalisierbarkeit für die Verarbeitung von Konturen im visuellen System beanspruchen können.
Resumo:
Aromatische Amide mit p-Verknüpfung bilden die wohl steifste und härteste Klasse organischer Moleküle. Ihre Oligomere und Polymere sind Materialien mit extremer Stabilität und chemischer Robustheit. Die vorliegende Arbeit beschreibt die Synthese wohldefinierter Oligo-(p-benzamid)e (OPBA) bis zum Hepta-(p-benzamid), deren Kristallstruktur und thermisches Verhalten eingehend untersucht werden. Ihre besondere Steifigkeit wird im Folgenden genutzt, um Stab-Knäuel-Copolymere mit wohldefiniertem OPBA-Stab-Block herzustellen. Das Aggregationsverhalten dieser Copolymere wird näher beschrieben und die Aggregate mittels Rasterkraftmikroskopie (RKM) visualisiert und charakterisiert. Ein Schwerpunkt der durchgeführten Forschung befasst sich mit dem Einflu"s chemischer Variationen von Knäuel- und Stabblock auf die Aggregation. Ausgehend von PEG-OPBA-Copolymeren wird gezeigt, wie sich über kontrolliert radikalische Polymerisation responsive Triblöcke herstellen lassen. Das Verhalten dieser Triblöcke in wässriger Lösung wird eingehender untersucht und anhand von Lichstreu- und RKM-Untersuchungen ein Modell entwickelt, welches dieses Verhalten beschreibt. Neben den OPBA beschäftigt sich die Arbeit mit der Synthese wohldefinierter Oligo-p-phenylen-terephthalamide (OPTA). Der Aufbau PEG-basierter Stab-Knäuel-Copolymere mit monodispersem OPTA-Block wird beschrieben und ihre Aggregate mittels RKM dargestellt. Die Copolymere werden verwendet, um verbesserte Haftungseigenschaften an Twaron-Fasern gegenüber reinem PEG zu demonstrieren.
Resumo:
Im Rahmen der vorliegenden Arbeit wurden Eignung und Nutzen des „Objective therapy Compliance Measurement“ (OtCMTM)-Systems, einer innovativen Weiterentwicklung im Bereich der elektronischen Compliance-Messung, untersucht. Unter experimentellen Bedingungen wurden Funktionalität und Verlässlichkeit der elektronischen OtCMTM-Blisterpackungen überprüft, um deren Eignung für den klinischen Einsatz zu zeigen. Funktionalität (≥90% lesbare Blister), Richtigkeit (≤2% Fehler) und Robustheit waren bei den OtCMTM-Blistern der Version 3 gegeben, nachdem die Fehler der Versionen 1 und 2 in Zusammenarbeit mit dem Hersteller TCG identifiziert und eliminiert worden waren. Der als Alternative zu den elektronischen Blistern für die Verpackung von klinischen Prüfmustern entwickelte OtCMTM e-Dispenser wurde bezüglich Funktionalität und Anwenderfreundlichkeit in einer Pilotstudie untersucht. Dabei wurde ein Optimierungsbedarf festgestellt. In einer klinischen Studie wurde das OtCMTM-System mit dem als „Goldstandard“ geltenden MEMS® verglichen. Vergleichskriterien waren Datenqualität, Akzeptanz und Anwenderfreundlichkeit, Zeitaufwand bei der Bereitstellung der Medikation und Datenauswertung, sowie Validität. Insgesamt 40 Patienten, die mit Rekawan® retard 600mg behandelt wurden, nahmen an der offenen, randomisierten, prospektiven Studie teil. Das OtCMTM-System zeigte sich bezüglich Validität, Akzeptanz und Anwenderfreundlichkeit mit MEMS® vergleichbar. Eine erwartete Zeitersparnis wurde mit dem OtCMTM-System gegenüber MEMS® nicht erreicht. Vorteile des OtCMTM-Systems sind eine höhere Datenqualität und die Möglichkeit zum Einsatz in der Telemedizin.