994 resultados para Optimierung von Prozessparametern,
Resumo:
Leser dieses Beitrags sollen das Spektrum technologischer Anwendungen in der Psychotherapie, Supervision und Psychotherapieausbildung kennenlernen und die Hintergründe, Funktionen und Vorteile der verschiedenen Anwendungen diskutieren können. Dabei geht es insbesondere um die Beantwortung der Frage, welche Aufgaben technische Hilfsmittel übernehmen können, die einerseits für die Optimierung von Psychotherapie relevant sind, und andererseits ohne die Technik nicht oder nur eingeschränkt realisiert werden können
Resumo:
Die Untersuchung betrifft die deutsche öffentliche Verwaltung. Untersucht werden soll, ob eine Intensivierung des Organisationslernens Möglichkeiten zur Optimierung von Strukturen und Prozessen der öffentlichen Verwaltung bietet, mithin das Organisationslernen eine zweckmäßige Option für die Bürokratie darstellt. Untersucht wird diese Frage am Beispiel der Kommunalverwaltungen, die im Vergleich zu staatlichen Verwaltungen über größere Handlungsspielräume verfügen. Die Kommunalverwaltungen befinden sich derzeit in einem Reformprozess, der 1993 von der Kommunalen Gemeinschaftsstelle für Verwaltungsvereinfachung (KGSt) durch die Vorlage eines "Neuen Steuerungsmodells" (NSM) angestoßen wurde. Am Beispiel dieses Reformprozesses soll mit der vorliegenden Untersuchung zunächst geprüft werden, ob unter Berücksichtigung von Verlauf und Ergebnis dieses Prozesses ein Bedarf an einer Optimierung der Programme oder der Prozesse zur Verwaltungsentwicklung erkennbar ist. Sofern ein Bedarf zur Optimierung der Programme oder der Prozesse zur Verwaltungsentwicklung erkennbar wird, ist weiter zu fragen, ob dieser Bedarf durch das Organisationslernen befriedigt werden kann. Unter der Voraussetzung, dass die Modell-Vorstellung von der lernenden Organisation prinzipiell geeignet erscheint, in einem Entwicklungsprozess förderlich zu wirken, ist abschließend zu prüfen, ob dies auch unter der besonderen Aufgabenstellung und den besonderen Handlungsbedingungen der öffentlichen Verwaltung gelten könnte. Nach einer inzwischen mehr als 10-jährigen Einführungsphase wird ungeachtet einiger positiver Veränderungen die Gesamtbilanz zum NSM verhalten beurteilt. Im einzelnen lassen sich sowohl bezüglich des Modells problematische Lücken und Beschränkungen erkennen als auch Defizite in dem Implementationsverfahren. Insgesamt ist also die Frage nach dem Optimierungsbedarf zu bejahen. Die Intensivierung des Organisationslernens als Möglichkeit zur Optimierung von Implementationsprozessen kann nach dem Ergebnis der vorgenommenen Analysen grundsätzlich auch für die öffentliche Verwaltung in Betracht gezogen werden. Sowohl die grundlegenden Lernvoraussetzungen für das Organisationslernen als auch die grundlegenden verwaltungswissenschaftlich begründeten Anforderungen an die praktische Verwaltungsentwicklung erscheinen erfüllt. Zur Klärung der Frage, ob das Organisationslernen unter den besonderen Handlungsbedingungen der öffentlichen Verwaltung zur Optimierung des Verwaltungshandelns geeignet erscheint, wurde zusätzlich eine Expertenbefragung in ausgewählten Kommunalverwaltungen durchgeführt. Im Ergebnis dieser Befragung zeigt sich, dass die Vorstellung von einer lernenden Organisation zur Optimierung des Verwaltungshandelns durchaus auf Interesse stößt, jedoch die Einführungs- und Betriebsbedingungen zur Intensivierung des Organisationslernens noch nicht in allen Behörden gegeben sind und möglicherweise auch nicht in allen Behörden hergestellt werden können, so dass im Ergebnis das Organisationslernen als Option für die Bürokratie zwar Chancen verspricht, jedoch unter Berücksichtigung der Handlungsbedingungen in der öffentlichen Verwaltung differenziert zu beurteilen ist.
Resumo:
Die ubiquitäre Datenverarbeitung ist ein attraktives Forschungsgebiet des vergangenen und aktuellen Jahrzehnts. Es handelt von unaufdringlicher Unterstützung von Menschen in ihren alltäglichen Aufgaben durch Rechner. Diese Unterstützung wird durch die Allgegenwärtigkeit von Rechnern ermöglicht die sich spontan zu verteilten Kommunikationsnetzwerken zusammen finden, um Informationen auszutauschen und zu verarbeiten. Umgebende Intelligenz ist eine Anwendung der ubiquitären Datenverarbeitung und eine strategische Forschungsrichtung der Information Society Technology der Europäischen Union. Das Ziel der umbebenden Intelligenz ist komfortableres und sichereres Leben. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung charakterisieren sich durch Heterogenität der verwendeten Rechner. Diese reichen von Kleinstrechnern, eingebettet in Gegenstände des täglichen Gebrauchs, bis hin zu leistungsfähigen Großrechnern. Die Rechner verbinden sich spontan über kabellose Netzwerktechnologien wie wireless local area networks (WLAN), Bluetooth, oder UMTS. Die Heterogenität verkompliziert die Entwicklung und den Aufbau von verteilten Kommunikationsnetzwerken. Middleware ist eine Software Technologie um Komplexität durch Abstraktion zu einer homogenen Schicht zu reduzieren. Middleware bietet eine einheitliche Sicht auf die durch sie abstrahierten Ressourcen, Funktionalitäten, und Rechner. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung sind durch die spontane Verbindung von Rechnern gekennzeichnet. Klassische Middleware geht davon aus, dass Rechner dauerhaft miteinander in Kommunikationsbeziehungen stehen. Das Konzept der dienstorienterten Architektur ermöglicht die Entwicklung von Middleware die auch spontane Verbindungen zwischen Rechnern erlaubt. Die Funktionalität von Middleware ist dabei durch Dienste realisiert, die unabhängige Software-Einheiten darstellen. Das Wireless World Research Forum beschreibt Dienste die zukünftige Middleware beinhalten sollte. Diese Dienste werden von einer Ausführungsumgebung beherbergt. Jedoch gibt es noch keine Definitionen wie sich eine solche Ausführungsumgebung ausprägen und welchen Funktionsumfang sie haben muss. Diese Arbeit trägt zu Aspekten der Middleware-Entwicklung für verteilte Kommunikationsnetzwerke in der ubiquitären Datenverarbeitung bei. Der Schwerpunkt liegt auf Middleware und Grundlagentechnologien. Die Beiträge liegen als Konzepte und Ideen für die Entwicklung von Middleware vor. Sie decken die Bereiche Dienstfindung, Dienstaktualisierung, sowie Verträge zwischen Diensten ab. Sie sind in einem Rahmenwerk bereit gestellt, welches auf die Entwicklung von Middleware optimiert ist. Dieses Rahmenwerk, Framework for Applications in Mobile Environments (FAME²) genannt, beinhaltet Richtlinien, eine Definition einer Ausführungsumgebung, sowie Unterstützung für verschiedene Zugriffskontrollmechanismen um Middleware vor unerlaubter Benutzung zu schützen. Das Leistungsspektrum der Ausführungsumgebung von FAME² umfasst: • minimale Ressourcenbenutzung, um auch auf Rechnern mit wenigen Ressourcen, wie z.B. Mobiltelefone und Kleinstrechnern, nutzbar zu sein • Unterstützung für die Anpassung von Middleware durch Änderung der enthaltenen Dienste während die Middleware ausgeführt wird • eine offene Schnittstelle um praktisch jede existierende Lösung für das Finden von Diensten zu verwenden • und eine Möglichkeit der Aktualisierung von Diensten zu deren Laufzeit um damit Fehlerbereinigende, optimierende, und anpassende Wartungsarbeiten an Diensten durchführen zu können Eine begleitende Arbeit ist das Extensible Constraint Framework (ECF), welches Design by Contract (DbC) im Rahmen von FAME² nutzbar macht. DbC ist eine Technologie um Verträge zwischen Diensten zu formulieren und damit die Qualität von Software zu erhöhen. ECF erlaubt das aushandeln sowie die Optimierung von solchen Verträgen.
Resumo:
Die Bedeutung des Dienstgüte-Managements (SLM) im Bereich von Unternehmensanwendungen steigt mit der zunehmenden Kritikalität von IT-gestützten Prozessen für den Erfolg einzelner Unternehmen. Traditionell werden zur Implementierung eines wirksamen SLMs Monitoringprozesse in hierarchischen Managementumgebungen etabliert, die einen Administrator bei der notwendigen Rekonfiguration von Systemen unterstützen. Auf aktuelle, hochdynamische Softwarearchitekturen sind diese hierarchischen Ansätze jedoch nur sehr eingeschränkt anwendbar. Ein Beispiel dafür sind dienstorientierte Architekturen (SOA), bei denen die Geschäftsfunktionalität durch das Zusammenspiel einzelner, voneinander unabhängiger Dienste auf Basis deskriptiver Workflow-Beschreibungen modelliert wird. Dadurch ergibt sich eine hohe Laufzeitdynamik der gesamten Architektur. Für das SLM ist insbesondere die dezentrale Struktur einer SOA mit unterschiedlichen administrativen Zuständigkeiten für einzelne Teilsysteme problematisch, da regelnde Eingriffe zum einen durch die Kapselung der Implementierung einzelner Dienste und zum anderen durch das Fehlen einer zentralen Kontrollinstanz nur sehr eingeschränkt möglich sind. Die vorliegende Arbeit definiert die Architektur eines SLM-Systems für SOA-Umgebungen, in dem autonome Management-Komponenten kooperieren, um übergeordnete Dienstgüteziele zu erfüllen: Mithilfe von Selbst-Management-Technologien wird zunächst eine Automatisierung des Dienstgüte-Managements auf Ebene einzelner Dienste erreicht. Die autonomen Management-Komponenten dieser Dienste können dann mithilfe von Selbstorganisationsmechanismen übergreifende Ziele zur Optimierung von Dienstgüteverhalten und Ressourcennutzung verfolgen. Für das SLM auf Ebene von SOA Workflows müssen temporär dienstübergreifende Kooperationen zur Erfüllung von Dienstgüteanforderungen etabliert werden, die sich damit auch über mehrere administrative Domänen erstrecken können. Eine solche zeitlich begrenzte Kooperation autonomer Teilsysteme kann sinnvoll nur dezentral erfolgen, da die jeweiligen Kooperationspartner im Vorfeld nicht bekannt sind und – je nach Lebensdauer einzelner Workflows – zur Laufzeit beteiligte Komponenten ausgetauscht werden können. In der Arbeit wird ein Verfahren zur Koordination autonomer Management-Komponenten mit dem Ziel der Optimierung von Antwortzeiten auf Workflow-Ebene entwickelt: Management-Komponenten können durch Übertragung von Antwortzeitanteilen untereinander ihre individuellen Ziele straffen oder lockern, ohne dass das Gesamtantwortzeitziel dadurch verändert wird. Die Übertragung von Antwortzeitanteilen wird mithilfe eines Auktionsverfahrens realisiert. Technische Grundlage der Kooperation bildet ein Gruppenkommunikationsmechanismus. Weiterhin werden in Bezug auf die Nutzung geteilter, virtualisierter Ressourcen konkurrierende Dienste entsprechend geschäftlicher Ziele priorisiert. Im Rahmen der praktischen Umsetzung wird die Realisierung zentraler Architekturelemente und der entwickelten Verfahren zur Selbstorganisation beispielhaft für das SLM konkreter Komponenten vorgestellt. Zur Untersuchung der Management-Kooperation in größeren Szenarien wird ein hybrider Simulationsansatz verwendet. Im Rahmen der Evaluation werden Untersuchungen zur Skalierbarkeit des Ansatzes durchgeführt. Schwerpunkt ist hierbei die Betrachtung eines Systems aus kooperierenden Management-Komponenten, insbesondere im Hinblick auf den Kommunikationsaufwand. Die Evaluation zeigt, dass ein dienstübergreifendes, autonomes Performance-Management in SOA-Umgebungen möglich ist. Die Ergebnisse legen nahe, dass der entwickelte Ansatz auch in großen Umgebungen erfolgreich angewendet werden kann.
Resumo:
Spätestens seit der Formulierung der modernen Portfoliotheorie durch Harry Markowitz (1952) wird den aktiven Portfoliomanagementstrategien besondere Aufmerksamkeit in Wissenschaft und Anlagepraxis gewidmet. Diese Arbeit ist im Schnittstellenbereich zwischen neoklassischer Kapitalmarkttheorie und technischer Analyse angesiedelt. Es wird untersucht, inwieweit eine passive Buy&Hold-Strategie, die als einzige im Einklang mit der Effizienzmarkthypothese nach Fama (1970) steht, durch Verwendung von aktiven Strategien geschlagen werden kann. Der Autor präsentiert einen Wavelet-basierten Ansatz für die Analyse der Finanzzeitreihen. Die Wavelet-Transformation wird als ein mathematisches Datenaufbereitungstool herangezogen und ermöglicht eine Multiskalendarstellung einer Datenreihe, durch das Aufspalten dieser in eine Approximationszeitreihe und eine Detailszeitreihe, ohne dass dadurch Informationen verloren gehen. Diese Arbeit beschränkt sich auf die Verwendung der Daubechies Wavelets. Die Multiskalendarstellung dient als Grundlage für die Entwicklung von zwei technischen Indikatoren. Der Wavelet Stochastik Indikator greift auf die Idee des bekannten Stochastik-Indikators zurück und verwendet nicht mehr die Kurszeitreihe, sondern die Approximationszeitreihe als Input. Eine auf diesem Indikator basierende Investmentstrategie wird umfangreicher Sensitivitätsanalyse unterworfen, die aufzeigt, dass eine Buy&Hold-Strategie durchaus outperformt werden kann. Die Idee des Momentum-Indikators wird durch den Wavelet Momentum Indikator aufgegriffen, welcher die Detailszeitreihen als Input heranzieht. Im Rahmen der Sensitivitätsanalyse einer Wavelet Momentum Strategie wird jedoch die Buy&Hold -Strategie nicht immer geschlagen. Ein Wavelet-basiertes Prognosemodell verwendet ähnlich wie die technischen Indikatoren die Multiskalendarstellung. Die Approximationszeitreihen werden dabei durch das Polynom 2. Grades und die Detailszeitreihen durch die Verwendung der Sinusregression extrapoliert. Die anschließende Aggregation der extrapolierten Zeitreihen führt zu prognostizierten Wertpapierkursen. Kombinierte Handelsstrategien zeigen auf, wie Wavelet Stochastik Indikator, Wavelet Momentum Indikator und das Wavelet-basierte Prognosemodell miteinander verknüpft werden können. Durch die Verknüpfung einzelner Strategien gelingt es, die Buy&Hold-Strategie zu schlagen. Der letzte Abschnitt der Arbeit beschäftigt sich mit der Modellierung von Handelssystem-portfolios. Angestrebt wird eine gleichzeitige Diversifikation zwischen Anlagen und Strategien, die einer ständigen Optimierung unterworfen wird. Dieses Verfahren wird als ein systematischer, an bestimmte Optimierungskriterien gebundener Investmentprozess verstanden, mit welchem es gelingt, eine passive Buy&Hold-Strategie zu outperformen. Die Arbeit stellt eine systematische Verknüpfung zwischen der diskreten Wavelet Transformation und technisch quantitativen Investmentstrategien her. Es werden auch die Problemfelder der durchaus viel versprechenden Verwendung der Wavelet Transformation im Rahmen der technischen Analyse beleuchtet.
Resumo:
We are currently at the cusp of a revolution in quantum technology that relies not just on the passive use of quantum effects, but on their active control. At the forefront of this revolution is the implementation of a quantum computer. Encoding information in quantum states as “qubits” allows to use entanglement and quantum superposition to perform calculations that are infeasible on classical computers. The fundamental challenge in the realization of quantum computers is to avoid decoherence – the loss of quantum properties – due to unwanted interaction with the environment. This thesis addresses the problem of implementing entangling two-qubit quantum gates that are robust with respect to both decoherence and classical noise. It covers three aspects: the use of efficient numerical tools for the simulation and optimal control of open and closed quantum systems, the role of advanced optimization functionals in facilitating robustness, and the application of these techniques to two of the leading implementations of quantum computation, trapped atoms and superconducting circuits. After a review of the theoretical and numerical foundations, the central part of the thesis starts with the idea of using ensemble optimization to achieve robustness with respect to both classical fluctuations in the system parameters, and decoherence. For the example of a controlled phasegate implemented with trapped Rydberg atoms, this approach is demonstrated to yield a gate that is at least one order of magnitude more robust than the best known analytic scheme. Moreover this robustness is maintained even for gate durations significantly shorter than those obtained in the analytic scheme. Superconducting circuits are a particularly promising architecture for the implementation of a quantum computer. Their flexibility is demonstrated by performing optimizations for both diagonal and non-diagonal quantum gates. In order to achieve robustness with respect to decoherence, it is essential to implement quantum gates in the shortest possible amount of time. This may be facilitated by using an optimization functional that targets an arbitrary perfect entangler, based on a geometric theory of two-qubit gates. For the example of superconducting qubits, it is shown that this approach leads to significantly shorter gate durations, higher fidelities, and faster convergence than the optimization towards specific two-qubit gates. Performing optimization in Liouville space in order to properly take into account decoherence poses significant numerical challenges, as the dimension scales quadratically compared to Hilbert space. However, it can be shown that for a unitary target, the optimization only requires propagation of at most three states, instead of a full basis of Liouville space. Both for the example of trapped Rydberg atoms, and for superconducting qubits, the successful optimization of quantum gates is demonstrated, at a significantly reduced numerical cost than was previously thought possible. Together, the results of this thesis point towards a comprehensive framework for the optimization of robust quantum gates, paving the way for the future realization of quantum computers.
Resumo:
Das Cydia pomonella Granulovirus (CpGV, Fam. Baculoviridae) ist ein sehr virulentes und hoch spezifisches Pathogen des Apfelwicklers (Cydia pomonella), das seit mehreren Jahren in der Bundesrepublik Deutschland und anderen Ländern der EU als Insektizid zugelassen ist. Wie andere Baculoviren auch befällt es die Larven der Insekten und ist aufgrund seiner Selektivität für Nicht-Zielorganismen unbedenklich. In der Vergangenheit konzentrierte sich die Erforschung des CpGV auf Bereiche, die für die Anwendung im Pflanzenschutz relevant waren, wobei nach fast 20 Jahren nach der ersten Zulassung noch immer nicht bekannt ist, ob und wie sich das CpGV in der Umwelt etablieren kann. Im Rahmen der vorliegenden Arbeit wurden verschiedene Parameter, mit deren Hilfe die Populationsdynamik des CpGV beschrieben werden kann, analysiert und quantitativ bestimmt. Neben den biologischen Eigenschaften wie Virulenz, DNA-Charakterisierung und Quantifizierung der Virusnachkommenschaft wurden insbesondere die horizontale sowie die vertikale Transmission, die Inaktivierung und die Infektion später Larvenstadien untersucht. Letztlich wurden die ermittelten Parameter zusammen mit Daten aus der Literatur in ein mathematisches Modell integriert. Um die Wahrscheinlichkeit der horizontalen Transmission zu quantifizieren, wurde ein Modellsystem mit losen Äpfeln etabliert, in dem verschiedene Szenarien möglicher horizontaler Transmission unter definierten Laborbedingungen getestet wurden. In Versuchsserien, in denen ein Virusfleck, entsprechend der produzierten Virusmenge einer Eilarve, auf einen Apfel appliziert worden war, war unter den aufgesetzten Apfelwicklerlarven lediglich eine sehr geringe Mortalität von 3 - 6% zu beobachten. Wurde jedoch ein an einer Virusinfektion gestorbener Larvenkadaver als Inokulum verwendet, lag die Mortalitätsrate aufgesetzter Larven bei über 40%. Diese beobachtete hohe horizontale Transmissionsrate konnte mit dem Verhalten der Larven erklärt werden. Die Larven zeigten eine deutliche Einbohrpräferenz für den Stielansatz bzw. den Kelch, wodurch die Wahrscheinlichkeit des Zusammentreffens einer an der Infektion verendeten Larve mit einer gesunden Larve um ein Vielfaches zunahm. In einem ähnlich angelegten Freilandversuch konnte eine horizontale Transmission nicht belegt werden. Der Unterschied zur Kontrollgruppe fiel aufgrund einer hohen natürlichen Mortalität und einer damit einhergehenden niedrigen Dichte der Larven zu gering aus. Parallel hierzu wurde außerdem eine Halbwertszeit von 52 Sonnenstunden für das CpGV ermittelt. Weiterhin konnte festgestellt werden, dass die Mortalität von späteren Larvenstadien, die 14 Tage Zeit hatten sich in die Äpfel einzubohren, bevor eine CpGV-Applikation durchgeführt wurde, ebenso hoch war wie bei Larven, die sich im L1-Stadium auf der Apfeloberfläche infizierten. Aufgrund des höheren Alters jener Larven war der Fraßschaden an befallenen Äpfeln jedoch wesentlich größer und vergleichbar mit dem Fraßschaden einer unbehandelten Kontrolle. Der Versuch zur vertikalen Transmission zeigte dass, obwohl die verwendete Apfelwicklerzucht nicht frei von CpGV war, die Mortalitätsrate der Nachkommen subletal infizierter Weibchen (44%) jedoch deutlich höher war als die der Nachkommen subletal infizierter Männchen (28%) und der unbehandelten Kontrolle (27%). Auch in den PCR-Analysen konnte eine größere Menge an CpGV-Trägern bei den Nachkommen subletal infizierter Weibchen (67%) als bei den Nachkommen subletal infizierter Männchen (49%) und bei der Kontrolle (42%) nachgewiesen werden. Die Ergebnisse deuten darauf hin, dass eine Infektion durch subletal infizierte Weibchen vertikal in die nächste Generation übertragen werden kann. Dies lässt erkennen, dass in der Folgegeneration des Apfelwicklers eine zusätzliche Wirkung des CpGV durch vertikale Transmission auftreten kann. Hierin wäre auch ein potentieller Mechanismus für eine dauerhafte Etablierung des Virus zu sehen. Letztlich wurden alle Parameter, die die CpGV-Apfelwickler-Beziehung beschreiben, in ein mathematisches Modell GRANULO integriert. Nach einer Sensitivitätsanalyse wurde GRANULO teilweise mit Daten aus den Freilandversuchen verifiziert. Durch Modifikation der Virusparameter im Modell konnte anschließend der Einfluss veränderter biologischer Eigenschaften (UV-Stabilität und Transmissionsraten) der Viren in Simulationen theoretisch erprobt werden. Das beschriebene Modell, das allerdings noch einer weitergehenden Verifizierung und Validierung bedarf, ist eine erste Annäherung an die quantitative Erfassung und Modellierung der Populationsdynamik des Systems CpGV-Apfelwickler. Die im Zusammenhang mit der Populationsdynamik des Apfelwicklers erhobenen Daten können einen wertvollen Beitrag zur Optimierung von Kontrollstrategien des Apfelwicklers mittels CpGV leisten. Außerdem geben sie Aufschluss über die Etablierungsmöglichkeiten dieses Bioinsektizids.
Resumo:
Durch globale Expressionsprofil-Analysen auf Transkriptom-, Proteom- oder Metabolom-Ebene können biotechnologische Produktionsprozesse besser verstanden und die Erkenntnisse für die zielgerichtete, rationale Optimierung von Expressionssystemen genutzt werden. In der vorliegenden Arbeit wurde die Überexpression einer Glukose-Dehydrogenase (EC 1.1.5.2), die von der Roche Diagnostics GmbH für die diagnostische Anwendung optimiert worden war, in Escherichia coli untersucht. Die Enzymvariante unterscheidet sich in sieben ihrer 455 Aminosäuren vom Wildtyp-Enzym und wird im sonst isogenen Wirt-/Vektor-System in signifikant geringeren Mengen (Faktor 5) gebildet. Das prokaryontische Expressionssystem wurde auf Proteom-Ebene charakterisiert. Die 2-dimensionale differenzielle Gelelektrophorese (DIGE) wurde zuvor unter statistischen Aspekten untersucht. Unter Berücksichtigung von technischen und biologischen Variationen, falsch-positiven (α-) und falsch-negativen (β-) Fehlern sowie einem daraus abgeleiteten Versuchsdesign konnten Expressionsunterschiede als signifikant quantifiziert werden, wenn sie um den Faktor ≥ 1,4 differierten. Durch eine Hauptkomponenten-Analyse wurde gezeigt, dass die DIGE-Technologie für die Expressionsprofil-Analyse des Modellsystems geeignet ist. Der Expressionsstamm für die Enzymvariante zeichnete sich durch eine höhere Variabilität an Enzymen für den Zuckerabbau und die Nukleinsäure-Synthese aus. Im Expressionssystem für das Wildtyp-Enzym wurde eine unerwartet erhöhte Plasmidkopienzahl nachgewiesen. Als potenzieller Engpass in der Expression der rekombinanten Glukose-Dehydrogenase wurde die Löslichkeitsvermittlung identifiziert. Im Expressionsstamm für das Wildtyp-Enzym wurden viele Proteine für die Biogenese der äußeren Membran verstärkt exprimiert. Als Folge dessen wurde ein sog. envelope stress ausgelöst und die Zellen gingen in die stationäre Wuchsphase über. Die Ergebnisse der Proteomanalyse wurden weiterführend dazu genutzt, die Produktionsleistung für die Enzymvariante zu verbessern. Durch den Austausch des Replikationsursprungs im Expressionsvektor wurde die Plasmidkopienzahl erhöht und die zelluläre Expressionsleistung für die diagnostisch interessantere Enzymvariante um Faktor 7 - 9 gesteigert. Um die Löslichkeitsvermittlung während der Expression zu verbessern, wurde die Plasmidkopienzahl gesenkt und die Coexpression von Chaperonen initiiert. Die Ausbeuten aktiver Glukose-Dehydrogenase wurden durch die Renaturierung inaktiven Produkts aus dem optimierten Expressionssystem insgesamt um einen Faktor von 4,5 erhöht. Somit führte im Rahmen dieser Arbeit eine proteombasierte Expressionsprofil-Analyse zur zielgerichteten, rationalen Expressionsoptimierung eines prokaryontischen Modellsystems.
Resumo:
The mixing of nanoparticles with polymers to form composite materials has been applied for decades. They combine the advantages of polymers (e.g., elasticity, transparency, or dielectric properties) and inorganic nanoparticles (e.g., specific absorption of light, magneto resistance effects, chemical activity, and catalysis etc.). Nanocomposites exhibit several new characters that single-phase materials do not have. Filling the polymeric matrix with an inorganic material requires its homogeneous distribution in order to achieve the highest possible synergetic effect. To fulfill this requirement, the incompatibility between the filler and the matrix, originating from their opposite polarity, has to be resolved. A very important parameter here is the strength and irreversibility of the adsorption of the surface active compound on the inorganic material. In this work the Isothermal titration calorimetry (ITC) was applied as a method to quantify and investigate the adsorption process and binding efficiencies in organic-inorganic–hybrid-systems by determining the thermodynamic parameters (ΔH, ΔS, ΔG, KB as well as the stoichiometry n). These values provide quantification and detailed understanding of the adsorption process of surface active molecules onto inorganic particles. In this way, a direct correlation between the adsorption strength and structure of the surface active compounds can be achieved. Above all, knowledge of the adsorption mechanism in combination with the structure should facilitate a more rational design into the mainly empirically based production and optimization of nanocomposites.
Resumo:
Energieeffizienz und Leistungsfähigkeit von fördertechnischen Anlagen sind in den vergangenen Jahren immer mehr in den Fokus der Betreiber und Hersteller gerückt. Im Rahmen einer Untersuchung am Fraunhofer-Institut für Materialfluss und Logistik IML wurden diese beiden Aspekte an magnetisch erregten und piezoerregten Schwingförderern untersucht. Ein Systemvergleich stellt dabei die wesentlichen Vor- und Nachteile der jeweiligen Antriebsart dar und unterstützt sowohl bei der Auswahl als auch bei der Optimierung von Transportsystemen im logistischen Umfeld.
Resumo:
Die Grundidee hinter dem neuen Regalbediengerät ist die Minimierung der zu bewegenden Last durch die Verwendung einer seilbasierten Stewart-Gough-Plattform (SGP). Das klassische Regalbediengerät (RBG) wird dabei durch eine Plattform ersetzt, die an bis zu acht vorgespannten Seilen befestigt ist. Unterstützt wird diese Bauform durch eine abgestimmte Steuerungssoftware, die es ermöglicht die Vorteile des RBG optimal zu nutzen. Das hier mit Software vorgestellte Konzept regelt die Vorgehensweise zur Optimierung von Ein- und Auslagerungsaufträgen in einem Lagerregal, sowie die Optimierung der Fachbelegung in Zeiten ohne direkten Auftrag. Es beinhaltet dabei Mechanismen, die bestimmen wann Aufträge abgearbeitet werden, in welcher Reihenfolge und in welchen Kombinationen. Ziel ist es Ein- und Auslagerungsaufträge so zu kombinieren, dass möglichst effizient und schnell gearbeitet wird.
Resumo:
Die motorikwissenschaftliche Befundlage zum sogenannten „Quiet Eye“ weist darauf hin, dass hohe sportmotorische Leistungen, insbesondere in Präzisionsaufgaben, mit einer langen finalen Fixation vor der Bewegungsentfaltung einhergehen. Ein Mechanismus, der diesen Zusammenhang aus einer kognitionspsychologischen Perspektive erklären könnte, ist die Optimierung von Informationsverarbeitungsprozessen der Bewegungsparametrisierung. Diese Annahme wurde durch eine experimentelle Manipulation von Zielinstruktionen in einer Ballwurfaufgabe untersucht. Zum einen zeigen die Ergebnisse, dass sich die räumliche Verankerung des Quiet Eye in Abhängigkeit der variierten Aufgabenziele verändert; zum anderen deuten die Befunde darauf hin, dass sich Veränderungen der Verankerung im Bewegungsresultat niederschlagen. Damit wird ein kognitiver Wirkmechanismus plausibilisiert, nach dem die Bewegungsgenauigkeit durch Zielinstruktion via räumliche Quiet-Eye-Verankerung bestimmt wird.
Resumo:
Der Schlaf ist eine wichtige Ressource für das psychische und physische Wohlbefinden. Die Erkenntnisse aus der Schlafforschung spielten jedoch in der Sportwissenschaft bislang nur eine untergeordnete Rolle. Nach einer kurzen Einführung zur physiologischen Erfassung von Schlaf werden in diesem Beitrag drei Bereiche aufgeführt, die fruchtbare Verknüpfungen zwischen Schlaf- und Sportwissenschaft aufweisen. Im ersten Bereich wird auf die schlafbegleitende Konsolidierung von motorischen Gedächtnisinhalten eingegangen. Dieser eher grundlagenorientierte Forschungszweig beleuchtet den Zusammenhang zwischen der Aneignung bzw. Optimierung von motorischen Fertigkeiten und verschiedenen Schlafstadien und Schlafparametern (z. B. Schlafspindeln). In dem zweiten Bereich geht es um den Schlaf vor sportlichen Wettkämpfen. Für den Sport liegt eine Vielzahl von anekdotischen Belegen über eine schlecht geschlafene Nacht vor einem sportlichen Wettkampf vor. Systematische Erhebungen existieren jedoch kaum. Anhand verschiedener Studien sollen Aspekte geklärt werden, die die Ursachen und Häufigkeiten von schlechtem Schlaf vor Wettkämpfen und die Auswirkung auf die Wettkampfleistung betreffen. Der dritte Bereich widmet sich dem Einfluss von körperlicher Aktivität auf den Schlaf. Es zeigt sich, dass der Sport einen positiven Effekt auf den Schlaf bei Menschen mit Schlafstörung aufweist. Diese Befunde weisen auf einen therapeutischen Ansatz für Sportwissenschaftler in der Schlafmedizin. Abschließend werden sportpraktische Implikationen erörtert und Perspektiven auf weitere Forschungsfragen eröffnet.
Resumo:
In this work, fabrication processes for daylight guiding systems based on micromirror arrays are developed, evaluated and optimized.Two different approaches are used: At first, nanoimprint lithography is used to fabricate large area micromirrors by means of Substrate Conformal Imprint Lithography (SCIL).Secondly,a new lithography technique is developed using a novel bi-layered photomask to fabricate large area micromirror arrays. The experimental results showing a reproducible stable process, high yield, and is consuming less material, time, cost and effort.
Resumo:
In der vorliegenden Arbeit wurde eine LC-IRMS Methode zur aminozucker-spezifischen δ13C-Analyse in Pflanzenmaterialien optimiert und etabliert, um die Bildung und den Umsatz von mikrobiellen Residuen in Boden- und Pflanzenmaterialien mit hoher Genauigkeit erfassen zu können. Weiterhin wurde mit der etablierten Methode ein Pilzwachstumsexperiment durchgeführt. Der Fokus dieser Arbeit lag jedoch auf der Methodenentwicklung. Ziel des ersten Artikels war es eine HPLC-Umkehrphasen-Methode zur simultanen Bestimmung von Muraminsäure, Mannosamin, Galaktosamin und Glucosamin so hingehend zu verbessern, dass an verschieden HPLC-Systemen zuverlässige Ergebnisse für alle vier Aminozucker in Boden- und Pflanzenhydrolysaten erhalten werden. Dafür wurde zunächst die mobile Phase optimiert. So wurde der Tetrahydrofurananteil erhöht, was kürzere Retentionszeiten und eine bessere Trennung zwischen Muraminsäure und Mannosamin zur Folge hatte. Weiterhin wurde ein höheres Signal durch das Herabsetzen der Extinktionswellenlänge und der Anpassung der OPA-Derivatisierungsreaktionszeit erzielt. Nach Optimierung der genannten Parameter erfolgte die Validierung der Methode. Für Muraminsäure wurde eine Bestimmungsgrenze (LOQ) von 0,5 µmol l-1 was 0,13 µg ml -1 entspricht und für die drei anderen Aminozucker 5,0 µmol l-1 (entspricht 0,90 µg ml)erhalten. Weiterhin wurden Wasser und Phosphatpuffer als Probenlösungsmittel getestet, um den Einfluss des pH-Wertes auf die OPA-Reaktion zu testen. Zur aminozucker-spezifischen δ13C–Analyse am IRMS ist eine HPLC-Methode mit einer kohlenstofffreien mobilen Phase notwendig, andernfalls kann aufgrund des hohen Hintergrundrauschens kein vernünftiges Signal mehr detektiert werden. Da die im ersten Artikel beschriebene Umkehrphasenmethode einen kohlenstoffhaltigen Eluenten enthält, musste eine ebenso zuverlässige Methode, die jedoch keine organische Lösungsmittel benötigt, getestet und mit der schon etablierten Methode verglichen werden. Es gibt eine Reihe von HPLC-Methoden, die ohne organische Lösungsmittel auskommen, wie z. B. (1) Hochleistungsanionenaustauschchromatographie (HPAEC), (2) Hochleistungskationenaustauschchromatographie (HPCEC) und (3) die Hochleistungsanionenausschlusschromatographie (HPEXC). Ziele des zweiten Artikels waren (1) eine zuverlässige Purifikations- und Konzentrierungsmethode für Aminozucker in HCl-Hydrolysaten und (2) eine optimale HPLC-Methode zu finden. Es wurden fünf Aufarbeitungsmethoden zur Purifikation und Konzentrierung der Probenhydrolysate und vier HPLC-Methoden getestet. Schlussfolgernd kann zusammengefasst werden, dass für Detektoren mit geringer Empfindlichkeit (z.B. IRMS) eine Konzentrierung und Purifikation insbesondere von Muraminsäure über ein Kationenaustauscherharz sinnvoll ist. Eine Basislinientrennung für alle Aminozucker war nur mit der HPAEC möglich. Da mit dieser Methode gute Validierungsdaten erzielt wurden und die Aminozuckergehalte mit der Umkehrphasenmethode vergleichbar waren, stellt die HPAEC die Methode der Wahl zur aminozucker-spezifischen δ13C–Analyse am IRMS dar. Der dritte Artikel befasst sich mit der Optimierung der aminozucker-spezifischen δ13C–Analyse mittels HPAEC-IRMS in Pflanzenhydrolysaten sowie mit der Bestimmung des Umsatzes von saprotrophen Pilzen in verschieden Substraten. Die in der Literatur beschriebene HPAEC-IRMS- Methode ist für die aminozucker-spezifische δ13C–Analyse in Bodenhydrolysaten jedoch nicht in Pflanzenhydrolysaten geeignet. In Pflanzenhydrolysaten wird der Glucosaminpeak von Peaks aus der Matrix interferiert. Folglich war das erste Ziel dieses Artikels, die Methode so zu optimieren, dass eine aminozucker-spezifische δ13C–Analyse in Pflanzenhydrolysaten möglich ist. Weiterhin sollten mit der optimierten HPAEC-IRMS-Methode die Bildung und der Umsatz von saprotrophen Pilzen bestimmt werden. Durch Erhöhung der Säulentemperatur und durch Herabsetzung der NaOH-Konzentration konnte eine Basislinientrennung erzielt werden. Die Validierungsparameter waren gut und die bestimmten Aminozuckergehalte waren mit der Umkehrphasen-HPLC-Methode vergleichbar. Zur Bestimmung der Bildung und des Umsatzes von saprotrophen Pilzen auf verschiedenen Substraten wurden Lentinula edodes P., Pleurotus ostreatus K. und Pleurotus citrinopileatus S. auf Mais-Holz- und auf Weizen-Holz-Substrat für vier Wochen bei 24 °C kultiviert. Dieser Pilzwachstumsversuch zeigte, dass 80% des neu gebildeten pilzlichen Glucusamins maisbürtig und nicht holzbürtig waren. Weiterhin wurde der bevorzugte Abbau von Maissubstrat im Vergleich zu Weizensubstrat an diesem Versuch verdeutlicht. Außerdem lassen die Ergebnisse darauf schließen, dass die beobachtete zunehmende δ13C Anreicherung in dem neu gebildeten pilzlichen Glucosamin während der vier Wochen auf die Inkorporation des angereichten 13C aus dem Substrat und eher weniger auf kinetische Isotopeneffekte zurückzuführen ist.