26 resultados para Automatisierung


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Automatisierung logistischer Prozesse stellt aufgrund dynamischer Prozesseigenschaften und wirtschaftlicher Anforderungen eine große technische Herausforderung dar. Es besteht der Bedarf nach neuartigen hochflexiblen Automatisierungs- und Roboterlösungen, die in der Lage sind, variable Güter zu handhaben oder verschiedene Prozesse bzw. Funktionalitäten auszuführen. Im Rahmen dieses Beitrages wird die Steigerung der Flexibilität anhand von zwei konkreten Beispielen aus den Bereichen Stückguthandhabung und Materialflusstechnik adressiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In den letzten Jahren hat sich der Trend zu forcierter Rationalisierung, zur Automatisierung und Mechanisierung der Produktion beschleunigt. Automatisierung erfordert aber hohe Inverstitionen und lässt so den Fixkostenblock wachsen. Bei einem Rückgang der Kapazitätsauslastung rutscht das Unternehmen aber rasch in die Verlustzone. Deshalb erscheint eine Rückbesinnung auf eher flexiblere, arbeitsorientierte Organisationskonzepte sinnvoll. Vorgestellt wird ein kybernetisches Regelkreismodell mit flacher Hierarchie als "Klammer" und sich weitgehend selbstregulierenden Unternehmenseinheiten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit stellt einen strukturellen Rahmen zur Einordnung sowohl bisheriger als auch zukünftiger organisationstheoretischer und DV-technologischer Entwicklungen zur Umsetzung eines Computer Integrated Business (CIB) bereit. Dazu analysiert sie bisherige Ansätze und zukünftige Perspektiven eines CIB mittels theoretischer und empirischer Bearbeitungsverfahren. Die Notwendigkeit zur Unternehmensintegration ergibt sich aus dem betriebswirtschaftlichen Konzept der Arbeitsteilung, über die das Phänomen der Economies of Scale erschlossen wird. Die Arbeitsteilung wurde zum Gestaltungskonzept in den Fabriken der industriellen Revolution. Komplexe Arbeitsgänge wurden in spezialisierte Teilaufgaben zerlegt und nach Möglichkeit auf maschinelle bzw. technologische Potentiale übertragen. Die Zielsetzung lag zunächst in der Automatisierung des Materialflusses, während der Informationsfluss noch lange Zeit im Hintergrund stand. Mittlerweile ermöglichen leistungsfähige DV-Systeme auch die Automatisierung des Informationsflusses und damit die DV-gestützte Integration des Unternehmens, die den Kern des CIB-Konzeptes darstellt. Das CIB-Konzept wurde Ende der achtziger Jahre am Fraunhofer-Institut für Arbeitswirtschaft und Organisation als Erweiterung des Computer Integrated Manufacturing (CIM) für Industrieunternehmen von Bullinger geprägt, jedoch in seiner Zielsetzung als Modell zur Totalintegration von Unternehmen danach nicht maßgeblich weiterentwickelt. Vielmehr wurden in der Folgezeit überwiegend Teilintegrationslösungen diskutiert, wie z. B. Konzepte zur Integration der Fertigung oder zur Unterstützung der Teamarbeit. Der Aspekt der umfassenden, unternehmensinternen Integration rückte Mitte der neunziger Jahre durch die an Popularität gewinnende Internet-Technologie an den Rand der wissenschaftlichen Diskussion. Erst nach dem Zusammenbruch der ersten Internet-Euphorie und der anschließenden wirtschaftlichen Rezession gewann das Integrationsthema am Anfang dieses Jahrzehnts mit Hinblick auf dadurch mögliche Kostenvorteile wieder an Bedeutung. Die Diskussion wurde jedoch mit starkem technologischem Fokus geführt (z. B. zum Thema Enterprise Application Integration) und Aspekte der Unternehmensorganisation wurden bestenfalls grob, jedoch nicht im Detail diskutiert. Die vorliegende Arbeit bearbeitet die CIB-Thematik umfassend sowohl aus unternehmensorganisatorischer als auch DV-technologischer Sicht und bewegt sich deshalb interdisziplinär zwischen den Wissenschaftsbereichen der Betriebswirtschaft und der Informatik. Die Untersuchung wird vor dem Hintergrund einer sozio-technologischen Unternehmensorganisation geführt, in der DV-technologische Potentiale neben humanen Potentialen zur Erreichung der Unternehmensziele eingesetzt werden. DV-technologische Potentiale übernehmen darin einerseits Integrationsaufgaben und werden andererseits aber selbst zum Integrationsziel. Die Herausforderung für die Unternehmensführung besteht in der Konfiguration des CIB und im Finden eines Gleichgewichts zwischen Arbeitsteilung und Integration auf der einen sowie humanen und technologischen Potentialen auf der anderen Seite, letztendlich aber auch in der Automatisierung der Integration. Die Automatisierung der Integration stellt mit Hinblick auf die durch Umweltveränderungen bedingte Konfigurationsanpassung ein bisher konzeptionell nur ansatzweise gelöstes Problem dar. Der technologischen Integrationsarchitektur sowie den verwendeten Methoden des Prozessdesigns und der Software-Entwicklung kommt bei der Lösung dieses Problems eine hohe Bedeutung zu. Über sie bestimmt sich die Anpassungsfähigkeit und geschwindigkeit des CIB. Es kann vermutet werden, dass eine Lösung jedoch erst erreicht wird, wenn sich die Unternehmensorganisation vom Konzept der zentralen Koordination abwendet und stattdessen an dezentralen Koordinationsmechanismen unter Verwendung ultrastabiler Anpassungsprogramme orientiert, wie sie z. B. in der Biologie bei Insektenkulturen untersucht wurden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Bedeutung des Dienstgüte-Managements (SLM) im Bereich von Unternehmensanwendungen steigt mit der zunehmenden Kritikalität von IT-gestützten Prozessen für den Erfolg einzelner Unternehmen. Traditionell werden zur Implementierung eines wirksamen SLMs Monitoringprozesse in hierarchischen Managementumgebungen etabliert, die einen Administrator bei der notwendigen Rekonfiguration von Systemen unterstützen. Auf aktuelle, hochdynamische Softwarearchitekturen sind diese hierarchischen Ansätze jedoch nur sehr eingeschränkt anwendbar. Ein Beispiel dafür sind dienstorientierte Architekturen (SOA), bei denen die Geschäftsfunktionalität durch das Zusammenspiel einzelner, voneinander unabhängiger Dienste auf Basis deskriptiver Workflow-Beschreibungen modelliert wird. Dadurch ergibt sich eine hohe Laufzeitdynamik der gesamten Architektur. Für das SLM ist insbesondere die dezentrale Struktur einer SOA mit unterschiedlichen administrativen Zuständigkeiten für einzelne Teilsysteme problematisch, da regelnde Eingriffe zum einen durch die Kapselung der Implementierung einzelner Dienste und zum anderen durch das Fehlen einer zentralen Kontrollinstanz nur sehr eingeschränkt möglich sind. Die vorliegende Arbeit definiert die Architektur eines SLM-Systems für SOA-Umgebungen, in dem autonome Management-Komponenten kooperieren, um übergeordnete Dienstgüteziele zu erfüllen: Mithilfe von Selbst-Management-Technologien wird zunächst eine Automatisierung des Dienstgüte-Managements auf Ebene einzelner Dienste erreicht. Die autonomen Management-Komponenten dieser Dienste können dann mithilfe von Selbstorganisationsmechanismen übergreifende Ziele zur Optimierung von Dienstgüteverhalten und Ressourcennutzung verfolgen. Für das SLM auf Ebene von SOA Workflows müssen temporär dienstübergreifende Kooperationen zur Erfüllung von Dienstgüteanforderungen etabliert werden, die sich damit auch über mehrere administrative Domänen erstrecken können. Eine solche zeitlich begrenzte Kooperation autonomer Teilsysteme kann sinnvoll nur dezentral erfolgen, da die jeweiligen Kooperationspartner im Vorfeld nicht bekannt sind und – je nach Lebensdauer einzelner Workflows – zur Laufzeit beteiligte Komponenten ausgetauscht werden können. In der Arbeit wird ein Verfahren zur Koordination autonomer Management-Komponenten mit dem Ziel der Optimierung von Antwortzeiten auf Workflow-Ebene entwickelt: Management-Komponenten können durch Übertragung von Antwortzeitanteilen untereinander ihre individuellen Ziele straffen oder lockern, ohne dass das Gesamtantwortzeitziel dadurch verändert wird. Die Übertragung von Antwortzeitanteilen wird mithilfe eines Auktionsverfahrens realisiert. Technische Grundlage der Kooperation bildet ein Gruppenkommunikationsmechanismus. Weiterhin werden in Bezug auf die Nutzung geteilter, virtualisierter Ressourcen konkurrierende Dienste entsprechend geschäftlicher Ziele priorisiert. Im Rahmen der praktischen Umsetzung wird die Realisierung zentraler Architekturelemente und der entwickelten Verfahren zur Selbstorganisation beispielhaft für das SLM konkreter Komponenten vorgestellt. Zur Untersuchung der Management-Kooperation in größeren Szenarien wird ein hybrider Simulationsansatz verwendet. Im Rahmen der Evaluation werden Untersuchungen zur Skalierbarkeit des Ansatzes durchgeführt. Schwerpunkt ist hierbei die Betrachtung eines Systems aus kooperierenden Management-Komponenten, insbesondere im Hinblick auf den Kommunikationsaufwand. Die Evaluation zeigt, dass ein dienstübergreifendes, autonomes Performance-Management in SOA-Umgebungen möglich ist. Die Ergebnisse legen nahe, dass der entwickelte Ansatz auch in großen Umgebungen erfolgreich angewendet werden kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit befasst sich mit der Modellbildung mechatronischer Systeme mit Reibung. Geeignete dynamische Modelle sind die Grundlage für verschiedenste Aufgabenstellungen. Sind dynamische Prozessmodelle verfügbar, so können leistungsfähige modellbasierte Entwurfsmethoden angewendet werden sowie modellbasierte Anwendungen entwickelt werden. Allerdings ist der Aufwand für die Modellbildung ein beschränkender Faktor für eine weite Verbreitung modellbasierter Applikationen in der Praxis. Eine Automatisierung des Modellbildungsprozesses ist deshalb von großem Interesse. Die vorliegende Arbeit stellt für die Klasse „mechatronischer Systeme mit Reibung“ drei Modellierungsmethoden vor: semi-physikalische Modellierung, Sliding-Mode-Beobachter-basierte Modellierung und empirische Modellierung mit einem stückweise affinen (PWA) Modellansatz. Zum Ersten wird die semi-physikalische Modellierung behandelt. Gegenüber anderen Verfahren, die häufig umfangreiche Vorkenntnisse und aufwändige Experimente erfordern, haben diese neuen Verfahren den Vorteil, dass die Modellierung von Systemen mit Reibung selbst bei begrenzten Vorkenntnissen und minimalem Experimentaufwand automatisiert werden kann. Zum Zweiten wird ein neuer Ansatz zur Reibkraftrekonstruktion und Reibmodellierung mittels Sliding-Mode-Beobachter präsentiert. Durch Verwendung des vorgestellten Sliding-Mode- Beobachters, der basierend auf einem einfachen linearen Zustandsraummodell entworfen wird, lässt sich die Reibung datengetrieben aus den Ein-/Ausgangsmessdaten (im offenen Regelkreis) rekonstruieren und modellieren. Im Vergleich zu anderen Reibmodellierungsmethoden, die häufig umfangreiche Vorkenntnisse und aufwändige Messungen im geschlossenen Regelkreis erfordern, haben diese neuen Verfahren den Vorteil, dass die Modellierung von Systemen mit Reibung selbst bei begrenzten Vorkenntnissen und minimalem Experimentaufwand weitgehend automatisiert werden kann. Zum Dritten wird ein PWA-Modellierungsansatz mit einer clusterungsbasierten Identifikationsmethode für Systeme mit Reibung vorgestellt. In dieser Methode werden die Merkmale in Hinblick auf Reibeffekte ausgewählt. Und zwar wird der klassische c-Means-Algorithmus verwendet, welcher bedienfreundlich, effizient und geeignet für große und reale Datensätze ist. Im Gegensatz zu anderen Methoden sind bei dieser Methode nur wenige Entwurfsparameter einzustellen und sie ist für reale Systeme mit Reibung einfach anwendbar. Eine weitere Neuheit der vorgestellten PWA-Methode liegt darin, dass die Kombination der Clustervaliditätsmaße und Modellprädiktionsfehler zur Festlegung der Anzahl der Teilmodelle benutzt wird. Weiterhin optimiert die vorgestellte Methode die Parameter der lokalen Teilmodelle mit der OE (Output-Fehler)-Schätzmethode. Als Anwendungsbeispiele werden Drosselklappen, Drallklappen und AGR-Ventile (Abgasrückführventil) im Dieselfahrzeug betrachtet und die erzeugten Modelle werden in der industriellen HiL-Simulation eingesetzt. Aufgrund der Effizienz und Effektivität der Modellierungsmethoden sind die vorgestellten Methoden direkt in der automobilen Praxis einsetzbar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thermografie hat sich als wichtiges Hilfsmittel für die Inspektion, Prüfung und Überwachung etabliert. Bei vielen Anwendungen ist eine einzelne Messung allein oft nicht aussagekräftig, z. B. weil Strukturen nicht deutlich genug wahrgenommen werden können, das Messobjekt größer als das Blickfeld der Optik ist oder sich Kenngrößen erst aus dem zeitlichen Verlauf von Messungen ergeben. Zudem erfasst der Bediener der Kamera mit seinen Sinnen und seiner Erfahrung noch viele weitere Einflussgrößen, die bei der Entscheidungsfindung berücksichtigt werden. Eine Automatisierung von Inspektionsaufgaben in unbekannten Umgebungen ist also sehr komplex. In dieser Arbeit werden daher verschiedene Sensordatenfusionsansätze untersucht, die in der Thermografie eingesetzt werden können. Das Ziel bei der Fusion ist dabei die Verbesserung der Qualität der Messung und die Vergrößerung der verfügbaren Menge an nutzbaren Informationen über ein Messobjekt. Die betrachteten Ansätze können entweder nur mit Messungen der Thermografiekamera durchgeführt werden: zur Rauschunterdrückung durch zeitliche Mittelwertbildung, zur Vergrößerung der Schärfentiefe durch Kombination von Aufnahmen mit unterschiedlichem Fokus, zur Vergrößerung der Dynamik (also des Temperaturmessbereichs) durch Kombination von Messungen mit unterschiedlichen Messbereichen und durch Veränderung von Filtereinstellungen zur Unterdrückung von Störungen und zum Ableiten von geometrischen Informationen und Oberflächeneigenschaften. Weiterhin kann durch Veränderung der Kameraausrichtung das Blickfeld vergrößert und die geometrische Auflösung verbessert werden. Die Datenfusion von Thermogrammen kann aber auch mit Daten von anderen bildgebenden Messgeräten durchgeführt werden. Betrachtet wird die Kombination mit normalen Kameras im sichtbaren Spektralbereich, Thermografiekameras in anderen Wellenlängenbereichen und Tiefenkameras/Entfernungsmessgeräten (3D-Scanner, Laserscanner). Dadurch lassen sich für einen Messpunkt mehr Informationen gewinnen und die Messdaten können geometrisch als 3D-Modelle interpretiert und analysiert werden. Die Vielzahl an Informationen soll eine solide Dokumentation und gute (automatische) Analyse ermöglichen. Neben den Grundlagen zur Thermografie, dem punktweisen Zusammenführen von Messdaten und den oben genannten Sensordatenfusionsansätzen, wird ein Anwendungsbeispiel gezeigt. Darin soll die Machbarkeit der automatisierten Inspektionsdurchführung und die Kombination und praktische Anwendung der verschiedenen Sensordatenfusionsansätze gezeigt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Auf der Suche nach potenten pharmakologischen Wirkstoffen hat die Kombinatorische Chemie in der letzten Dekade eine große Bedeutung erlangt, um innerhalb kurzer Zeit ein breites Spektrum von Verbindungen für biologische Tests zu erzeugen. Kohlenhydrate stellen als Scaffolds interessante Kandidaten für die kombinatorische Synthese dar, da sie mehrere Derivatisierungspositionen in stereochemisch definierter Art und Weise zur Verfügung stellen. So ist die räumlich eindeutige Präsentation angebundener pharmakophorer Gruppen möglich, wie es für den Einsatz als Peptidmimetika wünschenswert ist. Zur gezielten Derivatisierung einzelner Hydroxylfunktionen ist der Einsatz eines orthogonalen Schutz-gruppenmusters erforderlich, das gegenüber den im Lauf der kombinatorischen Synthese herrschenden Reaktionsbedingungen hinreichend stabil ist. Weiterhin ist ein geeignetes Ankersystem zu finden, um eine Festphasensynthese und damit eine Automatisierung zu ermöglichen.Zur Minimierung der im Fall von Hexosen wie Galactose benötigten fünf zueinander orthogonal stabilen Schutzgruppen wurde bei der vorliegenden Arbeit von Galactal ausgegangen, bei dem nur noch drei Hydroxylfunktionen zu differenzieren sind. Das Galactose-Gerüst kann anschließend wiederhergestellt werden. Die Differenzierung wurde über den Einsatz von Hydrolasen durch regioselektive Acylierungs- und Deacylierungs-reaktionen erreicht, wobei auch immobilisierte Enzyme Verwendung fanden. Dabei konnte ein orthogonales Schutzgruppenmuster sequentiell aufgebaut werden, das auch die nötigen Stabilitäten gegenüber sonstigen, teilweise geeignet modifizierten Reaktionsbedingungen aufweist. Für die Anbindung an eine Festphase wurde ein metathetisch spaltbarer Anker entwickelt, der über die anomere Position unter Wiederherstellung des Galactose-Gerüsts angebunden wurde. Auch ein oxidativ spaltbares und ein photolabiles Ankersystem wurden erprobt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Therapeutisches Drug Monitoring (TDM) wird zur individuellen Dosiseinstellung genutzt, um die Effizienz der Medikamentenwirkung zu steigern und das Auftreten von Nebenwirkungen zu senken. Für das TDM von Antipsychotika und Antidepressiva besteht allerdings das Problem, dass es mehr als 50 Medikamente gibt. Ein TDM-Labor muss dementsprechend über 50 verschiedene Wirkstoffe und zusätzlich aktive Metaboliten messen. Mit der Flüssigchromatographie (LC oder HPLC) ist die Analyse vieler unterschiedlicher Medikamente möglich. LC mit Säulenschaltung erlaubt eine Automatisierung. Dabei wird Blutserum oder -plasma mit oder ohne vorherige Proteinfällung auf eine Vorsäule aufgetragen. Nach Auswaschen von störenden Matrixbestandteilen werden die Medikamente auf einer nachgeschalteten analytischen Säule getrennt und über Ultraviolettspektroskopie (UV) oder Massenspektrometrie (MS) detektiert. Ziel dieser Arbeit war es, LC-Methoden zu entwickeln, die die Messung möglichst vieler Antipsychotika und Antidepressiva erlaubt und die für die TDM-Routine geeignet ist. Eine mit C8-modifiziertem Kieselgel gefüllte Säule (20 µm 10x4.0 mm I.D.) erwies sich in Vorexperimenten als optimal geeignet bezüglich Extraktionsverhalten, Regenerierbarkeit und Stabilität. Mit einer ersten HPLC-UV-Methode mit Säulenschaltung konnten 20 verschiedene Psychopharmaka einschließlich ihrer Metabolite, also insgesamt 30 verschiedene Substanzen quantitativ erfasst werden. Die Analysenzeit betrug 30 Minuten. Die Vorsäule erlaubte 150 Injektionen, die analytische Säule konnte mit mehr als 300 Plasmainjektionen belastet werden. Abhängig vom Analyten, musste allerdings das Injektionsvolumen, die Flussrate oder die Detektionswellenlänge verändert werden. Die Methode war daher für eine Routineanwendung nur eingeschränkt geeignet. Mit einer zweiten HPLC-UV-Methode konnten 43 verschiedene Antipsychotika und Antidepressiva inklusive Metaboliten nachgewiesen werden. Nach Vorreinigung über C8-Material (10 µm, 10x4 mm I.D.) erfolgte die Trennung auf Hypersil ODS (5 µm Partikelgröße) in der analytischen Säule (250x4.6 mm I.D.) mit 37.5% Acetonitril im analytischen Eluenten. Die optimale Flussrate war 1.5 ml/min und die Detektionswellenlänge 254 nm. In einer Einzelprobe, konnten mit dieser Methode 7 bis 8 unterschiedliche Substanzen gemessen werden. Für die Antipsychotika Clozapin, Olanzapin, Perazin, Quetiapin und Ziprasidon wurde die Methode validiert. Der Variationskoeffizient (VK%) für die Impräzision lag zwischen 0.2 und 6.1%. Im erforderlichen Messbereich war die Methode linear (Korrelationskoeffizienten, R2 zwischen 0.9765 und 0.9816). Die absolute und analytische Wiederfindung lagen zwischen 98 und 118 %. Die für das TDM erforderlichen unteren Nachweisgrenzen wurden erreicht. Für Olanzapin betrug sie 5 ng/ml. Die Methode wurde an Patienten für das TDM getestet. Sie erwies sich für das TDM als sehr gut geeignet. Nach retrospektiver Auswertung von Patientendaten konnte erstmalig ein möglicher therapeutischer Bereich für Quetiapin (40-170 ng/ml) und Ziprasidon (40-130 ng/ml) formuliert werden. Mit einem Massenspektrometer als Detektor war die Messung von acht Neuroleptika und ihren Metaboliten möglich. 12 Substanzen konnten in einem Lauf bestimmt werden: Amisulprid, Clozapin, N-Desmethylclozapin, Clozapin-N-oxid, Haloperidol, Risperidon, 9-Hydroxyrisperidon, Olanzapin, Perazin, N-Desmethylperazin, Quetiapin und Ziprasidon. Nach Vorreinigung mit C8-Material (20 µm 10x4.0 mm I.D.) erfolgte die Trennung auf Synergi MAX-RP C12 (4 µm 150 x 4.6 mm). Die Validierung der HPLC-MS-Methode belegten einen linearen Zusammenhang zwischen Konzentration und Detektorsignal (R2= 0,9974 bis 0.9999). Die Impräzision lag zwischen 0.84 bis 9.78%. Die für das TDM erforderlichen unteren Nachweisgrenzen wurden erreicht. Es gab keine Hinweise auf das Auftreten von Ion Suppression durch Matrixbestandteile. Die absolute und analytische Wiederfindung lag zwischen 89 und 107 %. Es zeigte sich, dass die HPLC-MS-Methode ohne Modifikation erweitert werden kann und anscheinend mehr als 30 verschiedene Psychopharmaka erfasst werden können. Mit den entwickelten flüssigchromatographischen Methoden stehen neue Verfahren für das TDM von Antipsychotika und Antidepressiva zur Verfügung, die es erlauben, mit einer Methode verschiedene Psychopharmaka und ihre aktiven Metabolite zu messen. Damit kann die Behandlung psychiatrischer Patienten insbesondere mit Antipsychotika verbessert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Berechnung von experimentell überprüfbaren Vorhersagen aus dem Standardmodell mit Hilfe störungstheoretischer Methoden ist schwierig. Die Herausforderungen liegen in der Berechnung immer komplizierterer Feynman-Integrale und dem zunehmenden Umfang der Rechnungen für Streuprozesse mit vielen Teilchen. Neue mathematische Methoden müssen daher entwickelt und die zunehmende Komplexität durch eine Automatisierung der Berechnungen gezähmt werden. In Kapitel 2 wird eine kurze Einführung in diese Thematik gegeben. Die nachfolgenden Kapitel sind dann einzelnen Beiträgen zur Lösung dieser Probleme gewidmet. In Kapitel 3 stellen wir ein Projekt vor, das für die Analysen der LHC-Daten wichtig sein wird. Ziel des Projekts ist die Berechnung von Einschleifen-Korrekturen zu Prozessen mit vielen Teilchen im Endzustand. Das numerische Verfahren wird dargestellt und erklärt. Es verwendet Helizitätsspinoren und darauf aufbauend eine neue Tensorreduktionsmethode, die Probleme mit inversen Gram-Determinanten weitgehend vermeidet. Es wurde ein Computerprogramm entwickelt, das die Berechnungen automatisiert ausführen kann. Die Implementierung wird beschrieben und Details über die Optimierung und Verifizierung präsentiert. Mit analytischen Methoden beschäftigt sich das vierte Kapitel. Darin wird das xloopsnosp-Projekt vorgestellt, das verschiedene Feynman-Integrale mit beliebigen Massen und Impulskonfigurationen analytisch berechnen kann. Die wesentlichen mathematischen Methoden, die xloops zur Lösung der Integrale verwendet, werden erklärt. Zwei Ideen für neue Berechnungsverfahren werden präsentiert, die sich mit diesen Methoden realisieren lassen. Das ist zum einen die einheitliche Berechnung von Einschleifen-N-Punkt-Integralen, und zum anderen die automatisierte Reihenentwicklung von Integrallösungen in höhere Potenzen des dimensionalen Regularisierungsparameters $epsilon$. Zum letzteren Verfahren werden erste Ergebnisse vorgestellt. Die Nützlichkeit der automatisierten Reihenentwicklung aus Kapitel 4 hängt von der numerischen Auswertbarkeit der Entwicklungskoeffizienten ab. Die Koeffizienten sind im allgemeinen Multiple Polylogarithmen. In Kapitel 5 wird ein Verfahren für deren numerische Auswertung vorgestellt. Dieses neue Verfahren für Multiple Polylogarithmen wurde zusammen mit bekannten Verfahren für andere Polylogarithmus-Funktionen als Bestandteil der CC-Bibliothek ginac implementiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Einer der Hauptschwerpunkte der Arbeit lag in der Entwicklung einer spezies-spezifischen und einer spezies-unspezifischen GC-ICP-Q-MSIVA von Schwefelspezies in Petroprodukten. Es wurden hierzu Indikatoren, ausgehend von elementarem 34S-angereichertem Schwefel, im Mikromaßstab synthetisiert. Für die spezies-spezifische GC-ICP-Q-MSIVA wurde die erstmalige Synthese von 34S-markiertem Thiophen, Dibenzothiophen und 4-Methyldibenzothiophen verwirklicht. Als Indikatorsynthese für die spezies-unspezifische GC-ICP-Q-MSIVA erfolgte die erstmalige Darstellung von 34S-angereichertem Dimethyldisulid. Mit Hilfe der synthetisierten Verbindungen wurden spezies-spezifische und spezies-unspezifische massenspektrometrische Isotopenverdünnungsanalysen von Schwefelspezies in Petroprodukten durchgeführt. Vor allen GC-ICP-Q-MSIVA-Analysen erfolgte eine umfangreiche Speziesidentifizierung durch Aufstockexperimente mit kommerziell erhältlichen Standards und mit einem mit der GC gekoppelten Elektronenstoß (EI)-MS. Beide ICP-Q-MS Methoden zeichnen sich durch sehr niedrige Nachweisgrenzen (7 ng S/g) aus, welche auch eine Anwendbarkeit auf tiefentschwefelte Kraftstoffe garantieren. Mit der spezies-unspezifischen GC-ICP-Q-MSIVA ist neben einer Speziesanalyse auch eine Gesamtschwefelanalyse durch Aufsummierung aller in der Probe vorhandenen Spezies möglich. Es wurde im Rahmen dieser Arbeit auch der Einfluss möglicher Empfindlichkeitsänderungen des ICP-Q-MS durch koeluierende Kohlenwasserstoffe überprüft, wobei diese erwartungsgemäß auf das Ergebnis der spezies-spezifischen und spezies-unspezifischen GC-ICP-Q-MSIVA keinerlei Einfluss haben. Der zweite Hauptschwerpunkt der Arbeit lag auf der Ausarbeitung routinefähiger, schneller und zuverlässiger Methoden zur Gesamtelementspurenanalytik von Schwefel und Schwermetallen in Erdölen und Petroprodukten. Für die Gesamtschwefelanalyse wurde eine MSIVA nach thermaler Verdampfung mit 34S-markierten Dibenzothiophen als Indikator entwickelt. Die neu entwickelte Methode erlaubt eine sehr schnelle Bestimmung des Gesamtschwefelgehalts, wobei die eigentliche Messung des Isotopenverhältnisses innerhalb von Sekunden nach der Injektion der Probe erfolgt. Weiterhin zeichnet sich die Methode durch Robustheit und eine niedrige Nachweisgrenze (40 ng S/g) aus. Für die Analyse von Schwermetallen wurden erstmals Möglichkeiten einer direkten MSIVA von Erdölproben ohne zeitraubenden, kontaminationsträchtigen Aufschluss bzw. die schwierige Erzeugung einer Mikroemulsion zwischen hydrophober Probe und wässrigem Indikator entwickelt. Um eine homogene Verteilung des Indikators in der hydrophoben Probe zu ermöglichen, musste ausgehend von den zur Verfügung stehenden wässrigen Indikatorlösungen, eine Überführung des Indikators in ein organisches Lösungsmittel erfolgen. Hierzu wurde der jeweilige Metallindikator unter Komplexierung aus wässrigen Metallindikatorlösungen extrahiert. Für die Analyse der mit diesen Indikatorlösungen in organischer Phase versetzten Proben wurden zwei alternative Methoden ausgearbeitet. Bei der mit der Laserablation (LA) kombinierten ICP-SF-MSIVA wird die isotopenverdünnte Probe aus einer eigens für diesen Zweck entwickelten Probenhalterung ablatiert und so dem ICP-SF-MS zugeführt wird. Bei zeitlich sich verändernden Intensitäten der gemessenen Isotope werden aber reproduzierbare und konstante Isotopenverhältnisse erhalten. Im Falle einer homogenen Verteilung der Metallspuren wurde eine hervorragende Übereinstimmung mit Vergleichsmethoden und einem Referenzmaterial festgestellt. Im Falle einer heterogenen partikulären Verteilung der Metallspuren, wie sie z.B. bei Eisenspuren in den Erdölen vorlag, ist die Anwendbarkeit der LA-ICP-SF-MSIVA aufgrund des kleinen Probenvolumens (20 µL) jedoch begrenzt. Als Alternative zur LA-ICP-SF-MSIVA wurde ein System unter Verwendung der Fließinjektion für die Zuführung der isotopenverdünnten Probe zum ICP-SF-MS ausgearbeitet. Die isotopenverdünnte Probe wird hierbei in einen Eluentenstrom von Toluol injiziert und mit Hilfe einer Total-Consumption-Zerstäuber/Sprühkammer-Einheit vollständig bei einer Flussrate von 10 µL/min in das Plasma eingebracht. Neben einer nochmaligen Verkürzung der Analysenzeit und Vereinfachung der Probenvorbereitung bietet diese Methode zusätzlich stark verbesserte Nachweisgrenzen (z.B. Ni 0,9 ng/g). Leider sind mit diesem Verfahren bis jetzt nur Ni und Mo zuverlässig bestimmbar. Das in dieser Arbeit ausgearbeitete Methodenpaket erlaubt erstmals eine breite Einführung der ICP-MSIVA als zuverlässige Methode in die Routineanalytik der Petroindustrie. Durch die bewiesene Zuverlässigkeit, den geringen Zeitaufwand und die Robustheit der Methoden steht ihrem routinemäßigen Einsatz, außer einer weitergehenderen Automatisierung einzelner Verfahrensteile, prinzipiell nichts entgegen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work focused on the synthesis of novel monomers for the design of a series of oligo(p-benzamide)s following two approaches: iterative solution synthesis and automated solid phase protocols. These approaches present a useful method to the sequence-controlled synthesis of side-chain and main-chain functionalized oligomers for the preparation of an immense variety of nanoscaffolds. The challenge in the synthesis of such materials was their modification, while maintaining the characteristic properties (physical-chemical properties, shape persistence and anisotropy). The strategy for the preparation of predictable superstructures was devote to the selective control of noncovalent interactions, monodispersity and monomer sequence. In addition to this, the structure-properties correlation of the prepared rod-like soluble materials was pointed. The first approach involved the solution-based aramide synthesis via introduction of 2,4-dimethoxybenzyl N-amide protective group via an iterative synthetic strategy The second approach focused on the implementation of the salicylic acid scaffold to introduce substituents on the aromatic backbone for the stabilization of the OPBA-rotamers. The prepared oligomers were analyzed regarding their solubility and aggregation properties by systematically changing the degree of rotational freedom of the amide bonds, side chain polarity, monomer sequence and degree of oligomerization. The syntheses were performed on a modified commercial peptide synthesizer using a combination of fluorenylmethoxycarbonyl (Fmoc) and aramide chemistry. The automated synthesis allowed the preparation of aramides with potential applications as nanoscaffolds in supramolecular chemistry, e.g. comb-like-

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Dissertation entstand im Rahmen eines multizentrischen EU-geförderten Projektes, das die Anwendungsmöglichkeiten von Einzelnukleotid-Polymorphismen (SNPs) zur Individualisierung von Personen im Kontext der Zuordnung von biologischen Tatortspuren oder auch bei der Identifizierung unbekannter Toter behandelt. Die übergeordnete Zielsetzung des Projektes bestand darin, hochauflösende Genotypisierungsmethoden zu etablieren und zu validieren, die mit hoher Genauigkeit aber geringen Aufwand SNPs im Multiplexformat simultan analysieren können. Zunächst wurden 29 Y-chromosomale und 52 autosomale SNPs unter der Anforderung ausgewählt, dass sie als Multiplex eine möglichst hohe Individualisierungschance aufweisen. Anschließend folgten die Validierungen beider Multiplex-Systeme und der SNaPshot™-Minisequenzierungsmethode in systematischen Studien unter Beteiligung aller Arbeitsgruppen des Projektes. Die validierte Referenzmethode auf der Basis einer Minisequenzierung diente einerseits für die kontrollierte Zusammenarbeit unterschiedlicher Laboratorien und andererseits als Grundlage für die Entwicklung eines Assays zur SNP-Genotypisierung mittels der elektronischen Microarray-Technologie in dieser Arbeit. Der eigenständige Hauptteil dieser Dissertation beschreibt unter Verwendung der zuvor validierten autosomalen SNPs die Neuentwicklung und Validierung eines Hybridisierungsassays für die elektronische Microarray-Plattform der Firma Nanogen Dazu wurden im Vorfeld drei verschiedene Assays etabliert, die sich im Funktionsprinzip auf dem Microarray unterscheiden. Davon wurde leistungsorientiert das Capture down-Assay zur Weiterentwicklung ausgewählt. Nach zahlreichen Optimierungsmaßnahmen hinsichtlich PCR-Produktbehandlung, gerätespezifischer Abläufe und analysespezifischer Oligonukleotiddesigns stand das Capture down-Assay zur simultanen Typisierung von drei Individuen mit je 32 SNPs auf einem Microarray bereit. Anschließend wurde dieses Verfahren anhand von 40 DNA-Proben mit bekannten Genotypen für die 32 SNPs validiert und durch parallele SNaPshot™-Typisierung die Genauigkeit bestimmt. Das Ergebnis beweist nicht nur die Eignung des validierten Analyseassays und der elektronischen Microarray-Technologie für bestimmte Fragestellungen, sondern zeigt auch deren Vorteile in Bezug auf Schnelligkeit, Flexibilität und Effizienz. Die Automatisierung, welche die räumliche Anordnung der zu untersuchenden Fragmente unmittelbar vor der Analyse ermöglicht, reduziert unnötige Arbeitsschritte und damit die Fehlerhäufigkeit und Kontaminationsgefahr bei verbesserter Zeiteffizienz. Mit einer maximal erreichten Genauigkeit von 94% kann die Zuverlässigkeit der in der forensischen Genetik aktuell eingesetzten STR-Systeme jedoch noch nicht erreicht werden. Die Rolle des neuen Verfahrens wird damit nicht in einer Ablösung der etablierten Methoden, sondern in einer Ergänzung zur Lösung spezieller Probleme wie z.B. der Untersuchung stark degradierter DNA-Spuren zu finden sein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Erzeugung von Elektronenstrahlen hoher Intensität (I$geq$2,mA) und hoher Spinpolarisation (P$geq$85%) ist für die Experimente an den geplanten glqq Linac Ringgrqq Electron--Ion--Collidern (z.B. eRHIC am Brookhaven National Laboratory) unabdingbar, stellt aber zugleich eine enorme Herausforderung dar. Die Photoemission aus ce{GaAs}--basierten Halbleitern wie z.B. den in dieser Arbeit untersuchten GaAlAs/InGaAlAs Quanten--Übergittern zeichnet sich zwar durch eine hohe Brillanz aus, die geringe Quantenausbeute von nur ca. 1% im Bereich maximaler Polarisation erfordert jedoch hohe Laserintensitäten von mehreren Watt pro $text{cm}^{2}$, was erhebliche thermische Probleme verursacht. rnrnIn dieser Arbeit konnte zunächst gezeigt werden, dass die Lebensdauer einer Photokathode mit steigender Laserleistung bzw. Temperatur exponentiell abnimmt. Durch Einbringen eines DBR--Spiegels zwischen die aktive Zone der Photokathode und ihr Substrat wird ein Großteil des ungenutzten Laserlichts wieder aus dem Kristall herausreflektiert und trägt somit nicht zur Erwärmung bei. Gleichzeitig bildet der Spiegel zusammen mit der Grenzfläche zum Vakuum eine Resonator--Struktur aus, die die aktive Zone umschließt. Dadurch kommt es für bestimmte Wellenlängen zu konstruktiver Interferenz und die Absorption in der aktiven Zone erhöht sich. Beide Effekte konnten durch vergleichenden Messungen an Kathoden mit und ohne DBR--Spiegel nachgewiesen werden. Dabei ergibt sich eine gute Übereinstimmung mit der Vorhersage eines Modells, das auf der dielektrischen Funktion der einzelnen Halbleiterstrukturen beruht. Von besonderer praktischer Bedeutung ist, dass die DBR--Kathode für einen gegebenen Photoemissions-strom eine um einen Faktor $geq$,3{,}5 kleinere Erwärmung aufweist. Dies gilt über den gesamten Wellenlängenbereich in dem die Kathode eine hohe Strahlpolarisation (P$>$80%) produzieren kann, auch im Bereich der Resonanz.rnAus zeitaufgelösten Messungen der Ladungsverteilung und Polarisation lassen sich sowohl Rückschlüsse über die Transportmechanismen im Inneren einer Kathode als auch über die Beschaffenheit ihrer Oberfläche ziehen. Im Rahmen dieser Dissertation konnte die Messgeschwindigkeit der verwendeten Apparatur durch den Einbau eines schnelleren Detektors und durch eine Automatisierung der Messprozedur entscheidend vergrößert und die resultierende Zeitauflösung mit jetzt 1{,}2 Pikosekunden annähernd verdoppelt werden.rnrnDie mit diesen Verbesserungen erhaltenen Ergebnisse zeigen, dass sich der Transport der Elektronen in Superlattice--Strukturen stark vom Transport in den bisher untersuchten Bulk--Kristallen unterscheidet. Der Charakter der Bewegung folgt nicht dem Diffusionsmodell, sondern gibt Hinweise auf lokalisierte Zustände, die nahe der Leitungsbandunterkante liegen und Elektronen für kurze Zeit einfangen können. Dadurch hat die Impulsantwort einer Kathode neben einem schnellen Abfall des Signals auch eine größere Zeitkonstante, die selbst nach 30,ps noch ein Signal in der Größenordnung von ca. 5textperthousand der Maximalintensität erzeugt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der Herstellung fester Darreichungsformen umfasst die Granulierung einen komplexen Teilprozess mit hoher Relevanz für die Qualität des pharmazeutischen Produktes. Die Wirbelschichtgranulierung ist ein spezielles Granulierverfahren, welches die Teilprozesse Mischen, Agglomerieren und Trocknen in einem Gerät vereint. Durch die Kombination mehrerer Prozessstufen unterliegt gerade dieses Verfahren besonderen Anforderungen an ein umfassendes Prozessverständnis. Durch die konsequente Verfolgung des PAT- Ansatzes, welcher im Jahre 2004 durch die amerikanische Zulassungsbehörde (FDA) als Guideline veröffentlicht wurde, wurde der Grundstein für eine kontinuierliche Prozessverbesserung durch erhöhtes Prozessverständnis, für Qualitätserhöhung und Kostenreduktion gegeben. Die vorliegende Arbeit befasste sich mit der Optimierung der Wirbelschicht-Granulationsprozesse von zwei prozesssensiblen Arzneistoffformulierungen, unter Verwendung von PAT. rnFür die Enalapril- Formulierung, einer niedrig dosierten und hochaktiven Arzneistoffrezeptur, wurde herausgefunden, dass durch eine feinere Zerstäubung der Granulierflüssigkeit deutlich größere Granulatkörnchen erhalten werden. Eine Erhöhung der MassRatio verringert die Tröpfchengröße, dies führt zu größeren Granulaten. Sollen Enalapril- Granulate mit einem gewünschten D50-Kornverteilung zwischen 100 und 140 um hergestellt werden, dann muss die MassRatio auf hohem Niveau eingestellt werden. Sollen Enalapril- Granulate mit einem D50- Wert zwischen 80 und 120µm erhalten werden, so muss die MassRatio auf niedrigem Niveau eingestellt sein. Anhand der durchgeführten Untersuchungen konnte gezeigt werden, dass die MassRatio ein wichtiger Parameter ist und zur Steuerung der Partikelgröße der Enalapril- Granulate eingesetzt werden kann; unter der Voraussetzung dass alle anderen Prozessparameter konstant gehalten werden.rnDie Betrachtung der Schnittmengenplots gibt die Möglichkeit geeignete Einstellungen der Prozessparameter bzw. Einflussgrößen zu bestimmen, welche dann zu den gewünschten Granulat- und Tabletteneigenschaften führen. Anhand der Lage und der Größe der Schnittmenge können die Grenzen der Prozessparameter zur Herstellung der Enalapril- Granulate bestimmt werden. Werden die Grenzen bzw. der „Design Space“ der Prozessparameter eingehalten, kann eine hochwertige Produktqualität garantiert werden. rnUm qualitativ hochwertige Enalapril Tabletten mit der gewählten Formulierung herzustellen, sollte die Enalapril- Granulation mit folgenden Prozessparametern durchgeführt werden: niedrige Sprührate, hoher MassRatio, einer Zulufttemperatur von mindestens > 50 °C und einer effektiven Zuluftmenge < 180 Nm³/h. Wird hingegen eine Sprührate von 45 g/min und eine mittlere MassRatio von 4.54 eingestellt, so muss die effektive Zuluftmenge mindestens 200 Nm³/h und die Zulufttemperatur mindestens 60 °C betragen, um eine vorhersagbar hohe Tablettenqualität zu erhalten. Qualität wird in das Arzneimittel bereits während der Herstellung implementiert, indem die Prozessparameter bei der Enalapril- Granulierung innerhalb des „Design Space“ gehalten werden.rnFür die Metformin- Formulierung, einer hoch dosierten aber wenig aktiven Arzneistoffrezeptur wurde herausgefunden, dass sich der Wachstumsmechanismus des Feinanteils der Metformin- Granulate von dem Wachstumsmechanismus der D50- und D90- Kornverteilung unterscheidet. Der Wachstumsmechanismus der Granulate ist abhängig von der Partikelbenetzung durch die versprühten Flüssigkeitströpfchen und vom Größenverhältnis von Partikel zu Sprühtröpfchen. Der Einfluss der MassRatio ist für die D10- Kornverteilung der Granulate vernachlässigbar klein. rnMit Hilfe der Störgrößen- Untersuchungen konnte eine Regeleffizienz der Prozessparameter für eine niedrig dosierte (Enalapril)- und eine hoch dosierte (Metformin) Arzneistoffformulierung erarbeitet werden, wodurch eine weitgehende Automatisierung zur Verringerung von Fehlerquellen durch Nachregelung der Störgrößen ermöglicht wird. Es ergibt sich für die gesamte Prozesskette ein in sich geschlossener PAT- Ansatz. Die Prozessparameter Sprührate und Zuluftmenge erwiesen sich als am besten geeignet. Die Nachregelung mit dem Parameter Zulufttemperatur erwies sich als träge. rnFerner wurden in der Arbeit Herstellverfahren für Granulate und Tabletten für zwei prozesssensible Wirkstoffe entwickelt. Die Robustheit der Herstellverfahren gegenüber Störgrößen konnte demonstriert werden, wodurch die Voraussetzungen für eine Echtzeitfreigabe gemäß dem PAT- Gedanken geschaffen sind. Die Kontrolle der Qualität des Produkts findet nicht am Ende der Produktions- Prozesskette statt, sondern die Kontrolle wird bereits während des Prozesses durchgeführt und basiert auf einem besseren Verständnis des Produktes und des Prozesses. Außerdem wurde durch die konsequente Verfolgung des PAT- Ansatzes die Möglichkeit zur kontinuierlichen Prozessverbesserung, zur Qualitätserhöhung und Kostenreduktion gegeben und damit das ganzheitliche Ziel des PAT- Gedankens erreicht und verwirklicht.rn