994 resultados para Optimierung von Prozessparametern,


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In der Herstellung fester Darreichungsformen umfasst die Granulierung einen komplexen Teilprozess mit hoher Relevanz für die Qualität des pharmazeutischen Produktes. Die Wirbelschichtgranulierung ist ein spezielles Granulierverfahren, welches die Teilprozesse Mischen, Agglomerieren und Trocknen in einem Gerät vereint. Durch die Kombination mehrerer Prozessstufen unterliegt gerade dieses Verfahren besonderen Anforderungen an ein umfassendes Prozessverständnis. Durch die konsequente Verfolgung des PAT- Ansatzes, welcher im Jahre 2004 durch die amerikanische Zulassungsbehörde (FDA) als Guideline veröffentlicht wurde, wurde der Grundstein für eine kontinuierliche Prozessverbesserung durch erhöhtes Prozessverständnis, für Qualitätserhöhung und Kostenreduktion gegeben. Die vorliegende Arbeit befasste sich mit der Optimierung der Wirbelschicht-Granulationsprozesse von zwei prozesssensiblen Arzneistoffformulierungen, unter Verwendung von PAT. rnFür die Enalapril- Formulierung, einer niedrig dosierten und hochaktiven Arzneistoffrezeptur, wurde herausgefunden, dass durch eine feinere Zerstäubung der Granulierflüssigkeit deutlich größere Granulatkörnchen erhalten werden. Eine Erhöhung der MassRatio verringert die Tröpfchengröße, dies führt zu größeren Granulaten. Sollen Enalapril- Granulate mit einem gewünschten D50-Kornverteilung zwischen 100 und 140 um hergestellt werden, dann muss die MassRatio auf hohem Niveau eingestellt werden. Sollen Enalapril- Granulate mit einem D50- Wert zwischen 80 und 120µm erhalten werden, so muss die MassRatio auf niedrigem Niveau eingestellt sein. Anhand der durchgeführten Untersuchungen konnte gezeigt werden, dass die MassRatio ein wichtiger Parameter ist und zur Steuerung der Partikelgröße der Enalapril- Granulate eingesetzt werden kann; unter der Voraussetzung dass alle anderen Prozessparameter konstant gehalten werden.rnDie Betrachtung der Schnittmengenplots gibt die Möglichkeit geeignete Einstellungen der Prozessparameter bzw. Einflussgrößen zu bestimmen, welche dann zu den gewünschten Granulat- und Tabletteneigenschaften führen. Anhand der Lage und der Größe der Schnittmenge können die Grenzen der Prozessparameter zur Herstellung der Enalapril- Granulate bestimmt werden. Werden die Grenzen bzw. der „Design Space“ der Prozessparameter eingehalten, kann eine hochwertige Produktqualität garantiert werden. rnUm qualitativ hochwertige Enalapril Tabletten mit der gewählten Formulierung herzustellen, sollte die Enalapril- Granulation mit folgenden Prozessparametern durchgeführt werden: niedrige Sprührate, hoher MassRatio, einer Zulufttemperatur von mindestens > 50 °C und einer effektiven Zuluftmenge < 180 Nm³/h. Wird hingegen eine Sprührate von 45 g/min und eine mittlere MassRatio von 4.54 eingestellt, so muss die effektive Zuluftmenge mindestens 200 Nm³/h und die Zulufttemperatur mindestens 60 °C betragen, um eine vorhersagbar hohe Tablettenqualität zu erhalten. Qualität wird in das Arzneimittel bereits während der Herstellung implementiert, indem die Prozessparameter bei der Enalapril- Granulierung innerhalb des „Design Space“ gehalten werden.rnFür die Metformin- Formulierung, einer hoch dosierten aber wenig aktiven Arzneistoffrezeptur wurde herausgefunden, dass sich der Wachstumsmechanismus des Feinanteils der Metformin- Granulate von dem Wachstumsmechanismus der D50- und D90- Kornverteilung unterscheidet. Der Wachstumsmechanismus der Granulate ist abhängig von der Partikelbenetzung durch die versprühten Flüssigkeitströpfchen und vom Größenverhältnis von Partikel zu Sprühtröpfchen. Der Einfluss der MassRatio ist für die D10- Kornverteilung der Granulate vernachlässigbar klein. rnMit Hilfe der Störgrößen- Untersuchungen konnte eine Regeleffizienz der Prozessparameter für eine niedrig dosierte (Enalapril)- und eine hoch dosierte (Metformin) Arzneistoffformulierung erarbeitet werden, wodurch eine weitgehende Automatisierung zur Verringerung von Fehlerquellen durch Nachregelung der Störgrößen ermöglicht wird. Es ergibt sich für die gesamte Prozesskette ein in sich geschlossener PAT- Ansatz. Die Prozessparameter Sprührate und Zuluftmenge erwiesen sich als am besten geeignet. Die Nachregelung mit dem Parameter Zulufttemperatur erwies sich als träge. rnFerner wurden in der Arbeit Herstellverfahren für Granulate und Tabletten für zwei prozesssensible Wirkstoffe entwickelt. Die Robustheit der Herstellverfahren gegenüber Störgrößen konnte demonstriert werden, wodurch die Voraussetzungen für eine Echtzeitfreigabe gemäß dem PAT- Gedanken geschaffen sind. Die Kontrolle der Qualität des Produkts findet nicht am Ende der Produktions- Prozesskette statt, sondern die Kontrolle wird bereits während des Prozesses durchgeführt und basiert auf einem besseren Verständnis des Produktes und des Prozesses. Außerdem wurde durch die konsequente Verfolgung des PAT- Ansatzes die Möglichkeit zur kontinuierlichen Prozessverbesserung, zur Qualitätserhöhung und Kostenreduktion gegeben und damit das ganzheitliche Ziel des PAT- Gedankens erreicht und verwirklicht.rn

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Erforschung der Biologie maligner Tumoren beschränkte sich über lange Zeit auf die Suche nach genetischen Veränderungen. Dies hat sich in den letzten Jahren grundlegend geändert, da sich aus dem Wissen um die molekularen Veränderungen in den frühesten histomorphologisch erkennbaren Vorläuferläsionen neue Möglichkeiten zur Früherkennung und Prävention maligner Tumoren ergeben. Darüber hinaus gewinnen Aspekte zur Aufklärung des Krebs- und Progressionsrisikos zunehmend an Bedeutung. Voraussetzung für die Beantwortung dieser medizinischen und tumorbiologischen Fragestellungen war die Etablierung zielgerichteter molekularbiologischer und zytogenetischer Untersuchungsverfahren, die sich auch an Gewebeproben mit geringer Zellzahl, vor allem aus formalinfixierten, in Paraffin eingebetteten Geweben durchführen lassen. Dabei sollten, wenn möglich zeitgleich, multiple Gene in ein und derselben Zellprobe analysierbar sein. Da die individuelle Mutationsbeladung (mutation load) einzelner morphologisch gesunder Gewebe, als Ausdruck eines möglicherweise erhöhten Krebsrisikos, zumeist nur an Einzelzellen bestimmt werden kann, waren hier zur Untersuchung einzelner Gene weitergehend optimierte molekulargenetische Untersuchungstechniken erforderlich. In vorliegender sollten neue Biomarker mittels der DNA-Mikroarray-Technik identifiziert werden, die für eine Aussage über den Krankheitsverlauf verwendet werden können. Dabei wurden Expressionsprofile von normaler Kolonschleimhaut mit Schleimhaut von Kolonkarzinom Patienten verglichen. An diesem Beispiel sollte ferner geprüft werden, in wie weit sich formalin-fixiertes Gewebe (FFPE-Gewebe) derselben Patienten zur Expressionsdiagnostik eignen, um eventuelle retrospektive Studien durchführen zu können. Des Weiteren wurden, ebenfalls mittels DNA-Mikroarray-Technik, Gen-Expressionsprofile am Beispiel des Prostatakarzinoms erstellt, um einen Hinweis auf die Entstehung der Hormon-Therapieresistenz im Verlauf dieser Erkrankung zu erhalten. Es sollte geklärt werden, ob es z.B. Hinweise auf irreguläre Stoffwechselprozesse gibt, chromosomale Translokationsprozesse bzw. differenziell regulierte Gencluster, die einen Hinweis auf die Therapieresistenz liefern könnten. Ferner sollte methodisch analysiert werden, ob die Art der Gewebegewinnung, d.h. transurethrale Resektion im Vergleich zur chirurgischen Totalresektion der Prostata, vergleichbare Gen-Expressionsdaten liefert.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Entwicklung in der Windkrafttechnik ist aufgrund der Wirtschaftlichkeitserwartungen besonders auf große Anlagen im MW-Bereich ausgerichtet. Im unteren Leistungsbereich (5 bis 100kW) bilden Entwicklungen und Anlageninstallationen weitgehend Ausnahmen und erfüllen meist nicht die für Hybridanlagen notwendige Systemfähigkeit, was eine Einbindung in dezentrale Energiesysteme erschwert. Im Rahmen dieser Arbeit werden die elektrischen Komponenten für eine kostengünstige und systemfähige Windkraftanlage entwickelt, mit der die Nutzung erneuerbarer Energiequellen durch Einbindung der Windenergie in die modulare Energie-Systemtechnik erweitert und wesentlich verbessert wird. Dabei stellt der Generator als mechanisch-elektrischer Energiewandler die Schlüsselkomponente dar. Um den Teil- und Volllastbetrieb effektiv zu gestalten, wird bei der Auslegung und Optimierung des Generators nach dem Kennlinienverfahren möglichst großen Werten von Wirkungsgrad und Leistungsfaktor in einem weiten Spektrum der abgegebenen Leistung eine hohe Wichtigkeit beigemessen. Um hohe Energieerträge sowohl im Teil- als auch im Volllastbetrieb zu erzielen, wird der Generator polumschaltbar ausgeführt und im Betrieb entsprechend der aktuell eingespeisten Leistung zwischen zwei Drehzahlen geschaltet. Die durchgeführten Untersuchungen an mehrfach optimierten und speziell angefertigten Generatortypen sollen als Grundlage für die Gesamtkonzeption der Windenergieanlage dienen. Um die energetischen Auswirkungen und betriebstechnische Möglichkeiten der Auslegung zu ermitteln, werden im gesamten auftretenden Leistungsspektrum – Leerlauf bis 130% der Nennleistung – die mechanischen und elektrischen Verhaltensweisen in Abhängigkeit von der elektrisch abgegebenen Leistung bei unterschiedlichen Sättigungsgraden des Generators untersucht. Im Hinblick auf die Auslegung der mechanischen und elektrischen Komponenten wie z.B. des Getriebes und des Schleifringkörpers werden dynamische Zustandsänderungen wie verschiedene Kurzschlussvarianten und die Zuschaltung auf das Netz untersucht und dargestellt. Um den Anlagenbetrieb für nahezu alle Netze weltweit zu gewährleisten, wird eine polumschaltbare Einphasenmaschine für 240V / 60Hz ausgelegt. Der Generator kann mit Betriebskondensatorstufen im gesamten Leistungsbereich von Leerlauf bis Nennleistung ohne Laufgeräusche und Rüttelkräfte betrieben werden. Dabei soll der Einphasenasynchrongenerator nach dem gleichem Optimierungsverfahren wie beim Dreiphasigen Asynchrongenerator sowohl für die 4-polige als auch für die 6-polige Drehzahlstufe hohe Teillastwirkungsgrade erreichen. Um möglichst symmetrische Betriebsverhältnisse hinsichtlich Drehmomentschwankungen erreichen zu können, wird die Auslegung der Betriebskapazität an den Drehmomentschwankungen ausgerichtet und eine Optimierung der Betriebskapazität anhand minimaler Amplituden der Pendelmomente erreicht. Damit wird gezeigt, dass auch kleine Windkraftanlagen einen wertvollen Beitrag zur netzverträglichen und nachhaltigen Elektrizitätsversorgung leisten können.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Vorgestellt wird eine weltweit neue Methode, Schnittstellen zwischen Menschen und Maschinen für individuelle Bediener anzupassen. Durch Anwenden von Abstraktionen evolutionärer Mechanismen wie Selektion, Rekombination und Mutation in der EOGUI-Methodik (Evolutionary Optimization of Graphical User Interfaces) kann eine rechnergestützte Umsetzung der Methode für Graphische Bedienoberflächen, insbesondere für industrielle Prozesse, bereitgestellt werden. In die Evolutionäre Optimierung fließen sowohl die objektiven, d.h. messbaren Größen wie Auswahlhäufigkeiten und -zeiten, mit ein, als auch das anhand von Online-Fragebögen erfasste subjektive Empfinden der Bediener. Auf diese Weise wird die Visualisierung von Systemen den Bedürfnissen und Präferenzen einzelner Bedienern angepasst. Im Rahmen dieser Arbeit kann der Bediener aus vier Bedienoberflächen unterschiedlicher Abstraktionsgrade für den Beispielprozess MIPS ( MIschungsProzess-Simulation) die Objekte auswählen, die ihn bei der Prozessführung am besten unterstützen. Über den EOGUI-Algorithmus werden diese Objekte ausgewählt, ggf. verändert und in einer neuen, dem Bediener angepassten graphischen Bedienoberfläche zusammengefasst. Unter Verwendung des MIPS-Prozesses wurden Experimente mit der EOGUI-Methodik durchgeführt, um die Anwendbarkeit, Akzeptanz und Wirksamkeit der Methode für die Führung industrieller Prozesse zu überprüfen. Anhand der Untersuchungen kann zu großen Teilen gezeigt werden, dass die entwickelte Methodik zur Evolutionären Optimierung von Mensch-Maschine-Schnittstellen industrielle Prozessvisualisierungen tatsächlich an den einzelnen Bediener anpaßt und die Prozessführung verbessert.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit wird eine gemeinsame Optimierung der Hybrid-Betriebsstrategie und des Verhaltens des Verbrennungsmotors vorgestellt. Die Übernahme von den im Steuergerät verwendeten Funktionsmodulen in die Simulationsumgebung für Fahrzeuglängsdynamik stellt eine effiziente Applikationsmöglichkeit der Originalparametrierung dar. Gleichzeitig ist es notwendig, das Verhalten des Verbrennungsmotors derart nachzubilden, dass das stationäre und das dynamische Verhalten, inklusive aller relevanten Einflussmöglichkeiten, wiedergegeben werden kann. Das entwickelte Werkzeug zur Übertragung der in Ascet definierten Steurgerätefunktionen in die Simulink-Simulationsumgebung ermöglicht nicht nur die Simulation der relevanten Funktionsmodule, sondern es erfüllt auch weitere wichtige Eigenschaften. Eine erhöhte Flexibilität bezüglich der Daten- und Funktionsstandänderungen, sowie die Parametrierbarkeit der Funktionsmodule sind Verbesserungen die an dieser Stelle zu nennen sind. Bei der Modellierung des stationären Systemverhaltens des Verbrennungsmotors erfolgt der Einsatz von künstlichen neuronalen Netzen. Die Auswahl der optimalen Neuronenanzahl erfolgt durch die Betrachtung des SSE für die Trainings- und die Verifikationsdaten. Falls notwendig, wird zur Sicherstellung der angestrebten Modellqualität, das Interpolationsverhalten durch Hinzunahme von Gauß-Prozess-Modellen verbessert. Mit den Gauß-Prozess-Modellen werden hierbei zusätzliche Stützpunkte erzeugt und mit einer verminderten Priorität in die Modellierung eingebunden. Für die Modellierung des dynamischen Systemverhaltens werden lineare Übertragungsfunktionen verwendet. Bei der Minimierung der Abweichung zwischen dem Modellausgang und den Messergebnissen wird zusätzlich zum SSE das 2σ-Intervall der relativen Fehlerverteilung betrachtet. Die Implementierung der Steuergerätefunktionsmodule und der erstellten Steller-Sensor-Streckenmodelle in der Simulationsumgebung für Fahrzeuglängsdynamik führt zum Anstieg der Simulationszeit und einer Vergrößerung des Parameterraums. Das aus Regelungstechnik bekannte Verfahren der Gütevektoroptimierung trägt entscheidend zu einer systematischen Betrachtung und Optimierung der Zielgrößen bei. Das Ergebnis des Verfahrens ist durch das Optimum der Paretofront der einzelnen Entwurfsspezifikationen gekennzeichnet. Die steigenden Simulationszeiten benachteiligen Minimumsuchverfahren, die eine Vielzahl an Iterationen benötigen. Um die Verwendung einer Zufallsvariablen, die maßgeblich zur Steigerung der Iterationanzahl beiträgt, zu vermeiden und gleichzeitig eine Globalisierung der Suche im Parameterraum zu ermöglichen wird die entwickelte Methode DelaunaySearch eingesetzt. Im Gegensatz zu den bekannten Algorithmen, wie die Partikelschwarmoptimierung oder die evolutionären Algorithmen, setzt die neu entwickelte Methode bei der Suche nach dem Minimum einer Kostenfunktion auf eine systematische Analyse der durchgeführten Simulationsergebnisse. Mit Hilfe der bei der Analyse gewonnenen Informationen werden Bereiche mit den bestmöglichen Voraussetzungen für ein Minimum identifiziert. Somit verzichtet das iterative Verfahren bei der Bestimmung des nächsten Iterationsschrittes auf die Verwendung einer Zufallsvariable. Als Ergebnis der Berechnungen steht ein gut gewählter Startwert für eine lokale Optimierung zur Verfügung. Aufbauend auf der Simulation der Fahrzeuglängsdynamik, der Steuergerätefunktionen und der Steller-Sensor-Streckenmodelle in einer Simulationsumgebung wird die Hybrid-Betriebsstrategie gemeinsam mit der Steuerung des Verbrennungsmotors optimiert. Mit der Entwicklung und Implementierung einer neuen Funktion wird weiterhin die Verbindung zwischen der Betriebsstrategie und der Motorsteuerung erweitert. Die vorgestellten Werkzeuge ermöglichten hierbei nicht nur einen Test der neuen Funktionalitäten, sondern auch eine Abschätzung der Verbesserungspotentiale beim Verbrauch und Abgasemissionen. Insgesamt konnte eine effiziente Testumgebung für eine gemeinsame Optimierung der Betriebsstrategie und des Verbrennungsmotorverhaltens eines Hybridfahrzeugs realisiert werden.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In der vorliegenden Arbeit werden Entwicklungen zur Optimierung von Selektivität und Effizienz von Resonanzionisations-Laserionenquellen vorgestellt. Mit der Perspektive auf die Anwendungen radioaktiver Ionenstrahlen in der Grundlagenforschung sowie auf Fragestellungen in der Ultraspurenanalytik wurden verschiedene Methoden entwickelt und erprobt: Auf Seiten der Grundlagenforschung wurden zwei komplementäre Ansätze, die Konstruktion von Ionenquellen aus Materialien niedriger Austrittsarbeit und die Weiterentwicklung der Laserionenquelle und -falle LIST umgesetzt. Hierdurch konnte die Selektivität der Resonanzionisation in on-line Tests um einige Gröÿenordnungen verbessert werden. Für die Ultraspurenanalytik wurden speziell angepasste, hocheffiziente Ionenquellen entwickelt. Mit diesen Ionenquellen wurde für die Resonanzionisation von Gallium eine Ionisationseffizienz von 67 % demonstriert, für den Ultraspurennachweis des im Zusammenhang der nuklearen Endlagerung wichtigen Radioisotops 99g-Technetium wurde auf dieser Grundlage eine Nachweisgrenze von weniger als 10^6 Atomen gezeigt.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Therapeutisches Drug Monitoring (TDM) findet Anwendung in der Therapie mit Immunosuppressiva, Antibiotika, antiretroviraler Medikation, Antikonvulsiva, Antidepressiva und auch Antipsychotika, um die Effizienz zu steigern und das Risiko von Intoxikationen zu reduzieren. Jedoch ist die Anwendung von TDM für Substanzen, die Einsatz finden in der Rückfallprophylaxe, der Substitution oder dem Entzug von Abhängigkeitserkrankungen nicht etabliert. Für diese Arbeit wurde im ersten Schritt eine sensitive Rating-Skala mit 22 Items entwickelt, mit Hilfe derer der theoretische Nutzen von TDM in der Pharmakotherapie von substanzbezogenen Abhängigkeitserkrankungen auf der Basis von pharmakologischen Eigenschaften der Medikamente und von Patientencharakteristika evaluiert wurde. Die vorgenommene Einschätzung zeigte für Bupropion, Buprenorphin, Disulfiram (oder einen Metaboliten), Methadon (chirale Bestimmung wenn möglich) und Naltrexon einen potentiellen Nutzen von TDM.rnFür die meisten Medikamente, die zur Behandlung von Abhängigkeitserkrankungen zugelassen sind, fehlen valide Messverfahren für TDM. Im Alltag werden überwiegend Drogen Screening-Tests in Form immunologischer Schnelltests angewendet. Für die Anwendung von TDM wurden in dieser Arbeit chromatographische Verfahren für die Bestimmung von Naltrexon und 6β-Naltrexol, Bupropion und Hydroxybupropion sowie R,S-Methadon und R,S-2-Ethyliden-1,5-dimethyl-3,3-diphenylpyrrolidin entwickelt, optimiert und validiert. Es handelt sich dabei HPLC-UV-Methoden mit Säulenschaltung sowie zur Bestimmung von Naltrexon und 6β-Naltrexol zusätzlich eine LC-MS/MS-Methode. Voraussetzung für die Interpretation der Plasmaspiegel ist im Wesentlichen die Kenntnis eines therapeutischen Bereichs. Für Naltrexon und seinen aktiven Metaboliten 6β-Naltrexol konnte eine signifikante Korrelation zwischen dem auftretenden Craving und der Summenkonzentration gefunden werden. Mittels Receiver-Operation-Characteristics-Kurven-Analyse wurde ein Schwellenwert von 16,6 ng/ml ermittelt, oberhalb dessen mit einem erhöhten Ansprechen gerechnet werden kann. Für Levomethadon wurde bezüglich der Detoxifikationsbehandlung ein Zusammenhang in der prozentualen Reduktion des Plasmaspiegels und den objektiven und subjektiven Entzugssymptomen gefunden. rnDoch nicht nur die Wirkstoffe, sondern auch das Patientenmerkmal substanzbezogene Abhängigkeit wurde charakterisiert, zum einen bezüglich pharmakokinetischer Besonderheiten, zum anderen in Hinsicht auf die Therapietreue (Adhärenz). Für Patienten mit komorbider Substanzabhängigkeit konnte eine verminderte Adhärenz unabhängig von der Hauptdiagnose gezeigt werden. Die Betrachtung des Einflusses von veränderten Leberwerten zeigt für komorbide Patienten eine hohe Korrelation mit dem Metabolisiererstatus, nicht aber für Patienten ohne Substanzabhängigkeit.rnÜbergeordnetes Ziel von TDM ist die Erhöhung der Therapiesicherheit und die Steigerung der Therapieeffizienz. Dies ist jedoch nur möglich, wenn TDM im klinischen Alltag integriert ist und korrekt eingesetzt wird. Obwohl es klare Evidenz für TDM von psychiatrischer Medikation gibt, ist die Diskrepanz zwischen Laborempfehlung und der klinischen Umsetzung hoch. Durch Intensivierung der interdisziplinären Zusammenarbeit zwischen Ärzten und Labor, der Entwicklung von interaktivem TDM (iTDM), konnte die Qualität der Anwendung von TDM verbessert und das Risiko von unerwünschten Arzneimittelwirkungen vermindert werden. rnInsgesamt konnte durch die eigenen Untersuchungen gezeigt werden, dass TDM für die medikamentöse Einstellung von Patienten mit Abhängigkeitserkrankung sinnvoll ist und dass optimales TDM eine interdisziplinäre Zusammenarbeit erfordert.rn

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ziel war es, molekularbiologische Untersuchungen zum Kolumnarwachstum des Apfels durchzuführen. Anhand Sequenzdaten des ‘Golden Delicious’ Genoms (Velasco et al. 2010) wurden drei neue SSR Marker entwickelt. Sie konnten bei untersuchten Geisenheimer Nachkommenschaften zuverlässig den Kolumnarwuchs auf DNA-Ebene detektieren. Zusätzlich wurden von Bai et al. (2012) veröffentlichte Marker untersucht. Die von Bai et al. (2012) gefundenen Grenzen des co-Lokus konnten in dieser Arbeit anhand der Geisenheimer Nachkommenschaften nicht bestätigt werden. Die „linke“ Begrenzung der co-Region wird nach Untersuchungen dieser Arbeit am ehesten von dem Marker Mdo.chr10.11 (Moriya et al. 2012) bei 18,757 Mbp definiert. Die „rechte“ Begrenzung der co-Region wird vermutlich von den Markern Co04R13 (Baldi et al. 2012) und C1753-3520 (Bai et al. 2012) bei 18,905 Mbp definiert, wodurch die potentielle co-Region auf 148 kb auf Chromosom 10 eingegrenzt werden könnte. Für Funktionsanalysen möglicher Kandidatengene des co-Gens wurde ein Agrobakterien-vermitteltes Transformationssystem für die Geisenheimer Apfelselektionen ‘A 14’ und ‘Procats 28’ adaptiert. Zusätzlich wurde der bereits in der Literatur als transformierbar beschriebene Genotyp ‘Jonagold’ (Viss et al. 2003) transformiert. Bei Transformationen der Apfelselektion ‘A 14’ gelang es, transgene Zellen an den Explantaten, am Kallusgewebe und an den Regeneraten zu erzeugen. Bei Transformationen von ‘Jonagold’ wurde ein fast vollständig transgenes Regenerat erzeugt.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Verbindungen stellen die Schwachstelle in einem Fördergurt dar, da dort die auftretenden Zugkräfte ausschließlich vom Zwischengummi übertragen werden. Prüfungen von Fördergurtverbindungen sind zeitaufwendig und kostenintensiv. Die Messung der Spannungen im Zwischengummi der Verbindung ist bei dieser Prüfung nur unter erheblichem Aufwand zu realisieren. Aus diesen Gründen wurde am Institut für Transport- und Automatisierungstechnik in Zusammenarbeit mit der Firma Fenner Dunlop Americas ein FE-Modell zur Auslegung und Optimierung von Stahlseil-Fördergurtverbindungen entwickelt.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Auf dem Weg vom Rapid Prototyping zum Rapid Manufacturing ist erhöhte Prozesssicherheit sowie die Beherrschung verfahrensspezifischer Phänomene notwendig, um die immer weiter steigenden und konkreteren Bauteilanforderungen zu erfüllen. Dazu wurden diverse im SLM-Prozess auftretende Effekte untersucht. Basis der vorgestellten Entwicklungen sind grundlegende Erkenntnisse zur Oberflächenqualität von SLM-Bauteilen und Einflussgrößen auf Dichte und mechanische Eigenschaften der Bauteile verschiedener Werkstoffe. Ergebnis sind verschiedene Weiterentwicklungen der Standardbelichtungsstrategie, wodurch etwa Eigenspannungseffekte und Spritzerbildung positiv beeinflusst werden können.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Additive manufacturing by melting of metal powders is an innovative method to create one-offs and customized parts. Branches like dentistry, aerospace engineering and tool making were indicated and the manufacturing methods are established. Besides all the advantages, like freedom of design, manufacturing without a tool and the reduction of time-to-market, there are however some disadvantages, such as reproducibility or the surface quality. The surface quality strongly depends on the orientation of the component in the building chamber, the process parameters which are laser power and exposure time, but also on the so-called “hatch”-strategy, which includes the way the laser exposes the solid areas. This paper deals with the investigation and characterization of the surface quality of generated parts produced by SLM. Main process parameters including part orientation, part size and hatch strategies are investigated and monitored. The outcome is a recommendation of suitable hatch strategies depending on desired part properties. This includes metered values and takes into account process stability and reproducibility.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Das Management von Kundenbeziehungen hat sich in der klassischen Ökonomie unter dem Begriff »Customer Relationship Management« (kurz: CRM) etabliert und sich in den letzten Jahren als erfolgreicher Ansatz erwiesen. In der grundlegenden Zielsetzung, wertvolle, d.h. profitable und kreditwürdige Kunden an ein Unternehmen zu binden, kommen Business-Intelligence Technologien zur Generierung von Kundenwissen aus kundenbezogenen Daten zum Einsatz. Als technologische Plattform der Kommunikation und Interaktion gewähren Business Communities einen direkten Einblick in die Gedanken und Präferenzen der Kunden. Von Business-Communitybasiertem Wissen der Kunden und über Kunden können individuelle Kundenbedürfnisse, Verhaltensweisen und damit auch wertvolle (potenzielle, profilgleiche) Kunden abgeleitet werden, was eine differenziertere und selektivere Behandlung der Kunden möglich macht. Business Communities bieten ein umfassendes Datenpotenzial, welches jedoch bis dato für das CRM im Firmenkundengeschäft respektive die Profilbildung noch nicht genutzt wird. Synergiepotenziale von der Datenquelle "Business Community" und der Technologie "Business Intelligence" werden bislang vernachlässigt. An dieser Stelle setzt die Arbeit an. Das Ziel ist die sinnvolle Zusammenführung beider Ansätze zu einem erweiterten Ansatz für das Management der irmenkundenbeziehung. Dazu wird ein BIgestütztes CRM-Konzept für die Generierung, Analyse und Optimierung von Kundenwissen erarbeitet, welches speziell durch den Einsatz einer B2B-Community gewonnen und für eine Profilbildung genutzt wird. Es soll durch die Anbindung von Fremddatenbanken Optimierung finden: In den Prozess der Wissensgenerierung fließen zur Datenqualifizierung und -quantifizierung externe (Kunden-) Daten ein, die von Fremddatenbanken (wie z.B. Information Provider, Wirtschaftsauskunftsdienste) bereitgestellt werden. Der Kern dieser Zielsetzung liegt in der umfassenden Generierung und stetigen Optimierung von Wissen, das den Aufbau einer langfristigen, individuellen und wertvollen Kundenbeziehung unterstützen soll.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit werden Modellbildungsverfahren zur echtzeitfähigen Simulation wichtiger Schadstoffkomponenten im Abgasstrom von Verbrennungsmotoren vorgestellt. Es wird ein ganzheitlicher Entwicklungsablauf dargestellt, dessen einzelne Schritte, beginnend bei der Ver-suchsplanung über die Erstellung einer geeigneten Modellstruktur bis hin zur Modellvalidierung, detailliert beschrieben werden. Diese Methoden werden zur Nachbildung der dynamischen Emissi-onsverläufe relevanter Schadstoffe des Ottomotors angewendet. Die abgeleiteten Emissionsmodelle dienen zusammen mit einer Gesamtmotorsimulation zur Optimierung von Betriebstrategien in Hybridfahrzeugen. Im ersten Abschnitt der Arbeit wird eine systematische Vorgehensweise zur Planung und Erstellung von komplexen, dynamischen und echtzeitfähigen Modellstrukturen aufgezeigt. Es beginnt mit einer physikalisch motivierten Strukturierung, die eine geeignete Unterteilung eines Prozessmodells in einzelne überschaubare Elemente vorsieht. Diese Teilmodelle werden dann, jeweils ausgehend von einem möglichst einfachen nominalen Modellkern, schrittweise erweitert und ermöglichen zum Abschluss eine robuste Nachbildung auch komplexen, dynamischen Verhaltens bei hinreichender Genauigkeit. Da einige Teilmodelle als neuronale Netze realisiert werden, wurde eigens ein Verfah-ren zur sogenannten diskreten evidenten Interpolation (DEI) entwickelt, das beim Training einge-setzt, und bei minimaler Messdatenanzahl ein plausibles, also evidentes Verhalten experimenteller Modelle sicherstellen kann. Zum Abgleich der einzelnen Teilmodelle wurden statistische Versuchs-pläne erstellt, die sowohl mit klassischen DoE-Methoden als auch mittels einer iterativen Versuchs-planung (iDoE ) generiert wurden. Im zweiten Teil der Arbeit werden, nach Ermittlung der wichtigsten Einflussparameter, die Model-strukturen zur Nachbildung dynamischer Emissionsverläufe ausgewählter Abgaskomponenten vor-gestellt, wie unverbrannte Kohlenwasserstoffe (HC), Stickstoffmonoxid (NO) sowie Kohlenmono-xid (CO). Die vorgestellten Simulationsmodelle bilden die Schadstoffkonzentrationen eines Ver-brennungsmotors im Kaltstart sowie in der anschließenden Warmlaufphase in Echtzeit nach. Im Vergleich zur obligatorischen Nachbildung des stationären Verhaltens wird hier auch das dynami-sche Verhalten des Verbrennungsmotors in transienten Betriebsphasen ausreichend korrekt darge-stellt. Eine konsequente Anwendung der im ersten Teil der Arbeit vorgestellten Methodik erlaubt, trotz einer Vielzahl von Prozesseinflussgrößen, auch hier eine hohe Simulationsqualität und Ro-bustheit. Die Modelle der Schadstoffemissionen, eingebettet in das dynamische Gesamtmodell eines Ver-brennungsmotors, werden zur Ableitung einer optimalen Betriebsstrategie im Hybridfahrzeug ein-gesetzt. Zur Lösung solcher Optimierungsaufgaben bieten sich modellbasierte Verfahren in beson-derer Weise an, wobei insbesondere unter Verwendung dynamischer als auch kaltstartfähiger Mo-delle und der damit verbundenen Realitätsnähe eine hohe Ausgabequalität erreicht werden kann.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit wurde eine Routinemethode zur Differenzierung und Identifizierung von Unterlagssorten in jedem Verarbeitungsstadium, wie Holz, Pfropfrebe, bereits im Weinberg gepflanzte Rebe, entwickelt. Hierfür wurde eine Methode erarbeitet, die es ermöglicht, DNA aus Blättern, Holz und Wurzeln gleichermaßen zu extrahieren. Vermischungen von Unterlagssorten in einem Unterlagenholzbündel konnten bis zu 10% Fremd-Unterlagenholz durch eine RAPD-PCR nachgewiesen werden. Mit den 12mer Primer #722b und #722c wurden sortenspezifische Banden für die Unterlagssorten Börner, 8B, 3309C und 5BB festgestellt. Der Primers # 751 war in der Lage von 151 Unterlagssorten und Wildarten 144 Genotypen zu unterschieden. Mit Hilfe der Optimierung von RAMP-Zeiten konnten die Bandenmuster der sieben in Deutschland am häufigsten verwendeten Unterlagssorten auf zwei unterschiedlichen Thermocyclern reproduziert werden. Aufgrund der Optimierung der RAPD-PCR war es möglich, die zur Unterscheidung notwendigen Banden durch eine lineare Transformation anhand einer ermittelten Referenzbande mathematisch und graphisch darzustellen. Klone der Unterlagssorten SO4, 125AA und 5C, sowie die Unterlagssorte Binova, wurden auf die Unterscheidungsmöglichkeit hin mit RAPD, AFLP und SAMPL untersucht. Innerhalb der AFLP-/SAMPL-Methode bildeten die zu einer Sorte gehörenden Unterlagenklone ein Cluster, wobei Binova innerhalb der SO4 Klone zu finden war. Es wurden ‚unterlagssortenspezifische Banden’, ‚wiederholende Banden’ und ‚Einzelbanden’ gefunden.