16 resultados para Fraunhofer-Institut für Materialfluss und Logistik IML

em Universitätsbibliothek Kassel, Universität Kassel, Germany


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Das Gewindefurchen ist ein spanloses Fertigungsverfahren zur Herstellung von Innengewinden. Es bietet wesentliche Vorteile gegenüber der spanenden Innengewindeherstellung, wie z.B. keine Notwendigkeit zur Spanentsorgung, höhere Festigkeit der Gewindeflanken und eine erhöhte Prozessgeschwindigkeit. Um die Vorteile des Verfahrens unter wirtschaftlichen und technologischen Aspekten besser auszunutzen, bietet die Weiterentwicklung der Werkzeuggeometrie sowohl im makroskopischen als auch im mikroskopischen Bereich ein enormes Potential, welches nicht nur bezüglich der Standzeit bzw. Standmenge und Prozessgeschwindigkeit, sondern auch hinsichtlich der Qualität der erzeugten Gewinde erschlossen werden sollte. Durch die empirische Untersuchung der technischen und physikalischen Eigenschaften am Gewindefurcher sollen der Anformbereich und die Formkeilgeometrie in Abhängigkeit verschiedener Prozessparameter und Werkstoffe verbessert werden, um optimale Bearbeitungsergebnisse hinsichtlich der hergestellten Gewindefurchen und des auftretenden Verschleißes am Gewindefurcher bzw. Formkeils zu erreichen. Die Basis dieser Untersuchungen bildet ein neuartiger Modellversuch, bei dem modifizierte Gewindefurcher verwendet werden, die derart umgestaltet sind, dass von einem üblichen Gewindefurcher durch Umschleifen nur noch ein einzelner Gewindegang am Werkzeug verbleibt. Dadurch ist es möglich, in einer vergrößerten Vorbohrung mit einem Formkeil die einzelnen Umformstufen beim Gewindefurchen separat zu fertigen, die auftretenden Prozesskräfte während des Eingriffs in das Werkstück zu messen und das Bearbeitungsergebnis im Werkstück und den Verschleiß am Formkeil zu bewerten. Weiterhin wird eine rein theoretische Methode beschrieben, mit der die Berechnung der Umformkraft und darauf basierend der Furchmomente am Formkeil bzw. dem ganzen Gewindefurcher möglich ist. Durch die Kenntnis der berechneten Kräfte und Momente am einzelnen Formkeil bzw. dem Gewindefurcher kann bereits in der Konzeptionsphase eines Gewindefurchers eine Anpassung des Werkszeuges an die jeweiligen Bearbeitungsanforderungen durchgeführt werden, wodurch der Entwurf von Gewindefurchern wesentlich wirtschaftlicher realisierbar ist, als durch rein empirische Herangehensweisen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In der Praxis kommt es bei der spanenden Bearbeitung immer wieder zu großen Standwegunterschieden identischer Werkzeuge bei vordergründig identischen Bearbeitungsrandbedingungen. Insbesondere bei Fertigungsschritten, die das Bohren als Vorbearbeitung erfordern, kommt es gelegentlich zu atypischen Verschleißerscheinungen, die auf das Entstehen einer Neuhärtezone an der Werkstückoberfläche beim Bohren zurückgeführt werden. Grundsätzlich sind Randzonenveränderungen eine Folge der mechanischen und thermischen Beanspruchung bei der Bearbeitung. Beim Eindringen des Schneidkeils kommt es zu Kornverzerrungen, welche die Werkstückhärte bis in eine Tiefe von 40 bis 80 µm erhöhen können. Überdies wird die Randzone des Werkstücks durch den Bearbeitungsvorgang und den Spantransport erhitzt und durch den Kühlschmierstoff bzw. die so genannte Selbstabschreckung im Anschluss sehr schnell abgekühlt. So kann es in Abhängigkeit der Randbedingungen zu Gefügeänderungen mit härtesteigernder (Sekundärabschreckung) oder härtemindernder (Anlasseffekte) Wirkung kommen. Nicht zuletzt beeinflussen beide Beanspruchungsarten auch das Ausmaß der Eigenspannungen in der Werkstückoberfläche. In dieser Arbeit werden die beim Kernlochbohren erzeugten Randzonenveränderungen sowie die Standzeit von Folgebearbeitungswerkzeugen, wie Gewindebohrern und Gewindeformern, und deren Abhängigkeit vom Verschleißzustand des Kernlochbohrers untersucht. Weiterhin werden mit Hilfe einer Energiebilanz die Anteile herausgefiltert, die primär die Eigenschaften der Bohrungsrandzone beeinflussen. Dies geschieht mit Hilfe einer mathematischen Modellierung des Bohrprozesses, in der die Einflüsse der Schneidkantengeometrie, der Schneidkantenverrundung, der Schneidkantenfase sowie des Freiflächenverschleißes berücksichtigt werden.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Arbeit stellt einen strukturellen Rahmen zur Einordnung sowohl bisheriger als auch zukünftiger organisationstheoretischer und DV-technologischer Entwicklungen zur Umsetzung eines Computer Integrated Business (CIB) bereit. Dazu analysiert sie bisherige Ansätze und zukünftige Perspektiven eines CIB mittels theoretischer und empirischer Bearbeitungsverfahren. Die Notwendigkeit zur Unternehmensintegration ergibt sich aus dem betriebswirtschaftlichen Konzept der Arbeitsteilung, über die das Phänomen der Economies of Scale erschlossen wird. Die Arbeitsteilung wurde zum Gestaltungskonzept in den Fabriken der industriellen Revolution. Komplexe Arbeitsgänge wurden in spezialisierte Teilaufgaben zerlegt und nach Möglichkeit auf maschinelle bzw. technologische Potentiale übertragen. Die Zielsetzung lag zunächst in der Automatisierung des Materialflusses, während der Informationsfluss noch lange Zeit im Hintergrund stand. Mittlerweile ermöglichen leistungsfähige DV-Systeme auch die Automatisierung des Informationsflusses und damit die DV-gestützte Integration des Unternehmens, die den Kern des CIB-Konzeptes darstellt. Das CIB-Konzept wurde Ende der achtziger Jahre am Fraunhofer-Institut für Arbeitswirtschaft und Organisation als Erweiterung des Computer Integrated Manufacturing (CIM) für Industrieunternehmen von Bullinger geprägt, jedoch in seiner Zielsetzung als Modell zur Totalintegration von Unternehmen danach nicht maßgeblich weiterentwickelt. Vielmehr wurden in der Folgezeit überwiegend Teilintegrationslösungen diskutiert, wie z. B. Konzepte zur Integration der Fertigung oder zur Unterstützung der Teamarbeit. Der Aspekt der umfassenden, unternehmensinternen Integration rückte Mitte der neunziger Jahre durch die an Popularität gewinnende Internet-Technologie an den Rand der wissenschaftlichen Diskussion. Erst nach dem Zusammenbruch der ersten Internet-Euphorie und der anschließenden wirtschaftlichen Rezession gewann das Integrationsthema am Anfang dieses Jahrzehnts mit Hinblick auf dadurch mögliche Kostenvorteile wieder an Bedeutung. Die Diskussion wurde jedoch mit starkem technologischem Fokus geführt (z. B. zum Thema Enterprise Application Integration) und Aspekte der Unternehmensorganisation wurden bestenfalls grob, jedoch nicht im Detail diskutiert. Die vorliegende Arbeit bearbeitet die CIB-Thematik umfassend sowohl aus unternehmensorganisatorischer als auch DV-technologischer Sicht und bewegt sich deshalb interdisziplinär zwischen den Wissenschaftsbereichen der Betriebswirtschaft und der Informatik. Die Untersuchung wird vor dem Hintergrund einer sozio-technologischen Unternehmensorganisation geführt, in der DV-technologische Potentiale neben humanen Potentialen zur Erreichung der Unternehmensziele eingesetzt werden. DV-technologische Potentiale übernehmen darin einerseits Integrationsaufgaben und werden andererseits aber selbst zum Integrationsziel. Die Herausforderung für die Unternehmensführung besteht in der Konfiguration des CIB und im Finden eines Gleichgewichts zwischen Arbeitsteilung und Integration auf der einen sowie humanen und technologischen Potentialen auf der anderen Seite, letztendlich aber auch in der Automatisierung der Integration. Die Automatisierung der Integration stellt mit Hinblick auf die durch Umweltveränderungen bedingte Konfigurationsanpassung ein bisher konzeptionell nur ansatzweise gelöstes Problem dar. Der technologischen Integrationsarchitektur sowie den verwendeten Methoden des Prozessdesigns und der Software-Entwicklung kommt bei der Lösung dieses Problems eine hohe Bedeutung zu. Über sie bestimmt sich die Anpassungsfähigkeit und geschwindigkeit des CIB. Es kann vermutet werden, dass eine Lösung jedoch erst erreicht wird, wenn sich die Unternehmensorganisation vom Konzept der zentralen Koordination abwendet und stattdessen an dezentralen Koordinationsmechanismen unter Verwendung ultrastabiler Anpassungsprogramme orientiert, wie sie z. B. in der Biologie bei Insektenkulturen untersucht wurden.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Paket- und Expressdienste, als Teil logistischer Distributionssysteme, sind bedeutende Bestandteile unseres Wirtschaftssystems geworden. Nach der erfolgreichen Einführungsphase der Express- und Paketdienstleistung auf dem westeuropäischen Markt, Mitte der 1980-er, entwickelte er sich rasant bis zum Ende der 1990-er, mit teilweise zweistelligen Wachstumsraten. Doch nach Jahren des Booms sind die Paket- und Expressdienstleister im neuen Jahrhundert in einen Zeitabschnitt mit gedämpften Wachstumssteigerungen übergegangen. Der Markt zeichnet sich aus, durch immer kürzer werdende Laufzeiten, bei permanent sinkenden Preisen. Viele Anzeichen deuten darauf hin, dass sich die KEP-Branche auf dem Weg zur Marktreife befindet. Aufgrund dieser Entwicklungen, sind die Anbieter von Paket- und Expressdienstleistungen zunehmend gefordert, ihre Produkte auf Kundenorientierung zu überprüfen, sowie ihre Bindung zum Kunden in den Fokus zu stellen. Darin liegt der Ansatz der Dissertation. Mittels einer empirischen Erhebung wurden Kundenzufriedenheit, Kundenerwartungen und die daraus entstandene Kundenbindung der Verlader, den Einschätzungen der Paket- und Expressdienstleister gegenübergestellt. Die Marktstudie war offen für alle Nutzer und Anbieter von Paket- und Expressdienstleistungen. Die Arbeit lässt sich in drei grössere Themenbereiche unterteilen. Im ersten Themenbereich werden zunächst Grundlagen der Themen Logistik, Kundenzufriedenheit und Kundenbindung geschaffen. Für die Ermittlung der Kundenbindung wurde die Kundenzufriedenheit als wesentliche Determinante gewählt. Der zweite Themenbereich geht auf die aktuellen Probleme der Paket- und Expressdienstleister ein und erläutert, warum sich die Anbieter von Paket- und Expressdienstleistung verstärkt auf den Kunden ausrichten müssen. Im dritten Teil erfolgt die Herleitung der Thesen sowie die Darstellung der empirischen Ergebnisse. Den Abschluss dieses Abschnitts stellt dann die Verifizierung der Thesen, sowie die Erarbeitung von Handlungsempfehlungen auf der Grundlage der gewonnenen Erkenntnisse dar. Mit der Arbeit sollten im Markt für Paket- und Expressdienstleistung folgende Erkenntnislücken geschlossen werden: Zunächst wurde geklärt, wie Anbieter auf die veränderten Produktanforderungen der Kunden reagiert haben und in welchem Umfang die Nachfrager diese bereits nutzen. Ein weiterer zentraler Bereich klärt, wie zufrieden die Kunden dieses Segments mit ihren Dienstleistern sind und wie zufrieden die Anbieter ihre Kunden einschätzen. Außerdem weist die Marktanalyse auf der Grundlage der ermittelten Kundenzufriedenheit auf, wie hoch die Kundenbindung in diesem Markt ist. Der abschliessende Teil der Arbeit zeigt dann auf, aus welchen Gründen sich Kunden für oder gegen einen Dienstleister entscheiden und wo Kunden und Anbieter die grössten Potentiale sehen, die Geschäftsbeziehungen langfristig vertiefend auszubauen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Der Anteil dezentraler eingebetteter Systeme steigt in zahlreichen Andwendungsfeldern, wie der Kfz-Elektronik oder der Anlagenautomatisierung [ScZu03]. Zudem steigen die Anforderungen and die Flexibilität und den Funktionsumfang moderner automatisierungs-technischer Systeme. Der Einsatz agentenorientierter Methoden ist diesbezüglich ein geeigneter Ansatz diesen Anforderungen gerecht zu werden [WGU03]. Mit Agenten können flexible, anpassungsfähige Softwaresysteme entwickelt werden, welche die Verteilung von Informationen, Aufgaben, Ressourcen oder Entscheidungsprozessen der realen Problemstellung im Softwaresystem widerspiegeln. Es ist somit möglich, die gewünschte Flexibilität des Systems, bezüglich der Struktur oder des Verhaltens gezielt zu entwerfen. Nachteilig ist jedoch der Indeterminismus des Verhaltens des Gesamtsystems, der sich aufgrund von schwer vorhersagbaren Interaktionen ergibt [Jen00]. Dem gegenüber stehen statische Softwaresysteme, welche zwar einen hohen Determinismus aufweisen aber wenig flexibel in Bezug auf Änderungen der Struktur des Systems oder des Ablaufs des realen Prozesses sind. Mit der steigenden Komplexität der Systeme ist allerdings selbst mit einem statischen Entwurf die Vorhersagbarkeit immer weniger zu gewährleisten. Die Zahl der möglichen Zustände einer Anlage wird mit der Berücksichtigung von allen möglichen Fehlern, Ausfällen und externen Einflüssen (dynamische Umgebung) so groß, daß diese mit vertretbarem Aufwand kaum noch erfassbar sind und somit auch nicht behandelt werden können. Das von der DFG geförderten Projekt AVE [AVE05], welches in Kooperation mit dem Institut für Automatisierungs- und Softwaretechnik der Universität Stuttgart bearbeitet wird, beschäftigt sich in diesem Kontext mit dem Konflikt, die Vorteile der Flexibilität und Anpassungsfähigkeit von agentenorientierter Software mit den spezifischen Anforderungen der Domäne der Echtzeitsysteme, wie Zeit- und Verlässlichkeitsanforderungen, zu verknüpfen. In einer detaillierten Analyse dieser Anforderungen wurde untersucht, wie die Eigenschaften der Anpassungsfähigkeit und Flexibilität prinzipiell die Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften beeinflussen und wie umgekehrt Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften die Anpassungsfähigkeit und Flexibilität beschränken können. Aufbauend auf diesen Erkenntnissen werden Methoden und Konzepte für den Entwurf und die Implementierung von Agentensystemen auf gängiger Automatisierungshardware, insbesondere Speicher Programmierbare Steuerungen (SPS), entwickelt. In diesem Rahmen wird ein Konzept für die Modellierung von Sicherheit in Agentensystemen vorgestellt, welches insbesondere den modularen Charakter von Agenten berücksichtigt. Kernaspekt ist es, dem Entwickler einen Rahmen vorzugeben, der ihn dabei unterstützt ein möglichst lückenloses Sicherheitskonzept zu erstellen und ihm dabei genug Freiheiten lässt den Aufwand für die Strategien zur Fehlererkennung, Fehlerdiagnose und Fehlerbehandlung je nach Anforderung für jedes Modul individuell festzulegen. Desweiteren ist besonderer Wert darauf gelegt worden, dass die verwendeten Darstellungen und Diagramme aus der Domäne stammen und eine gute Vorlage für die spätere Implementierung auf automatisierungstechnischer Hardware bieten.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Am Institut für Mikrostrukturtechnologie und Analytik wurde eine neue Technik entwickelt, die neue Anwendungen und Methoden der Mikro- und Nanostrukturierung auf Basis eines neuen Verfahrens erschlossen hat. NANOJET führt über die passive Rastersondenmikroskopie hinaus zu einem vielseitigen, aktiven Bearbeitungswerkzeug auf der Mikro- und Nanometerskala. NANOJET (NANOstructuring Downstream PlasmaJET) ist eine aktive Rasterkraft-Mikroskopie-Sonde. Radikale (chemisch aktive Teilchen, die ein ungepaartes Valenzelektron besitzen) strömen aus dem Ende einer ultradünnen, hohlen Rasterkraftmikroskop-Spitze. Dadurch wird es möglich, über die übliche passive Abtastung einer Probenoberfläche hinausgehend, diese simultan und in-situ durch chemische Reaktionen zu verändern. Die Abtragung von Material wird durch eine chemische Ätzreaktion erreicht. In dieser Arbeit wurde zum größten Teil Photoresist als Substrat für die Ätzexperimente verwendet. Für das Ätzen des Resists wurden die Atome des Fluors und des Sauerstoffs im Grundzustand als verantwortlich identifiziert. Durch Experimente und durch Ergänzung von Literaturdaten wurde die Annahme bestätigt, dass Sauerstoffradikale mit Unterstützung von Fluorradikalen für die hohen erzielten Ätzraten verantwortlich sind. Die Beimischung von Fluor in einem Sauerstoffplasma führt zu einer Verringerung der Aktivierungsenergie für die Ätzreaktion gegenüber Verwendung reinen Sauerstoffs. In weiterer Folge wurde ein Strukturierungsverfahren dargestellt. Hierbei wurden "geformte Kapillaren" (mikrostrukturierte Aperturen) eingesetzt. Die Herstellung der Aperturen erfolgte durch einen elektrochemischen Ätzstop-Prozess. Die typische Größe der unter Verwendung der "geformten Kapillaren" geätzten Strukturen entsprach den Kapillarenöffnungen. Es wurde ein Monte-Carlo Simulationsprogramm entwickelt, welches den Transport der reaktiven Teilchen in der langen Transportröhre simulierte. Es wurde sowohl die Transmission der Teilchen in der Transportröhre und der Kapillare als auch ihre Winkelverteilung nach dem Verlassen der Kapillare berechnet. Das Aspektverhältnis der Röhren hat dabei einen sehr starken Einfluss. Mit einem steigenden Aspektverhältnis nahm die Transmission exponentiell ab. Die geschaffene experimentelle Infrastruktur wurde genutzt, um auch biologische Objekte zu behandeln und zu untersuchen. Hierfür wurde eine neue Methodik entwickelt, die eine dreidimensionale Darstellung des Zellinneren erlaubt. Dies wurde durch die kontrollierte Abtragung von Material aus der Zellmembran durchgeführt. Die Abtragung der Zellmembran erfolgte mittels Sauerstoffradikalen, die durch eine hohle Spitze lokalisiert zum Ort der Reaktion transportiert wurden. Ein piezoresistiver Cantilever diente als Sensor in dem zur Bildgebung eingesetzten RKM. Das entwickelte Verfahren ermöglicht es nun erstmals, schonend Zellen zu öffnen und die innen liegenden Organellen weiter zu untersuchen. Als Nachweis für weitere Verwendungsmöglichkeiten des NANOJET-Verfahrens wurde auch Knochenmaterial behandelt. Die Ergebnisse dieser Experimente zeigen klar, dass das Verfahren für vielfältige biologische Materialien verwendbar ist und somit nun ein weiter Anwendungskreis in der Biologie und Medizin offen steht.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In der Arbeit wird eine Messgröße für die Mobilität im Personenverkehr formuliert und anhand dieser Messgröße eine vergleichende Bewertung von Szenarien der Siedlungs- und Verkehrsentwicklung vorgenommen. Mobilität im Sinne räumlicher Wahlmöglichkeiten sind die Freiheitsgrade der Menschen in der Auswahl ihrer räumlichen Ziele und Beziehungen. Mehr als das tatsächliche Verhalten unterliegen Wahlmöglichkeiten starken Einflüssen der Siedlungsstruktur. Die relevanten Siedlungsstrukturmerkmale werden zu zwei Hauptmerkmalen zusammengefasst, Lokale Urbanität und Regionale Geometrie, und ihre Ausprägungen zu fünf Leitbildern einer integrierten Entwicklung von Siedlung und Verkehr kombiniert: 1. Kompakte Stadt mit hoher lokaler Urbanität und großflächiger, sternförmiger Geometrie. 2. Städtenetz mit hoher lokaler Urbanität und kleinteiliger, netzförmiger Geometrie. 3. Autoland mit geringer lokaler Urbanität und großflächiger Geometrie. 4. Nivellierung mit mittlerer lokaler Urbanität und großflächiger sternförmiger Geometrie. 5. Differenzierung als ein kleinteiliges Nebeneinander von Städtenetz und Autoland bei nur schwacher gegenseitiger Vernetzung Die Leitbilder werden in einem mittelstädtischen Siedlungsraum in Ostwestfalen zu konkreten Szenarien für das Jahr 2050 entwickelt und die Wahlmöglichkeiten in diesen Szenarien berechnet: 1. In der Kompakten Stadt betragen die Wahlmöglichkeiten im Fußgänger-, Fahrrad- und öffentlichen Verkehr ca. das Zwanzigfache des Autolands und ca. das Fünffache des Nivellierungsszenarios. Selbst im Autoverkehr bietet die Kompakte Stadt ca. doppelt so große Wahlmöglichkeiten wie Autoland oder Nivellierung. Dieser Vergleich offenbart zugleich das verkehrliche Desaster der Trendentwicklung. 2. Der Vergleich sternförmiger Urbanität (Kompakte Stadt) mit netzförmiger Urbanität (Städtenetz) endet unentschieden. Die Mobilitätsvorteile hoher Urbanität lassen sich auch in kleinteiligen Strukturen und in allseitigen Siedlungsnetzen realisieren. 3. Die urbanen Szenarien Kompakte Stadt und Städtenetz erscheinen jedoch in der hier simulierten "Reinform" als planerisches Leitbild eher ungeeignet. Von größerer praktischer Relevanz ist der Vergleich der Szenarien Nivellierung und Differenzierung. In diesem Vergleich erweist sich die intensive Stadt-Umland-Verflechtung und die dafür notwendige Angleichung (Nivellierung) der Verkehrsangebote zwischen urbanen und suburbanen Siedlungsstrukturen als nachteilig. Demgegenüber erreicht das kleinteilige Nebeneinander von urbanem Städtenetz und suburbanem Autoland im Szenario Differenzierung sogar ein ähnliches Niveau räumlicher Wahlmöglichkeiten wie das Städtenetz, trotz wesentlich geringerer urbaner Siedlungsstrukturanteile. Es zeigt somit auch, dass die großen Mobilitätsvorteile urbaner Strukturen bereits bei einer teilweisen (Re-)Urbanisierung erzielt werden können. Suburbanisierung, Autoverkehrswachstum und Stadt-Umland-Verflechtung sind nicht zuletzt Folge von mindestens 70 Jahre alten Leitbildern in Planung und Politik. Die für das Differenzierungs-Szenario notwendige Phase teilräumlicher (Re-)Urbanisierung setzt weder massive Planungszwänge "gegen den Markt" noch große Wachstumsschübe voraus. Notwendig ist aber die Überprüfung vieler weiterer Politikfelder, die auf Siedlung und Verkehr einwirken. Nur geänderte Anreize und Spielregeln können die laufenden kleinen Standort- und Verkehrsentscheidungen in eine neue, effizientere Richtung lenken. Die Neubewertung der Standorte und Verkehrsangebote vergrößert dabei auch die Entwicklungsmasse. Ein frühzeitiges, langsames Umsteuern vermeidet ernsthafte Krisen mit möglicherweise nicht mehr beherrschbaren Verkehrskosten.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In dieser Arbeit werden nichtüberlappende Gebietszerlegungsmethoden einerseits hinsichtlich der zu lösenden Problemklassen verallgemeinert und andererseits in bisher nicht untersuchten Kontexten betrachtet. Dabei stehen funktionalanalytische Untersuchungen zur Wohldefiniertheit, eindeutigen Lösbarkeit und Konvergenz im Vordergrund. Im ersten Teil werden lineare elliptische Dirichlet-Randwertprobleme behandelt, wobei neben Problemen mit dominantem Hauptteil auch solche mit singulärer Störung desselben, wie konvektions- oder reaktionsdominante Probleme zugelassen sind. Der zweite Teil befasst sich mit (gleichmäßig) monotonen koerziven quasilinearen elliptischen Dirichlet-Randwertproblemen. In beiden Fällen wird das Lipschitz-Gebiet in endlich viele Lipschitz-Teilgebiete zerlegt, wobei insbesondere Kreuzungspunkte und Teilgebiete ohne Außenrand zugelassen sind. Anschließend werden Transmissionsprobleme mit frei wählbaren $L^{\infty}$-Parameterfunktionen hergeleitet, wobei die Konormalenableitungen als Funktionale auf geeigneten Funktionenräumen über den Teilrändern ($H_{00}^{1/2}(\Gamma)$) interpretiert werden. Die iterative Lösung dieser Transmissionsprobleme mit einem Ansatz von Deng führt auf eine Substrukturierungsmethode mit Robin-artigen Transmissionsbedingungen, bei der eine Auswertung der Konormalenableitungen aufgrund einer geschickten Aufdatierung der Robin-Daten nicht notwendig ist (insbesondere ist die bekannte Robin-Robin-Methode von Lions als Spezialfall enthalten). Die Konvergenz bezüglich einer partitionierten $H^1$-Norm wird für beide Problemklassen gezeigt. Dabei werden keine über $H^1$ hinausgehende Regularitätsforderungen an die Lösungen gestellt und die Gebiete müssen keine zusätzlichen Glattheitsvoraussetzungen erfüllen. Im letzten Kapitel werden nichtmonotone koerzive quasilineare Probleme untersucht, wobei das Zugrunde liegende Gebiet nur in zwei Lipschitz-Teilgebiete zerlegt sein soll. Das zugehörige nichtlineare Transmissionsproblem wird durch Kirchhoff-Transformation in lineare Teilprobleme mit nichtlinearen Kopplungsbedingungen überführt. Ein optimierungsbasierter Lösungsansatz, welcher einen geeigneten Abstand der rücktransformierten Dirichlet-Daten der linearen Teilprobleme auf den Teilrändern minimiert, führt auf ein optimales Kontrollproblem. Die dabei entstehenden regularisierten freien Minimierungsprobleme werden mit Hilfe eines Gradientenverfahrens unter minimalen Glattheitsforderungen an die Nichtlinearitäten gelöst. Unter zusätzlichen Glattheitsvoraussetzungen an die Nichtlinearitäten und weiteren technischen Voraussetzungen an die Lösung des quasilinearen Ausgangsproblems, kann zudem die quadratische Konvergenz des Newton-Verfahrens gesichert werden.