18 resultados para Komplexität

em Universitätsbibliothek Kassel, Universität Kassel, Germany


Relevância:

20.00% 20.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Arbeitszeitpolitik und Arbeitszeitgestaltung haben seit dem Tarifkompromiss im Jahre 1984 in der Metall-, und Elektroindustrie in der politischen und wissenschaftlichen Diskussion einen immensen Bedeutungszuwachs erfahren. Die Forderungen nach einer flexibleren Arbeitszeitgestaltung haben zeitgleich sowohl aus der Globalisierungsdiskussion und der Debatte um die Wettbewerbsfähigkeit des "Wirtschaftsstandorts Deutschland" heraus wie auch aus beschäftigungspolitischen Gründen neuen Auftrieb bekommen. Die Diskussion um die Arbeitszeit ist gleichzeitig von verschiedenen, meist gegensätzlichen Interessen geprägt: Auf der Beschäftigtenseite zielt die Arbeitszeitflexibilisierung nach wie vor auf Zeitsouveränität: d.h. auf eine bessere Vereinbarkeit der Arbeitszeit mit allen Aktivitäten außerhalb der Arbeitszeit ab. Demgegenüber stellt die Arbeitgeberseite den betriebswirtschaftlichen Aspekt in den Vordergrund. D.h. die Anpassung der Arbeitszeit an den tatsächlichen Arbeitsanfall. So soll durch aufeinander abgestimmte Gestaltung von Betriebszeit und Arbeitszeit die Erhöhung der Produktivität und die Sicherung der Wettbewerbsfähigkeit erzielt werden. Durch diesen Trend verlor das sog. Normalarbeitsverhältnis an Allgemeingültigkeit und die Flexibilisierung der Arbeitszeiten nahm seit langem kontinuierlich zu. Folge ist, dass mittlerweile eine breite Palette von Arbeitszeitmodellen existiert, in denen die gesetzlich und vertraglich vereinbarte Wochenarbeitszeit in den Dimensionen Lage, Länge und Verteilung flexibilisiert wird. Auch die Tarifverhandlungen und Auseinandersetzung der Tarifparteien zur Arbeitszeitpolitik sind dadurch gekennzeichnet, dass die Arbeitszeitflexibilisierung und Verlagerung der Tarifpolitik auf betriebliche Ebene einen Bedeutungszuwachs bekam und die Meinungsführerschaft in Sachen Arbeitszeitgestaltung von der IG Metall zu Gesamtmetall wechselte. Ziel der vorliegenden Dissertation war es, anhand einer empirisch-historischen Untersuchung über Einstellungen sowie Strategien von Gesamtmetall und IG Metall die Gestaltungsspielräume flexibler Arbeitszeitmodelle zu bestimmen und gleichzeitig die Defizite herauszuarbeiten. Die Untersuchung gründete sich in erster Linie auf die Dokumentenanalyse von Stellungnahmen der Gesamtmetall und IG-Metall-Leitungsgremien sowie Primär- und Sekundäranalyse von Befragungen der Beschäftigten. Die leitende Frage der Untersuchung war, ob es den Arbeitgeberverbänden und den Gewerkschaften gelingen konnte, die Erfordernisse eines Betriebes und die Belange der Beschäftigten weitgehend in Übereinstimmung zu bringen? Und (wenn ja) unter welchen Voraussetzungen die neuen flexiblen Arbeitszeitsysteme mit den betrieblichen und außerbetrieblichen Interessen der Beschäftigten zu vereinbaren sind. Den Hintergrund für diese Zielerreichung bildete der gesellschaftliche Konflikt zwischen Arbeit und Kapital. Denn die Schwierigkeit bzw. Komplexität lag in der Frage, wie die unterschiedlichen Interessen, die sich in der industriekapitalistischen Gesellschaft durch den Gegensatz "Kapital" und "Arbeit" bestimmen lassen, zu vereinbaren waren bzw. sind.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit behandelt den Vorschlag für eine EU-Verordnung KOM/2000/7/final, 2000/0212(COD) des europäischen Parlaments und des Rates von der Kommission der Europäischen Gemeinschaften als Grundlage einer Marktöffnungsverordnung und welche Veränderungen sich dadurch in Deutschland einstellen werden. Ausschreibungen von Verkehrsleistungen werden zunehmen. Die Ausschreibungsarten werden sich in ländlichen Regionen von denen in Verkehrszentren unterscheiden. In der Region werden sich Bedarfslösungen stärker durchsetzen. Kürzungen von Verkehrsleistungen werden hier stärker ausfallen als in den Zentren und damit zu einem kleineren Leistungsvolumen führen. Aufgrund des geringen Leistungsumfangs gibt es weniger Interessenten. Bei Standardausschreibungen werden deshalb auch häufig die Varianten der beschränkten oder die freihändige Vergabe gewählt. Funktionale Ausschreibungen haben nur eine untergeordnete Bedeutung. In den Verkehrszentren sind die Lose größer und damit für viele Anbieter interessant. Die Verkehrszusatzleistungen sind zudem komplexer. Standardausschreibungen in öffentlicher Vergabeart werden sich hier vermutlich als Norm durchsetzen. Die VOL/A wird sicherlich ihre Bedeutung und ihren dafür notwendigen Regelungsumfang in Deutschland als deutsches oder als europäisches Recht behalten. Ob der empfehlende Charakter der DIN EN 13816 Norm „ÖPNV: Definition, Festlegung von Leistungszielen und Messung der Servicequalität“ erhalten werden kann und nicht als Steuerungselement zur Standardisierung im ÖPNV beitragen wird, ist dabei zu bezweifeln. Durch diese Wettbewerbspflicht wird der Aufgabenträger zum Besteller von Verkehrsleistungen. Damit geht die Verkehrsplanung in die Verantwortung des Aufgabenträgers über und gerät stärker in den Einflussbereich der Politik. Die strategisch abstrakte und die konkrete Verkehrsplanung wachsen für den Normfall der Standardausschreibung zusammen. Die Hoffnung auf eine bessere Netzintegration und eine Standardisierung des ÖPNV Angebots und der ÖPNV Qualität entsteht. Es entwickelt sich dadurch aber auch die Gefahr der Abhängigkeit des Nahverkehrsangebots von der derzeitigen Haushaltslage oder der Interessenlage der Politik. Kontinuität in Angebot und Qualität werden zu erklärten Planungszielen. Der Verkehrsplaner auf der Bestellerseite muss die Planung in Ausschreibungsunterlagen umsetzen. Dies erfordert erweiterte Kompetenzen in den Bereichen Betriebswirtschaft, Logistik, Jura, Informatik und Führungskompetenzen. Ausbildende Institutionen müssen darauf bereits im Vorfeld der Umsetzung reagieren. Durch die zeitliche Verzögerung der Umsetzung der Planung durch die Ausschreibungsschritte sind in der Verkehrsplanung längere Planungsvorlaufzeiten einzukalkulieren. Vorausschauender zu planen, wird dabei wichtiger. Auch eventuelle Fehler in der Planung sind nicht mehr so einfach zu korrigieren. Durch den gestiegenen Einsatz von Technologien in den Fahrzeugen besteht für den Verkehrsplaner dafür häufiger die Möglichkeit, Planungsänderungen auf ihre Wirksamkeit im Hinblick auf Attraktivität für den Fahrgast anhand von den ermittelten Fahrgastzahlen zu kontrollieren. Dasselbe gilt auch für Marketing- und Vertriebsmaßnahmen, wie für die Tarifpolitik. Die Zahlen stehen nicht nur für diese Rückkopplung zur Verfügung, sondern dienen auch als Planungsgrundlage für zukünftige Maßnahmen. Dem Planer stehen konkretere Zahlen für die Planung zur Verfügung. Ein Aspekt, der aufgrund der Sanktionsmaßnahmen bei Ausschreibungen an Bedeutung gewinnen wird, ist die Möglichkeit, Qualität von Verkehrsleistungen möglichst objektiv beurteilen zu können. Praxisrelevante Auswirkungen auf die Verkehrsplanung des öffentlichen Personennahverkehrs ergeben sich hauptsächlich durch die gestiegene Komplexität in der Planung selbst und den dadurch unverzichtbaren gewordenen Einsatz von Computerunterstützung. Die Umsetzung in Ausschreibungsunterlagen der Planung und die Kontrolle stellen neue Elemente im Aufgabenbereich des Verkehrsplaners dar und erfordern damit breiter ausgelegte Kernkompetenzen. Es werden mehr Verkehrsplaner mit breiterer Ausbildung benötigt werden. Diese Arbeit hat aufgezeigt, dass sich mit der Integration des Ausschreibungsgedankens in den Ablauf der Verkehrsplanung eine sprunghafte Entwicklung in der Planungstätigkeit ergeben wird. Aufgrund der in Zukunft steigenden Qualität und Quantität der Planungsgrundlagen und der ebenfalls gestiegenen Ansprüche an die Bewertungsparameter ergeben sich Veränderungen und neue Anforderungen auf diesem Gebiet, die in erster Linie für die Hochschulen und andere ausbildende Einrichtungen, aber auch für die Verkehrsplanung unterstützende Industrie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Aufbau Lernender Organisationen ist eine notwendige Antwort auf die zentrale Herausforderung am Ausgang des 20. Jahrhunderts: Unser aller Überleben wird davon abhängen, ob wir den Wandel von der belehrten zur lernenden Gesellschaft schaffen, den Wandel von der bürokratischen Verwaltungsgesellschaft zur offenen Gestaltungsgemeinschaft. Aufgrund der wachsenden Komplexität und des schnelle Wandels sind bürokratische Organisationen alten Typs überfordert, rechtzeitig Antworten zu finden, die der Vielfalt der Problemstellungen gerecht werden. Deshalb müssen sie sich grundlegend wandeln oder sie werden untergehen. Die Schlüsselfrage dabei lautet: Wie können wir die brachliegenden kreativen Ressourcen von Einzelnen und Gruppen erschließen und unsere Organisationen so umbauen, daß notwendiger Wandel nicht Widerstand hervorruft, sondern zu einem Bedürfnis aller wird? Eine vielversprechende Antwort auf diese Frage bietet das hierzulande fast unbekannte Instrument der Zukunftskonferenz.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Anteil dezentraler eingebetteter Systeme steigt in zahlreichen Andwendungsfeldern, wie der Kfz-Elektronik oder der Anlagenautomatisierung [ScZu03]. Zudem steigen die Anforderungen and die Flexibilität und den Funktionsumfang moderner automatisierungs-technischer Systeme. Der Einsatz agentenorientierter Methoden ist diesbezüglich ein geeigneter Ansatz diesen Anforderungen gerecht zu werden [WGU03]. Mit Agenten können flexible, anpassungsfähige Softwaresysteme entwickelt werden, welche die Verteilung von Informationen, Aufgaben, Ressourcen oder Entscheidungsprozessen der realen Problemstellung im Softwaresystem widerspiegeln. Es ist somit möglich, die gewünschte Flexibilität des Systems, bezüglich der Struktur oder des Verhaltens gezielt zu entwerfen. Nachteilig ist jedoch der Indeterminismus des Verhaltens des Gesamtsystems, der sich aufgrund von schwer vorhersagbaren Interaktionen ergibt [Jen00]. Dem gegenüber stehen statische Softwaresysteme, welche zwar einen hohen Determinismus aufweisen aber wenig flexibel in Bezug auf Änderungen der Struktur des Systems oder des Ablaufs des realen Prozesses sind. Mit der steigenden Komplexität der Systeme ist allerdings selbst mit einem statischen Entwurf die Vorhersagbarkeit immer weniger zu gewährleisten. Die Zahl der möglichen Zustände einer Anlage wird mit der Berücksichtigung von allen möglichen Fehlern, Ausfällen und externen Einflüssen (dynamische Umgebung) so groß, daß diese mit vertretbarem Aufwand kaum noch erfassbar sind und somit auch nicht behandelt werden können. Das von der DFG geförderten Projekt AVE [AVE05], welches in Kooperation mit dem Institut für Automatisierungs- und Softwaretechnik der Universität Stuttgart bearbeitet wird, beschäftigt sich in diesem Kontext mit dem Konflikt, die Vorteile der Flexibilität und Anpassungsfähigkeit von agentenorientierter Software mit den spezifischen Anforderungen der Domäne der Echtzeitsysteme, wie Zeit- und Verlässlichkeitsanforderungen, zu verknüpfen. In einer detaillierten Analyse dieser Anforderungen wurde untersucht, wie die Eigenschaften der Anpassungsfähigkeit und Flexibilität prinzipiell die Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften beeinflussen und wie umgekehrt Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften die Anpassungsfähigkeit und Flexibilität beschränken können. Aufbauend auf diesen Erkenntnissen werden Methoden und Konzepte für den Entwurf und die Implementierung von Agentensystemen auf gängiger Automatisierungshardware, insbesondere Speicher Programmierbare Steuerungen (SPS), entwickelt. In diesem Rahmen wird ein Konzept für die Modellierung von Sicherheit in Agentensystemen vorgestellt, welches insbesondere den modularen Charakter von Agenten berücksichtigt. Kernaspekt ist es, dem Entwickler einen Rahmen vorzugeben, der ihn dabei unterstützt ein möglichst lückenloses Sicherheitskonzept zu erstellen und ihm dabei genug Freiheiten lässt den Aufwand für die Strategien zur Fehlererkennung, Fehlerdiagnose und Fehlerbehandlung je nach Anforderung für jedes Modul individuell festzulegen. Desweiteren ist besonderer Wert darauf gelegt worden, dass die verwendeten Darstellungen und Diagramme aus der Domäne stammen und eine gute Vorlage für die spätere Implementierung auf automatisierungstechnischer Hardware bieten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aktuelle Entwicklungen auf dem Gebiet der zielgerichteten Therapie zur Behandlung maligner Erkrankungen erfordern neuartige Verfahren zur Diagnostik und Selektion geeigneter Patienten. So ist das Ziel der vorliegenden Arbeit die Identifizierung neuer Zielmoleküle, die die Vorhersage eines Therapieerfolges mit targeted drugs ermöglichen. Besondere Aufmerksamkeit gilt dem humanisierten monoklonalen Antikörper Trastuzumab (Herceptin), der zur Therapie Her-2 überexprimierender, metastasierter Mammakarzinome eingesetzt wird. Jüngste Erkenntnisse lassen eine Anwendung dieses Medikamentes in der Behandlung des Hormon-unabhängigen Prostatakarzinoms möglich erscheinen. Therapie-beeinflussende Faktoren werden in der dem Rezeptor nachgeschalteten Signaltransduktion oder Veränderungen des Rezeptors selbst vermutet. Mittels Immunhistochemie wurden die Expressions- und Aktivierungsniveaus verschiedener Proteine der Her-2-assoziierten Signaltransduktion ermittelt; insgesamt wurden 37 molekulare Marker untersucht. In Formalin fixierte und in Paraffin eingebettete korrespondierende Normal- und Tumorgewebe von 118 Mammakarzinom-Patientinnen sowie 78 Patienten mit Prostatakarzinom wurden in TMAs zusammengefasst. Die in Zusammenarbeit mit erfahrenen Pathologen ermittelten Ergebnisse dienten u.a. als Grundlage für zweidimensionales, unsupervised hierarchisches clustering. Ergebnis dieser Analysen war für beide untersuchten Tumorentitäten die Möglichkeit einer Subklassifizierung der untersuchten Populationen nach molekularen Eigenschaften. Hierbei zeigten sich jeweils neue Möglichkeiten zur Anwendung zielgerichteter Therapien, deren Effektivität Inhalt weiterführender Studien sein könnte. Zusätzlich wurden an insgesamt 43 Frischgeweben die möglichen Folgen des sog. shedding untersucht. Western Blot-basierte Untersuchungen zeigten hierbei die Möglichkeit der Selektion von Patienten aufgrund falsch-positiver Befunde in der derzeit als Standard geltenden Diagnostik. Zusätzlich konnte durch Vergleich mit einer Herceptin-sensitiven Zelllinie ein möglicher Zusammenhang eines Therapieerfolges mit dem Phosphorylierungs-/ Aktivierungszustand des Rezeptors ermittelt werden. Fehlende klinische Daten zum Verlauf der Erkrankung und Therapie der untersuchten Patienten lassen keine Aussagen über die tatsächliche Relevanz der ermittelten Befunde zu. Dennoch verdeutlichen die erhaltenen Resultate eindrucksvoll die Komplexität der molekularen Vorgänge, die zu einem Krebsgeschehen führen und damit Auswirkungen auf die Wirksamkeit von targeted drugs haben können. Entwicklungen auf dem Gebiet der zielgerichteten Therapie erfordern Verbesserungen auf dem Gebiet der Diagnostik, die die sichere Selektion geeigneter Patienten erlauben. Die Zukunft der personalisierten, zielgerichteten Behandlung von Tumorerkrankungen wird verstärkt von molekularen Markerprofilen hnlich den hier vorgestellten Daten beeinflusst werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die ubiquitäre Datenverarbeitung ist ein attraktives Forschungsgebiet des vergangenen und aktuellen Jahrzehnts. Es handelt von unaufdringlicher Unterstützung von Menschen in ihren alltäglichen Aufgaben durch Rechner. Diese Unterstützung wird durch die Allgegenwärtigkeit von Rechnern ermöglicht die sich spontan zu verteilten Kommunikationsnetzwerken zusammen finden, um Informationen auszutauschen und zu verarbeiten. Umgebende Intelligenz ist eine Anwendung der ubiquitären Datenverarbeitung und eine strategische Forschungsrichtung der Information Society Technology der Europäischen Union. Das Ziel der umbebenden Intelligenz ist komfortableres und sichereres Leben. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung charakterisieren sich durch Heterogenität der verwendeten Rechner. Diese reichen von Kleinstrechnern, eingebettet in Gegenstände des täglichen Gebrauchs, bis hin zu leistungsfähigen Großrechnern. Die Rechner verbinden sich spontan über kabellose Netzwerktechnologien wie wireless local area networks (WLAN), Bluetooth, oder UMTS. Die Heterogenität verkompliziert die Entwicklung und den Aufbau von verteilten Kommunikationsnetzwerken. Middleware ist eine Software Technologie um Komplexität durch Abstraktion zu einer homogenen Schicht zu reduzieren. Middleware bietet eine einheitliche Sicht auf die durch sie abstrahierten Ressourcen, Funktionalitäten, und Rechner. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung sind durch die spontane Verbindung von Rechnern gekennzeichnet. Klassische Middleware geht davon aus, dass Rechner dauerhaft miteinander in Kommunikationsbeziehungen stehen. Das Konzept der dienstorienterten Architektur ermöglicht die Entwicklung von Middleware die auch spontane Verbindungen zwischen Rechnern erlaubt. Die Funktionalität von Middleware ist dabei durch Dienste realisiert, die unabhängige Software-Einheiten darstellen. Das Wireless World Research Forum beschreibt Dienste die zukünftige Middleware beinhalten sollte. Diese Dienste werden von einer Ausführungsumgebung beherbergt. Jedoch gibt es noch keine Definitionen wie sich eine solche Ausführungsumgebung ausprägen und welchen Funktionsumfang sie haben muss. Diese Arbeit trägt zu Aspekten der Middleware-Entwicklung für verteilte Kommunikationsnetzwerke in der ubiquitären Datenverarbeitung bei. Der Schwerpunkt liegt auf Middleware und Grundlagentechnologien. Die Beiträge liegen als Konzepte und Ideen für die Entwicklung von Middleware vor. Sie decken die Bereiche Dienstfindung, Dienstaktualisierung, sowie Verträge zwischen Diensten ab. Sie sind in einem Rahmenwerk bereit gestellt, welches auf die Entwicklung von Middleware optimiert ist. Dieses Rahmenwerk, Framework for Applications in Mobile Environments (FAME²) genannt, beinhaltet Richtlinien, eine Definition einer Ausführungsumgebung, sowie Unterstützung für verschiedene Zugriffskontrollmechanismen um Middleware vor unerlaubter Benutzung zu schützen. Das Leistungsspektrum der Ausführungsumgebung von FAME² umfasst: • minimale Ressourcenbenutzung, um auch auf Rechnern mit wenigen Ressourcen, wie z.B. Mobiltelefone und Kleinstrechnern, nutzbar zu sein • Unterstützung für die Anpassung von Middleware durch Änderung der enthaltenen Dienste während die Middleware ausgeführt wird • eine offene Schnittstelle um praktisch jede existierende Lösung für das Finden von Diensten zu verwenden • und eine Möglichkeit der Aktualisierung von Diensten zu deren Laufzeit um damit Fehlerbereinigende, optimierende, und anpassende Wartungsarbeiten an Diensten durchführen zu können Eine begleitende Arbeit ist das Extensible Constraint Framework (ECF), welches Design by Contract (DbC) im Rahmen von FAME² nutzbar macht. DbC ist eine Technologie um Verträge zwischen Diensten zu formulieren und damit die Qualität von Software zu erhöhen. ECF erlaubt das aushandeln sowie die Optimierung von solchen Verträgen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Inspektion von Schule und Unterricht hat eine lange Tradition. Auf der Grundlage von Dokumenten aus der hessischen Schulgeschichte wird gezeigt, dass anfänglich der einzelne Lehrer, sein sittliches Verhalten und insbesondere sein Umgang mit der unterrichtlichen Disziplin im Zentrum der Beobachtungen stand. Das moderne Inspektionswesen nutzt demgegenüber das sozialwissenschaftliche Instrumentarium um anstelle punktueller Erfolgskontrollen schulische und unterrichtliche Entwicklungsprozesse in ihrer Komplexität zu beobachten, zu beschreiben und zu bewerten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Während zum Genehmigungsrecht zahlreiche Abhandlungen in der juristischen Literatur und eine große Zahl von Urteilen veröffentlicht sind, hält sich die Forschung und praktische Behandlung zum Aufsichtsrecht in Grenzen. Diese Arbeit vertieft das Verständnis, für die spezifische Verknüpfung und gegenseitige Abhängigkeit der Eröffnungskontrollen und der begleitenden Kontrollen im deutschen Arbeits-, Umwelt- und Verbraucherschutzrecht. Zentraler Punkt dieser Arbeit ist die Entwicklung von Grundlinien der begleitenden Aufsicht im Gewerbeaufsichtsrecht. Dazu ist es erforderlich die verschiedenen Randbedingungen gewerbeaufsichtlichen Handelns in den Blick zu nehmen. Es ist ein Blick auf die zu erwartende Ausbildung eines neuen Rationalitätstyps der gesellschaftlichen Entwicklung (2.), auf die Typisierung von Staats-, Gewerbe- und Wirtschaftsaufsicht und deren spezifischen Handlungsmustern, den festgestellten Defiziten des Aufsichtsrechts und des Aufsichtshandelns der begleitenden Kontrollen und den festgestellten tatsächlichen Wirkungen des Aufsichtssystems (3.) zu werfen. Weitere Einflüsse auf das Aufsichtsmodell der Zukunft kommen aus der erwarteten und wünschenswerten Entwicklung des Genehmigungsrechts (4.), der Art und Weise wie die begleitende Aufsicht gehandhabt werden kann und soll (5.) und den Privatisierungstypen und deren verfassungsrechtlichen Grenzen (6.). Die Arbeit schließt mit der Formulierung eines Zukunftsmodells, dass die Gewichte zwischen der Eröffnungs- und der begleitender Kontrolle, sowie das Verhältnis zwischen Staat, Privaten Dritten und Unternehmen, neu ordnet. Insgesamt wird in dieser Arbeit für ein Aufsichtsmodell plädiert, indem der Staat stärker in die Verantwortung für eine risikoorientierte begleitende Aufsicht genommen wird. Maßstäbe für die Risikoregelung sind künftig komplett vom Staat aufzustellen. Staatliche Aufsicht kann sich zukünftig auf Rahmenregelungen und Rahmenprüfungen bei den risikoreichsten Anlagen, Tätigkeiten und Produkten beschränken. Private Dritte können die Detailermittlungen und Freigaben bearbeiten. Private Sachverständige können künftig die Hauptlast detaillierter und zeitintensiver Kontrolltätigkeiten bei Anlagen, Tätigkeiten und Produkten mit mittlerem Risiko übernehmen. Anlagen, Tätigkeiten und Produkte mit geringem Risiko können der Eigenüberwachung überlassen werden. Im Gegenzug muss der Staat in deutlich stärkeren Maß die Aufsicht über die Kontrolleure anhand einheitlicher Maßstäbe organisieren und durchführen. Die Anforderungen an die Kontrolleure müssen künftig allgemein, sowohl für die externen Kontrollpersonen als auch für die internen Aufsichtspersonen, gelten und überprüft werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Dissertation beschäftigt sich aus interdisziplinärer (musikwissenschaftlicher, literaturwissenschaftlicher und theologischer) Sicht mit den Biographien Brechts und Weills und ihrem bekanntesten gemeinsamen Werk, der Dreigroschenoper. Im ersten Teil werden anhand von Selbstäußerungen in Briefen und Tagebüchern die Biographien beider Künstler mit Blick auf Spuren von religiöser Biographie, Frömmigkeit und argumentativer Auseinandersetzung mit ihrer jeweiligen Heimatreligion – für Brecht das Christentum und für Weill das Judentum – untersucht. Die in der Forschung pauschal gehaltene These von einer intensiven religiösen Sozialisation beider Künstler ist zwar gerechtfertigt und vor allem für Brecht bekannt, stellt aber nur einen Ausgangspunkt für differenziertere Untersuchungen dar. Dazu gehört es religiöse Existenz als bedeutenden und künstlerisch wirksamen Bestandteil von Persönlichkeitsentwicklung zu verstehen. Religiöse Existenz darf nicht, wie es fast durchgängig in der Forschung zu Brecht und Weill geschieht, auf eine affirmative Grundhaltung begrenzt werden, auch dürfen nicht christliche und jüdische Sozialisation gleichgesetzt werden. Daher sind auch die in der Arbeit gewonnenen exemplarischen Einblicke in Glaubensvorstellungen und Lebenspraxis von Juden und Christen im ausgehenden Kaiserreich und in der Weimarer Republik von besonderer Bedeutung. Auch reicht die bloße Feststellung einer intensiven religiösen Sozialisation nicht aus um wirklich zu beschreiben, was sie jeweils – etwa die Schabbatpraxis im Hause Weill oder Brechts Zweifel am Christentum während der Krankheit seines Vaters – bedeuten und bewirken kann. Mit der in der Dissertation vorgenommenen differenzierten Sichtung von Biographie wird weder die „Moderation“ der eigenen Biographie durch die Künstler außer Acht gelassen noch das künstlerische Werk der Biographie untergeordnet. Es wird vielmehr in der Verknüpfung der mehrdimensionalen Bezugssysteme das geschichtliche und damit auch das biographische Werden eines Werkes gleichzeitig als Charakteristikum seiner Ästhetik verstanden. Für die religiöse Dimension der Dreigroschenoper gilt ähnliches wie für die Sicht auf die religiösen Sozialisationen. Einige der offensichtlichen Anspielungen auf religiöse Kontexte gelten als bekannt. Dabei werden aber Tiefendimensionen und Ambivalenzen vernachlässigt, welche bei der Verwendung der zumeist biblischen Spuren mitschwingen und die auch für die Künstler mitschwingen konnten (Buch Rut, Passion Jesu etc.). An diesem Punkt setzt die Untersuchung im zweiten Teil der Arbeit ein, welche die versteckten, verdeckten oder nur oberflächlich untersuchten Spuren religiöser Konnotation in der Dreigroschenoper ermittelt und wieder verständlich macht. Brecht war nicht Theologe und schon gar nicht Exeget war, er war aber als Literat und als christlich sozialisierter Künstler in der Lage, kontextuelle Zusammenhänge, innerbiblische Verweise und Leerstellen biblischer Texte zu erkennen. Daher ist es für die Interpretation der Dreigroschenoper auch wesentlich, biblische Hintergründe und ausgewählte theologische Erkenntnisse heranzuziehen. Durch den Rückgriff auf Biblisches und damit auf jüdische und christliche Tradition wird nicht nur die Komplexität der Dreigroschenoper verdeutlicht, sondern gleichsam rückwirkend die Komplexität biblischer Theologie sichtbar. Der Komponist darf bei diesem künstlerischen Verarbeitungsprozess religiöser Kontexte nicht verdrängt werden. Die Frage nach religiös semantisierbarer Musik ist trotz aller Schwierigkeiten notwendig. Der Blick auf Weills Biographie, sein Aufwachsen im Hause eines jüdischen Kantors, seine Kenntnis der Synagogalmusik, seine künstlerische Verbundenheit mit Gustav Mahler, seine Kenntnis von Orgelmusik, Chorälen und den bachschen Passion und seine Selbstreflexion über sich als Künstler, der Jude war, fordert in dieser Hinsicht eine differenzierte und funktionale Sicht auf religiöse Semantik in der Musik. In der Dreigroschenoper spiegeln sich Säkularisierungsprozesse wider, doch bleibt trotz dieser Prozesse ein Bewusstsein für die religiösen Traditions- und Erklärungsmuster erhalten. Dieses gilt es wieder zu erschließen, da es untrennbar zum Werk, zur Werkästhetik und damit zu seinem Verständnis gehört. Die Dreigroschenoper verdeutlicht darüber hinaus, dass die religiöse Dimension noch in der Distanzierung bedeutsam bleibt. Auch daran wird erkennbar, wie sehr eine Gesellschaft von Voraussetzungen lebt, die sie nicht selbst hergestellt hat. Die Dreigroschenoper kann somit heute auch zu einem Lehrstück für kulturelle Codes werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Entstehung eines globalen Arbeitsmarktes ist in den letzten Jahren ins öffentliche Bewußtsein gerückt. Die vorliegende Arbeit zeigt, dass ein solcher Markt nicht von alleine entsteht, sondern eines komplexen institutionellen Arrangments auf internationaler Ebene bedarf. Mit ihrem Fokus steht die Arbeit im Kontext einer globalen Arbeitsmarktforschung, die über einen Ländervergleich hinausgeht, um die internationalen Regulierungen in den Blick zu nehmen. Viele der bisherigen Arbeiten in diesem Bereich konzentrieren sich vorallem auf die Welthandelsorganisation, genauer auf das Allgemeine Dienstleistungsabkommen (GATS), das Vorgaben zur Personenfreizügigkeit macht. Diese Forschung hat bislang jedoch die bildungspolitische Dimension des globalen Arbeitsmarktes vernachlässigt. Besonders bei hochqualifizierten Tätigkeiten, die einen nicht unwichtigen Teil des globalen Dienstleistungshandels ausmachen, ist diese Dimension von Bedeutung. Individuelle Dienstleistungsanbieter sind darauf angewiesen, dass ihre Qualifikationen in den Ländern anerkannt werden, in denen sie tätig werden wollen. Das GATS definiert jedoch keine substantiellen Qualifikationsstandards und die Versuche, im Rahmen des GATS Auflagen zu sektorübergreifenden Anerkennungsstandards zu machen, sind bislang gescheitert. Im Gegensatz hierzu sind in den letzten Jahren im Rahmen der Organisation der Vereinten Nationen für Erziehung, Wissenschaft und Kultur (UNESCO) Standards zur Anerkennung von Hochschulbildung maßgeblich weiterentwickelt und konkretisiert worden. Zunächst bezog sich diese Entwicklung auf Europa als Teil eines umfassenderen Prozesses, der als Bologna-Prozess bekannt wurde. Doch auch in anderen Regionen ist die Konkretisierung und Weiterentwicklung der UNESCO-Anerkennungsstandards auf die bildungspolitische Tagesordnung gerückt. Die vorliegende Fallstudie rekonstruiert die Entwicklung dieser Standards, die einen Vergleich sehr unterschiedlicher Qualifikationen ermöglichen sollen. Die Studie wirft so ein Schlaglicht auf ein komplexes multiskalares institutionelles Arrangement, das die Anerkennung von Qualifikationen erleichtert, und verdeutlicht eine Interdependenz zwischen dem GATS und der UNESCO. Diese institutionelle Interdependenz verweist auf eine neue Komplexität internationaler Politik. Zusammen mit einem globalen Arbeitsmarkt, globalen Produktionsketten und Kommunikationsnetzwerken ist sie Ausdruck eines sich transnationalisierenden Vergesellschaftungsprozesses, den es auch in der theoretischen Konzeption internationaler Politik zu berücksichtigen gilt. Auch hierzu will die vorliegende Arbeit aus einer neo-gramscianischen, neo-Poulantza'schen Perspektive einen Beitrag leisten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Heutzutage haben selbst durchschnittliche Computersysteme mehrere unabhängige Recheneinheiten (Kerne). Wird ein rechenintensives Problem in mehrere Teilberechnungen unterteilt, können diese parallel und damit schneller verarbeitet werden. Obwohl die Entwicklung paralleler Programme mittels Abstraktionen vereinfacht werden kann, ist es selbst für Experten anspruchsvoll, effiziente und korrekte Programme zu schreiben. Während traditionelle Programmiersprachen auf einem eher geringen Abstraktionsniveau arbeiten, bieten funktionale Programmiersprachen wie z.B. Haskell, Möglichkeiten zur fortgeschrittenen Abstrahierung. Das Ziel der vorliegenden Dissertation war es, zu untersuchen, wie gut verschiedene Arten der Abstraktion das Programmieren mit Concurrent Haskell unterstützen. Concurrent Haskell ist eine Bibliothek für Haskell, die parallele Programmierung auf Systemen mit gemeinsamem Speicher ermöglicht. Im Mittelpunkt der Dissertation standen zwei Forschungsfragen. Erstens wurden verschiedene Synchronisierungsansätze verglichen, die sich in ihrem Abstraktionsgrad unterscheiden. Zweitens wurde untersucht, wie Abstraktionen verwendet werden können, um die Komplexität der Parallelisierung vor dem Entwickler zu verbergen. Bei dem Vergleich der Synchronisierungsansätze wurden Locks, Compare-and-Swap Operationen und Software Transactional Memory berücksichtigt. Die Ansätze wurden zunächst bezüglich ihrer Eignung für die Synchronisation einer Prioritätenwarteschlange auf Basis von Skiplists untersucht. Anschließend wurden verschiedene Varianten des Taskpool Entwurfsmusters implementiert (globale Taskpools sowie private Taskpools mit und ohne Taskdiebstahl). Zusätzlich wurde für das Entwurfsmuster eine Abstraktionsschicht entwickelt, welche eine einfache Formulierung von Taskpool-basierten Algorithmen erlaubt. Für die Untersuchung der Frage, ob Haskells Abstraktionsmethoden die Komplexität paralleler Programmierung verbergen können, wurden zunächst stencil-basierte Algorithmen betrachtet. Es wurde eine Bibliothek entwickelt, die eine deklarative Beschreibung von stencil-basierten Algorithmen sowie ihre parallele Ausführung erlaubt. Mit Hilfe dieses deklarativen Interfaces wurde die parallele Implementation vollständig vor dem Anwender verborgen. Anschließend wurde eine eingebettete domänenspezifische Sprache (EDSL) für Knoten-basierte Graphalgorithmen sowie eine entsprechende Ausführungsplattform entwickelt. Die Plattform erlaubt die automatische parallele Verarbeitung dieser Algorithmen. Verschiedene Beispiele zeigten, dass die EDSL eine knappe und dennoch verständliche Formulierung von Graphalgorithmen ermöglicht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Thema „Modellierung“ nimmt einen großen Bestandteil der aktuellen mathematikdidaktischen Diskussion ein, nicht zuletzt durch die verbindliche Einführung der von der Kultusministerkonferenz (KMK) beschlossenen Bildungsstandards 2005/2006. Auch den Sichtweisen oder Vorstellungen der Lernenden bezüglich der Mathematik kam in den vergangenen Jahren ein reges Interesse der mathematikdidaktischen Diskussion entgegen, in deren Verlauf sich der Begriff „Belief“ manifestierte, der eine filternde Funktion aufweist und in Kapitel 2.1 aufgegriffen wird. Es stellt sich nun die Frage, ob Modellierungen die Beliefs der Lernenden beeinflussen und somit verändern können.Nach der Einleitung werden im zweiten Kapitel theoretische Grundlagen der Beliefs, die Aspekte mathematischer Weltbilder sowie Modellierungen aufgegriffen. Die anschließenden Aspekte mathematischer Weltbilder werden aus den Perspektiven von Grigutsch (1998) und Maaß (2004) betrachtet und daraufhin für den hiesigen Gebrauch definiert. Um zu erklären, was sich hinter der mathematischen Modellierung verbirgt, wird zunächst der darin enthaltene Begriff „Modell“ beleuchtet, um dann zur mathematischen Modellierung zu gelangen. Nachdem festgehalten wurde, dass diese die Beziehung zwischen der Mathematik und dem „Rest der Welt“ (Pollak 1979, 233; zitiert nach Blum 1996, 18) bezeichnet, steht der Stellenwert in den Bildungsstandards im Vordergrund. Es schließt sich eine Diskussion der Ziele mathematischer Modellierung an, die in eine Beschreibung der Modellierungskompetenzen mündet, da diese ein beachtliches Ziel des Einsatzes von Modellierungen darstellen. Den Abschluss des zweiten Kapitels bilden eine allgemeine Auseinandersetzung mit der mathematischen Modellierung in der Grundschule und die Präzisierung der Forschungsfragen. Das dritte Kapitel beschäftigt sich mit der in dieser Arbeit relevanten Methodik. Der allgemeinen Beschreibung qualitativer Forschung folgt eine Darstellung der Datenerhebung, indem auf das Sampling eingegangen wird. Der nachfolgenden Beleuchtung der Erhebungsmethoden - Fragebogen, Interview, Hospitation - schließt sich eine Auseinandersetzung mit den Auswertungsmethoden an. In Kapitel 4 wird die praktische Umsetzung der Studie beschrieben. Das fünfte Kapitel stellt die Ergebnisse der Erhebungsmethoden dar und diskutiert diese. Die abschließende Schlussbetrachtung fasst die Hauptaussagen der Arbeit noch einmal zusammen und beantwortet die Forschungsfragen, um somit ein Fazit zu ziehen und einen Ausblick geben zu können. Die Forschungsfragen leiten sich von der Hauptfrage dieser Arbeit ab, die sich folgendermaßen stellt: Veränderung der Sichtweise von Grundschulkindern zur Mathematik durch Modellierung? Die Komplexität der Forschungsfragen ergibt sich im weiteren Verlauf der Arbeit und wird an passender Stelle festgehalten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Dissertation werden Methoden zur optimalen Aufgabenverteilung in Multirobotersystemen (engl. Multi-Robot Task Allocation – MRTA) zur Inspektion von Industrieanlagen untersucht. MRTA umfasst die Verteilung und Ablaufplanung von Aufgaben für eine Gruppe von Robotern unter Berücksichtigung von operativen Randbedingungen mit dem Ziel, die Gesamteinsatzkosten zu minimieren. Dank zunehmendem technischen Fortschritt und sinkenden Technologiekosten ist das Interesse an mobilen Robotern für den Industrieeinsatz in den letzten Jahren stark gestiegen. Viele Arbeiten konzentrieren sich auf Probleme der Mobilität wie Selbstlokalisierung und Kartierung, aber nur wenige Arbeiten untersuchen die optimale Aufgabenverteilung. Da sich mit einer guten Aufgabenverteilung eine effizientere Planung erreichen lässt (z. B. niedrigere Kosten, kürzere Ausführungszeit), ist das Ziel dieser Arbeit die Entwicklung von Lösungsmethoden für das aus Inspektionsaufgaben mit Einzel- und Zweiroboteraufgaben folgende Such-/Optimierungsproblem. Ein neuartiger hybrider Genetischer Algorithmus wird vorgestellt, der einen teilbevölkerungbasierten Genetischen Algorithmus zur globalen Optimierung mit lokalen Suchheuristiken kombiniert. Zur Beschleunigung dieses Algorithmus werden auf die fittesten Individuen einer Generation lokale Suchoperatoren angewendet. Der vorgestellte Algorithmus verteilt die Aufgaben nicht nur einfach und legt den Ablauf fest, sondern er bildet auch temporäre Roboterverbünde für Zweiroboteraufgaben, wodurch räumliche und zeitliche Randbedingungen entstehen. Vier alternative Kodierungsstrategien werden für den vorgestellten Algorithmus entworfen: Teilaufgabenbasierte Kodierung: Hierdurch werden alle möglichen Lösungen abgedeckt, allerdings ist der Suchraum sehr groß. Aufgabenbasierte Kodierung: Zwei Möglichkeiten zur Zuweisung von Zweiroboteraufgaben wurden implementiert, um die Effizienz des Algorithmus zu steigern. Gruppierungsbasierte Kodierung: Zeitliche Randbedingungen zur Gruppierung von Aufgaben werden vorgestellt, um gute Lösungen innerhalb einer kleinen Anzahl von Generationen zu erhalten. Zwei Umsetzungsvarianten werden vorgestellt. Dekompositionsbasierte Kodierung: Drei geometrische Zerlegungen wurden entworfen, die Informationen über die räumliche Anordnung ausnutzen, um Probleme zu lösen, die Inspektionsgebiete mit rechteckigen Geometrien aufweisen. In Simulationsstudien wird die Leistungsfähigkeit der verschiedenen hybriden Genetischen Algorithmen untersucht. Dazu wurde die Inspektion von Tanklagern einer Erdölraffinerie mit einer Gruppe homogener Inspektionsroboter als Anwendungsfall gewählt. Die Simulationen zeigen, dass Kodierungsstrategien, die auf der geometrischen Zerlegung basieren, bei einer kleinen Anzahl an Generationen eine bessere Lösung finden können als die anderen untersuchten Strategien. Diese Arbeit beschäftigt sich mit Einzel- und Zweiroboteraufgaben, die entweder von einem einzelnen mobilen Roboter erledigt werden können oder die Zusammenarbeit von zwei Robotern erfordern. Eine Erweiterung des entwickelten Algorithmus zur Behandlung von Aufgaben, die mehr als zwei Roboter erfordern, ist möglich, würde aber die Komplexität der Optimierungsaufgabe deutlich vergrößern.