70 resultados para Ansätze


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Zeichnung ist als künstlerisch-ästhetisches Medium nach wie vor ein gern und umfangreich genutztes Ausdrucksmittel in der Schule. Von kunstpädagogischer Warte aus wurde die Zeichnung je nach historischem Kontext als Mittel zur Disziplinierung und Erziehung zur Präzision oder aber zur Befreiung der kindlichen Kreativität betrachtet. Ideologische Färbungen unterschiedlicher (geistes-)geschichtlicher Zusammenhänge haben hierbei pädagogische Herangehensweisen an das Medium bestimmt und beeinflussen die Theoriebildung bis heute. Ausgehend von historischen Brüchen in der kunstpädagogischen Fachgeschichte erkundet die Arbeit den Umgang mit der Zeichnung im Jugendalter sowohl unter einer entwicklungspsychologischen wie auch einer künstlerisch-psychologischen Perspektive. Die Jugendzeichnung ist ein Forschungsgebiet, das vor allem in jüngster Zeit (vgl. u.a. Glas, 1999; Kirchner et al., 2010) verstärkt hervorgehoben wird. Im Vergleich zur Kinderzeichnung, die spätestens seit der Kunsterzieherbewegung um 1900 große Aufmerksamkeit erhielt, fristet die Jugendzeichnung ein bescheidenes Dasein in kunstpädagogischen Forschungsfeldern. Aktuelle Ansätze klammern die künstlerische Signifikanz des Mediums weitgehend zugunsten der pädagogisch-psychologischen Aspekte aus. In dieser Lücke setzt die Arbeit an: Nach einer Diskussion der historischen und entwicklungspsychologischen Hintergründe werden geistesgeschichtliche Umbrüche in der Kunst um 1960 diskutiert und wie diese die künstlerische Verhandlung der Zeichnung prägten. Diese Überlegungen kulminieren in einer ausführlichen Diskussion der Spieltheorie Lehnerers (1994) und machen so vor einem künstlerischen Hintergrund einer theoretische Herangehensweise an die Jugendzeichnung fruchtbar. Anhand der Diskussion des kunstpädagogischen „Lernsubjekts“ (Selle) und der Konzeption des „dividuellen Subjekts“ (Maset) wird die Grundlage für die Zusammenführung von Kunst und Subjekt hergestellt, was im letzten Teil in pädagogischen Reflexionen mündet. Hierbei werden unterrichtliche Ansätze diskutiert und gegenwärtige Praxisvorstellungen untersucht. Die Arbeit schließt mit der Implementierung der Spieltheorie Lehnerers in die kunstpädagogische Theoriebildung im Zusammenhang mit der Jugendzeichnung.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Doktorarbeit wird eine akkurate Methode zur Bestimmung von Grundzustandseigenschaften stark korrelierter Elektronen im Rahmen von Gittermodellen entwickelt und angewandt. In der Dichtematrix-Funktional-Theorie (LDFT, vom englischen lattice density functional theory) ist die Ein-Teilchen-Dichtematrix γ die fundamentale Variable. Auf der Basis eines verallgemeinerten Hohenberg-Kohn-Theorems ergibt sich die Grundzustandsenergie Egs[γgs] = min° E[γ] durch die Minimierung des Energiefunktionals E[γ] bezüglich aller physikalischer bzw. repräsentativer γ. Das Energiefunktional kann in zwei Beiträge aufgeteilt werden: Das Funktional der kinetischen Energie T[γ], dessen lineare Abhängigkeit von γ genau bekannt ist, und das Funktional der Korrelationsenergie W[γ], dessen Abhängigkeit von γ nicht explizit bekannt ist. Das Auffinden präziser Näherungen für W[γ] stellt die tatsächliche Herausforderung dieser These dar. Einem Teil dieser Arbeit liegen vorausgegangene Studien zu Grunde, in denen eine Näherung des Funktionals W[γ] für das Hubbardmodell, basierend auf Skalierungshypothesen und exakten analytischen Ergebnissen für das Dimer, hergeleitet wird. Jedoch ist dieser Ansatz begrenzt auf spin-unabhängige und homogene Systeme. Um den Anwendungsbereich von LDFT zu erweitern, entwickeln wir drei verschiedene Ansätze zur Herleitung von W[γ], die das Studium von Systemen mit gebrochener Symmetrie ermöglichen. Zuerst wird das bisherige Skalierungsfunktional erweitert auf Systeme mit Ladungstransfer. Eine systematische Untersuchung der Abhängigkeit des Funktionals W[γ] von der Ladungsverteilung ergibt ähnliche Skalierungseigenschaften wie für den homogenen Fall. Daraufhin wird eine Erweiterung auf das Hubbardmodell auf bipartiten Gittern hergeleitet und an sowohl endlichen als auch unendlichen Systemen mit repulsiver und attraktiver Wechselwirkung angewandt. Die hohe Genauigkeit dieses Funktionals wird aufgezeigt. Es erweist sich jedoch als schwierig, diesen Ansatz auf komplexere Systeme zu übertragen, da bei der Berechnung von W[γ] das System als ganzes betrachtet wird. Um dieses Problem zu bewältigen, leiten wir eine weitere Näherung basierend auf lokalen Skalierungseigenschaften her. Dieses Funktional ist lokal bezüglich der Gitterplätze formuliert und ist daher anwendbar auf jede Art von geordneten oder ungeordneten Hamiltonoperatoren mit lokalen Wechselwirkungen. Als Anwendungen untersuchen wir den Metall-Isolator-Übergang sowohl im ionischen Hubbardmodell in einer und zwei Dimensionen als auch in eindimensionalen Hubbardketten mit nächsten und übernächsten Nachbarn. Schließlich entwickeln wir ein numerisches Verfahren zur Berechnung von W[γ], basierend auf exakten Diagonalisierungen eines effektiven Vielteilchen-Hamilton-Operators, welcher einen von einem effektiven Medium umgebenen Cluster beschreibt. Dieser effektive Hamiltonoperator hängt von der Dichtematrix γ ab und erlaubt die Herleitung von Näherungen an W[γ], dessen Qualität sich systematisch mit steigender Clustergröße verbessert. Die Formulierung ist spinabhängig und ermöglicht eine direkte Verallgemeinerung auf korrelierte Systeme mit mehreren Orbitalen, wie zum Beispiel auf den spd-Hamilton-Operator. Darüber hinaus berücksichtigt sie die Effekte kurzreichweitiger Ladungs- und Spinfluktuationen in dem Funktional. Für das Hubbardmodell wird die Genauigkeit der Methode durch Vergleich mit Bethe-Ansatz-Resultaten (1D) und Quanten-Monte-Carlo-Simulationen (2D) veranschaulicht. Zum Abschluss wird ein Ausblick auf relevante zukünftige Entwicklungen dieser Theorie gegeben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Laut dem Statistischen Bundesamts ist die Zahl der im Straßenverkehr getöteten Personen zwar rückläufig, jedoch wurden in 2010 in Deutschland noch immer 3648 Personen bei Unfällen im Straßenverkehr getötet, 476 davon waren Fußgänger. In den letzten Dekaden lag der Schwerpunkt der Forschungsarbeiten zur Reduzierung der Verkehrstoten besonders im Bereich des Insassenschutzes. Erst in den letzten Jahren rückte die Thematik des Fußgängerschutzes mehr in den Fokus des öffentlichen Interesses und der Automobilhersteller. Forschungsarbeiten beschäftigen sich mit unterschiedlichen Ansätzen die Folgen einer Kollision zwischen einem Auto und einem Fußgänger zu reduzieren. Hierzu zählen z.B. weiche Aufprallzonen im Frontbereich eines Autos, aufstellende Motorhaube oder auch Fußgängerairbags im Bereich der Frontscheibe. Da passive Ansätze aber nur die Folgen eines Aufpralls am Fahrzeug, nicht aber die Folgen eines Sekundäraufpralls auf dem Boden verringern können, werden parallel Ansätze zur aktiven Kollisionsvermeidung untersucht. Die bisher verfolgten, ebenso wertvollen Ansätze, zeigen jedoch jeweils Schwachpunkte in Ihrer Lösung. So ist der Einsatz der bisherigen bordautonomen Ansätze auf Grund der Anforderungen der verschiedenen Systeme, wie der Notwendigkeit einer direkten, ungestörten Sichtverbindung zwischen Auto und Fußgänger, leider nur eingeschränkt möglich. Kooperative Systeme, die ein zusätzliches, vom Fußgänger mitzuführendes Sende-Empfänger Gerät zur Ermittlung der Fußgängerposition benötigen sind hingegen mit zusätzlichem Aufwand für den Fußgänger verbunden. Auch fehlen den bisher verfolgten Ansätzen Informationen über den Fußgänger, wodurch es schwierig ist, wenn nicht gar manchmal unmöglich, eine Situation korrekt bewerten zu können. Auch sehen diese Systeme keine Warnung des Fußgängers vor. In dieser Arbeit wird ein Verfahren zum Fußgängerschutz betrachtet, welches per Funk ausgetauschte Informationen zur Risikobewertung eines Szenarios nutzt. Hierbei werden neben den vom Auto bekannten Informationen und Parameter, die vom Smartphone des Fußgängers zur Verfügung gestellten Kontextinformationen verwendet. Es werden zum einen die Parameter, Bedingungen und Anforderungen analysiert und die Architektur des Systems betrachtet. Ferner wird das Ergbnis einer Untersuchung zur generellen Umsetzbarkeit mit bereits heute in Smartphone verfügbaren Funktechnolgien vorgestellt. Final werden die bereits vielversprechenden Ergebnisse eines ersten Experiments zur Nutzbarkeit von Sensorinformationen des Smartphones im Bereich der Kollisionsvermeidung vorgestellt und diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Heutzutage haben selbst durchschnittliche Computersysteme mehrere unabhängige Recheneinheiten (Kerne). Wird ein rechenintensives Problem in mehrere Teilberechnungen unterteilt, können diese parallel und damit schneller verarbeitet werden. Obwohl die Entwicklung paralleler Programme mittels Abstraktionen vereinfacht werden kann, ist es selbst für Experten anspruchsvoll, effiziente und korrekte Programme zu schreiben. Während traditionelle Programmiersprachen auf einem eher geringen Abstraktionsniveau arbeiten, bieten funktionale Programmiersprachen wie z.B. Haskell, Möglichkeiten zur fortgeschrittenen Abstrahierung. Das Ziel der vorliegenden Dissertation war es, zu untersuchen, wie gut verschiedene Arten der Abstraktion das Programmieren mit Concurrent Haskell unterstützen. Concurrent Haskell ist eine Bibliothek für Haskell, die parallele Programmierung auf Systemen mit gemeinsamem Speicher ermöglicht. Im Mittelpunkt der Dissertation standen zwei Forschungsfragen. Erstens wurden verschiedene Synchronisierungsansätze verglichen, die sich in ihrem Abstraktionsgrad unterscheiden. Zweitens wurde untersucht, wie Abstraktionen verwendet werden können, um die Komplexität der Parallelisierung vor dem Entwickler zu verbergen. Bei dem Vergleich der Synchronisierungsansätze wurden Locks, Compare-and-Swap Operationen und Software Transactional Memory berücksichtigt. Die Ansätze wurden zunächst bezüglich ihrer Eignung für die Synchronisation einer Prioritätenwarteschlange auf Basis von Skiplists untersucht. Anschließend wurden verschiedene Varianten des Taskpool Entwurfsmusters implementiert (globale Taskpools sowie private Taskpools mit und ohne Taskdiebstahl). Zusätzlich wurde für das Entwurfsmuster eine Abstraktionsschicht entwickelt, welche eine einfache Formulierung von Taskpool-basierten Algorithmen erlaubt. Für die Untersuchung der Frage, ob Haskells Abstraktionsmethoden die Komplexität paralleler Programmierung verbergen können, wurden zunächst stencil-basierte Algorithmen betrachtet. Es wurde eine Bibliothek entwickelt, die eine deklarative Beschreibung von stencil-basierten Algorithmen sowie ihre parallele Ausführung erlaubt. Mit Hilfe dieses deklarativen Interfaces wurde die parallele Implementation vollständig vor dem Anwender verborgen. Anschließend wurde eine eingebettete domänenspezifische Sprache (EDSL) für Knoten-basierte Graphalgorithmen sowie eine entsprechende Ausführungsplattform entwickelt. Die Plattform erlaubt die automatische parallele Verarbeitung dieser Algorithmen. Verschiedene Beispiele zeigten, dass die EDSL eine knappe und dennoch verständliche Formulierung von Graphalgorithmen ermöglicht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Betriebliche Anti-Stress-Strategien zur Motivationsförderung und Leistungssteigerung von Arbeitnehmern und Arbeitnehmerinnen setzt sich mit Maßnahmen zur Stressverhütung in Unternehmen auseinander. Die Diplomarbeit wurde bereits im Jahr 1997 verfasst, als der Bereich betriebliche Gesundheitsförderung noch in der Anfangsphase stand. Bis zum heutigen Tag, also knapp 15 Jahre nach verfassen dieser Arbeit hat der Inhalt höchsten Aktualitätsgehalt. Es wird hierin der Stressbegriff, inkl. Ursachenforschung diesbezüglich beleuchtet, sogegannte Live-Events (als einschneidende Lebensereignisse), die Bewertung individueller Stressoren sowie die Begriffe Hypostress und Hyperstress, akute Stressreaktionen und Langzeitfolgen von Stress. Im empirischen Teil dieser Arbeit werden sogenannte Anti-Stress-Strategien vorgestellt, die Notwendigkeit von Stressmanagement in Betrieben diskutiert sowie Ansätze für die praktische Realisierung aufgezeigt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Forschungsverbund ‚Stadt 2030‘ mit einer Laufzeit von etwa vier Jahren zwischen 2000 und 2004, mit seinen 21 Teilprojekten, mit über 350 Mitarbeiterinnen und Mitarbeitern aus allen Bereichen der Stadtforschung, aus kommunalen Verwaltungen und Kommunalpolitik sowie mit seinem Etat von ca. 18 Mio. Euro gilt bis heute vielfach als umfangreichstes Stadtforschungsprojekt in der deutschen Geschichte. Er hatte zum Ziel, in einer engen Kooperation zwischen Kommunalverwaltungen und wissenschaftlichen Einrichtungen Zukunftskonzeptionen und Leitbilder für Städte und Regionen zu formulieren, deren Perspektive über drei Jahrzehnte reicht. In der Dissertation wird der Frage nachgegangen, wie sich der spezifische Untersuchungsansatz des Forschungsverbundes ‚Stadt 2030‘ auf die Suche nach räumlichen Entwicklungsperspektiven in schrumpfenden Städten und Regionen ausgewirkt hat. Es geht dabei zum einen um eine speziell auf den Aspekt der Schrumpfungsprozesse fokussierende, rekonstruierende Analyse der Ergebnisse von ‚Stadt 2030‘, da diese bislang weder durch die Forschungsbegleitung noch durch andere Akteure der planungswissenschaftlichen Forschung vorgenommen wurde. Dabei wird einerseits untersucht, mit welchen Forschungsansätzen, methodischen Herangehensweisen und Fragestellungen sich der Forschungsverbund sowie die einzelnen Teilprojekte dem Thema der räumlichen Schrumpfungsprozesse genähert haben. In einem weiteren Schritt wird herausgearbeitet, welche planerischen, politischen und ggfs. auch zivilgesellschaftlichen Ansätze in den Projekten entstanden sind, um den Schrumpfungsprozessen zu begegnen. Andererseits wird auch analysiert, inwieweit das in den Projekten angewandte methodische Werkzeug und die Auswahl der einbezogenen Akteure geeignet waren, Ergebnisse zu erzielen, die den spezifischen Bedingungen in schrumpfenden Städten und Regionen Rechnung tragen. Auf einer anderen Untersuchungsebene geht es darum, zu analysieren, inwieweit die mit dem Forschungsverbund insgesamt und in den Teilprojekten erarbeiteten Ergebnisse für eine Implementierung in die langfristige Stadtentwicklungsplanung und -politik geeignet (bzw. überhaupt vorgesehen) sind und in welchem Maße eine solche Operationalisierung bislang erfolgt ist. Dabei steht einerseits die Frage im Vordergrund, welche Potenziale und Chancen mit der Erarbeitung und Umsetzung langfristiger Zukunftskonzepte für die Entwicklung schrumpfender Städte und Regionen verbunden sind, andererseits werden auch die Hemmnisse und Grenzen deutlich, die bei dem Versuch, Schrumpfungsprozesse langfristig zu steuern, berücksichtigt werden müssen. Die Ergebnisse der Dissertation fußen auf einer ausführlichen und detaillierten Analyse von vier Fallstudien, die in einem komplexen Auswahlverfahren aus der Gesamtheit der 21 Teilprojekte des Forschungsverbundes ausgewählt wurden. Es handelt sich dabei um die Teilprojekte in Eisenhüttenstadt (Brandenburg), in Guben / Gubin (Brandenburg / Polen), in der Region Braunschweig (Niedersachsen) und im Raum Schwalm-Eder-West (Hessen). Der Schwerpunkt der methodischen Herangehensweise lag auf der Durchführung und Auswertung von Experteninterviews mit den Projektbearbeitern der ausgewählten Fallstudien.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit ist die zentrale Frage, warum dicistronische mRNAs, eine für Eukaryoten untypische Organisation, existieren und wie die Translation des zweiten offenen Leserasters initiiert wird. In sieben von neun anfänglich ausgewählten Genkassetten werden tatsächlich nur dicistronische und keine monocistronischen Transkripte gebildet. Im Laufe der Evolution scheint diese Organisation nicht immer erhalten zu bleiben - es finden sich Hinweise für einen operonartigen Aufbau. Nach Transformation mit einem dicistronischen Reporterkonstrukt und in in vitro Translations-Assays weisen die beiden Genkassetten CG31311 und CG33009 eine interne ribosomale Eintrittstelle (IRES) auf, welche die Translation des zweiten Cistrons einleiten kann. Diese beiden IRESs lassen sich in einen Bereich von unter 100 nt eingrenzen. Die Funktionalität der beiden nachgewiesenen IRESs konnte in vivo in der männlichen Keimbahn von Drosophila bestätigt werden, nachdem das Vorhandensein von kryptischen Promotoren in diesen Bereichen ausgeschlossen wurde. Die anderen fünf Genkassetten hingegen zeigen keine IRES-Aktivität und nutzen wahrscheinlich alternative Methoden wie das leaky scanning oder ribosomal shunting zur Translation des zweiten Cistrons. In weiterführenden Analysen wurden sehr komplexe Expressionsmuster beobachtet, die nicht offensichtlich mit der beschriebenen mRNA Organisation in Einklang zu bringen sind. Bei der Genkassette CG33009 zum Beispiel wird das erste Protein während der gesamten Spermatogenese in den Keimzellen synthetisiert, wohingegen das zweite IRES-abhängig translatierte Protein in den die Keimzellen umschließenden Cystenzellen und zusätzlich in den elongierten Spermatiden auftritt. Diese zusätzliche Expression könnte auf Transportprozessen oder Neusynthese beruhen. Die Cystenzell-spezische Expression eines Fusionskonstruktes führte jedoch nicht zum Nachweis des Fusionsproteins in den Keimzellen. Somit ist eine durch die IRES-vermittelte Neusynthese in den elongierten Spermatiden wahrscheinlicher. Ein Verlust dieses IRES-abhängig translatierten Proteins in den Cystenzellen bringt die Spermatogenese zum Erliegen und belegt somit dessen essentielle Funktion. Bei der Genkassette CG31311 kommt es auch zu einer bemerkenswerten Auffälligkeit in der Expression. Während im Hodengewebe große Mengen an Transkript vorhanden sind, die aber nicht zu nachweisbaren Mengen an Protein führen, lässt sich in den Ommatidien ein differenziertes Expressionsmuster für beide Proteine dokumentieren, obwohl die Transkriptmenge hier unterhalb der Nachweisgrenze liegt. Diese Beobachtung suggeriert eine drastische Kontrolle auf Translationsebene, die für das Hodengewebe zum Beispiel in einer Verzögerung der Translation bis nach der Befruchtung bestehen könnte (paternale mRNA). Erste Ansätze zeigen die Interaktion der IRES von CG33009 mit RNA-bindenden Proteinen, potentiellen ITAFs (IRES trans-acting factors), deren Bindung sequenzspezisch erfolgt. In weiteren Experimenten wäre zu testen, ob die hier identifizierten IRESs mit den gleichen oder mit unterschiedlichen Proteinen interagieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Eine effektive, effiziente und wirkungsorientierte kommunalpolitische Arbeit stellt hohe Anforderungen an Politik und Verwaltung. Trotz zahlreicher erfolgsversprechender Ansätze ist der aktuelle Status quo ernüchternd. Schwerpunkt der Dissertation ist deshalb die Entwicklung eines praxistauglichen Konzeptes zur Integration der strategischen Planung in die Haushaltsplanung einer Kommune mit dem Ziel einer nachhaltigen Verbesserung der strategischen Steuerung. Eine ergänzende ökonomische Funktionsanalyse von beteiligten Rechtsfiguren erweitert dabei die klassisch wirtschaftstheoretische Betrachtungsweise um sozialwissenschaftliche Aspekte, die im Zusammenspiel von Institutionen eine wichtige Rolle spielen. Der konzipierte Ansatz kommt, durch die Fokussierung auf das öffentliche Interesse, einem partizipativen und transparenten Idealbild von Steuerung im kommunalen Bereich auf der Basis der New Public Management Bewegung sehr nahe und könnte helfen der verstärkt festzustellenden Politikverdrossenheit entgegen zu wirken.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Arbeitsbedingte Gesundheitsrisiken und deren Folgen stellen eine volkswirtschaftliche Störung dar und führen zu erheblichen Kosten in der gesamten Volkswirtschaft. Arbeitsunfälle und Berufskrankheiten mindern sowohl das Wohlbefinden der Betroffenen als auch die Wohlfahrt der gesamten Volkswirtschaft. Um die Arbeitssicherheit zu gewährleisten ist es daher die Aufgabe des Staates, richtige Rahmenbedingungen der wirtschaftlichen Tätigkeit zu schaffen und effektive Präventions- und Kompensationsmaßnahmen gegen arbeitsbedingte Gesundheitsrisiken zu entwickeln. Hauptzweck eines staatlichen Absicherungssystems gegen Arbeitsunfälle und Berufskrankheiten sollte sowohl eine effektive Prävention von Unfällen sein als auch die Gewährleistung einer angemessenen Entschädigung für den verunfallten Arbeitnehmer. Hinsichtlich der Prävention ist zu prüfen, welche Wirkung von dem Absicherungssystem für die Unfallverhütung ausgeht und wie dessen Vor- und Nachteile zu bewerten sind. Bezüglich der Kompensation soll klargestellt werden, in welchem Umfang Entschädigungsleistungen innerhalb des Absicherungssystems gewährleistet werden sollen, um den entstandenen Schaden des Arbeitnehmers ausreichend zu kompensieren. Im Rahmen dieser Zweckbestimmung spielt die gesetzliche Unfallversicherung, die ein soziales Absicherungssystem gegen Arbeitsunfällen und Berufskrankheiten ist, eine wichtige Rolle. Diese Arbeit befasst sich mit einer rechtsvergleichenden Untersuchung des gegenwärtig geltenden Unfallversicherungsrechts in Deutschland und Korea. Sinn und Zweck der hier angestellten rechtsvergleichende Untersuchung ist es durch eine kritische Analyse und eine Gegenüberstellung mit dem deutschen Recht, Ansätze einer effizienteren Gestaltung und Reformoptionen für das in Korea bestehende gesetzliche Unfallversicherungssystem herauszuarbeiten. In diesem Zusammenhang wird das Recht der deutschen und koreanischen gesetzlichen Unfallversicherung mithilfe verschiedener Kategorien verglichen. Dabei werden Grundgedanken, die Rechtsnatur sowie Präventions-, Rehabilitations- und Kompensationsfunktionen des jeweiligen Unfallversicherungssystems untersucht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mit Hilfe der Vorhersage von Kontexten können z. B. Dienste innerhalb einer ubiquitären Umgebung proaktiv an die Bedürfnisse der Nutzer angepasst werden. Aus diesem Grund hat die Kontextvorhersage einen signifikanten Stellenwert innerhalb des ’ubiquitous computing’. Nach unserem besten Wissen, verwenden gängige Ansätze in der Kontextvorhersage ausschließlich die Kontexthistorie des Nutzers als Datenbasis, dessen Kontexte vorhersagt werden sollen. Im Falle, dass ein Nutzer unerwartet seine gewohnte Verhaltensweise ändert, enthält die Kontexthistorie des Nutzers keine geeigneten Informationen, um eine zuverlässige Kontextvorhersage zu gewährleisten. Daraus folgt, dass Vorhersageansätze, die ausschließlich die Kontexthistorie des Nutzers verwenden, dessen Kontexte vorhergesagt werden sollen, fehlschlagen könnten. Um die Lücke der fehlenden Kontextinformationen in der Kontexthistorie des Nutzers zu schließen, führen wir den Ansatz zur kollaborativen Kontextvorhersage (CCP) ein. Dabei nutzt CCP bestehende direkte und indirekte Relationen, die zwischen den Kontexthistorien der verschiedenen Nutzer existieren können, aus. CCP basiert auf der Singulärwertzerlegung höherer Ordnung, die bereits erfolgreich in bestehenden Empfehlungssystemen eingesetzt wurde. Um Aussagen über die Vorhersagegenauigkeit des CCP Ansatzes treffen zu können, wird dieser in drei verschiedenen Experimenten evaluiert. Die erzielten Vorhersagegenauigkeiten werden mit denen von drei bekannten Kontextvorhersageansätzen, dem ’Alignment’ Ansatz, dem ’StatePredictor’ und dem ’ActiveLeZi’ Vorhersageansatz, verglichen. In allen drei Experimenten werden als Evaluationsbasis kollaborative Datensätze verwendet. Anschließend wird der CCP Ansatz auf einen realen kollaborativen Anwendungsfall, den proaktiven Schutz von Fußgängern, angewendet. Dabei werden durch die Verwendung der kollaborativen Kontextvorhersage Fußgänger frühzeitig erkannt, die potentiell Gefahr laufen, mit einem sich nähernden Auto zu kollidieren. Als kollaborative Datenbasis werden reale Bewegungskontexte der Fußgänger verwendet. Die Bewegungskontexte werden mittels Smartphones, welche die Fußgänger in ihrer Hosentasche tragen, gesammelt. Aus dem Grund, dass Kontextvorhersageansätze in erster Linie personenbezogene Kontexte wie z.B. Standortdaten oder Verhaltensmuster der Nutzer als Datenbasis zur Vorhersage verwenden, werden rechtliche Evaluationskriterien aus dem Recht des Nutzers auf informationelle Selbstbestimmung abgeleitet. Basierend auf den abgeleiteten Evaluationskriterien, werden der CCP Ansatz und weitere bekannte kontextvorhersagende Ansätze bezüglich ihrer Rechtsverträglichkeit untersucht. Die Evaluationsergebnisse zeigen die rechtliche Kompatibilität der untersuchten Vorhersageansätze bezüglich des Rechtes des Nutzers auf informationelle Selbstbestimmung auf. Zum Schluss wird in der Dissertation ein Ansatz für die verteilte und kollaborative Vorhersage von Kontexten vorgestellt. Mit Hilfe des Ansatzes wird eine Möglichkeit aufgezeigt, um den identifizierten rechtlichen Probleme, die bei der Vorhersage von Kontexten und besonders bei der kollaborativen Vorhersage von Kontexten, entgegenzuwirken.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die neotropisch verbreitete Unterfamilie der Pitcairnioideae (Bromeliaceae) besteht aus den Gattungen Dyckia, Deuterocohnia, Encholirium, Fosterella und Pitcairnia. Viele der mehr als 630 Arten dieser Unterfamilie weisen eine beträchtliche morphologische Plastizität auf, was oftmals eine sichere Artbestimmung erschwert. Um den Genfluss zwischen benachbarten Populationen bzw. nah verwandten Arten ermitteln zu können und somit mögliche Hinweise auf Artbildungsprozesse und Artabgrenzung zu erhalten, sind hochsensitive molekulare Marker erforderlich. Die vorliegende Dissertation beschäftigt sich schwerpunktmäßig mit der Entwicklung von Mikrosatellitenmarkern sowie ihre beispielhafte Anwendung für populationsgenetische Fragestellungen innerhalb der Pitcairnioideae. Als Quelle für diese Marker diente zum einen eine öffentliche ’expressed sequence tag’ (EST)-Datenbank von Ananas comosus, zum anderen wurden die drei Bromelienarten Fosterella rusbyi, Dyckia marnier-lapostollei und Deuterocohnia longipetala mittels der 454-Technik partiell sequenziert. Beide Ansätze lieferten insgesamt 164.137 Rohsequenzen, auf deren Basis einige tausend perfekte Mikrosatelliten identifiziert und zahlreiche flankierende PCR-Primerpaare sowohl für das Kern- als auch das Chloroplastengenom abgeleitet wurden. Nach umfangreichen Funktionalitätstests mit Fokus auf interspezifischer Übertragbarkeit sowie intraspezifischer Variabilität der Mikrosatellitenloci in der jeweiligen Zielart wurden schließlich 48 nukleäre und sieben plastidäre Mikrosatellitenmarker etabliert. Das Potenzial der nukleären Mikrosatellitenmarker zur Abgrenzung nah verwandter und morphologisch sehr ähnlicher Arten innerhalb der Pitcairnioideae wurde zum einen in den im Nordosten Brasiliens verbreiteten Arten Dyckia pernambucana, Dy. limae, Dy. dissitiflora und Dy. macedoi durch die Genotypisierung von insgesamt 89 Individuen von neun natürlichen Standorten überprüft. Hierbei konnte basierend auf den Alleldaten an 15 nukleären 454-Mikrosatellitenloci eindeutig zwischen dem Artenkomplex ’Dy. limae/Dy. pernambucana’ auf der einen Seite und Dy. dissitiflora bzw. Dy. macedoi auf der anderen Seite unterschieden werden, eine Abtrennung der Arten Dy. limae und Dy. pernambucana war hingegen mit keiner der verwendeten Auswertemethoden möglich, was darauf hindeutet, dass es sich hierbei nicht um getrennte Arten handelt. Zum anderen wurden 190 Individuen von 28 natürlichen Standorten der in Bolivien bzw. Zentralamerika heimischen und morphologisch sehr ähnlichen Arten Fosterella christophii, F. villosula und F. micrantha untersucht. Unter Verwendung von je vier nukleären EST- und 454-Mikrosatellitenmarkern und verschiedenen Clusteranalysen konnten zwei genetisch voneinander getrennte und geographisch determinierte Gruppen definiert werden. Dabei umfasste die größere der beiden Gruppen alle drei Arten, deren Siedlungsbereich neben einem Areal in den bolivianischen Departamentos Beni, La Paz und Cochabamba auch das gesamte Verbreitungsgebiet von F. micrantha in Zentralamerika beinhaltete. Die zweite, kleinere Gruppe enthielt nur Populationen von F. christophii und F. villosula und war auf eine relativ kleine Region im bolivianischen Departamento Santa Cruz beschränkt. Innerhalb von Bolivien liegt dieser Verteilung möglicherweise eine genetische Barriere im Bereich des Andenknicks zugrunde, infolge welcher alle Populationen südlich und nördlich dieser Region weitgehend unabhängig von ihrer Artzugehörigkeit gruppieren. Eine klare Trennung der drei Arten war nicht möglich, sodass davon ausgegangen werden kann, dass der Artbildungsprozess innerhalb der sog. ’micrantha-Gruppe’ noch keineswegs abgeschlossen ist. In einem dritten Ansatz wurden 15 nukleäre und sieben plastidäre Mikrosatellitenmarker zur Genotypisierung von 253 Individuen aus 30 natürlichen Populationen von Fosterella rusbyi eingesetzt. Damit sollte die Verteilung der genetischen Diversität und der Genfluss zwischen den Populationen dieser in den bolivianischen Anden inselartig verbreiteten Art untersucht werden. Die einzelnen Populationen erwiesen sich als genetisch deutlich voneinander differenziert, wobei nahezu jede Population durch eine individuelle Kombination von Genotypen charakterisiert war. Auf Ebene der Populationen wurde weiterhin ein deutliches Heterozygoten-Defizit über nahezu alle Loci ermittelt, was am ehesten durch Faktoren wie Inzucht und Selbstbestäubung in Kombination mit einer Tendenz zu klonalem Wachstum erklärt werden kann. Mögliche Gründe für den eingeschränkten Genfluss zwischen den Populationen werden diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wir leben in einer schnelllebigen unsicheren Welt. In einer Welt, in der fast jede Person schon einmal ein Gefühl von Wertlosigkeit und Ausgrenzung verspürt hat. Im vorliegenden an einer Schnittstelle zwischen Soziologie und Psychologie lokalisierten Dissertationsprojekt wird sich mit eben diesem aversiven Empfinden, sozial sowie gesellschaftlich überflüssig und ausgeschlossen zu sein, in Entstehung und möglichen Auswirkungen auseinandergesetzt. Dafür wurden eine deutschlandweite Telefon- und zwei experimentelle Laborstudien durchgeführt. Die theoretische und empirische Basis der Arbeit bilden soziologische Ansätze wie die Theorie der Desintegration (Anhut & Heitmeyer, 2000, 2009), psychologische Modelle wie das "Need-Threat"-Modell sozialer Ausgrenzung (Williams, 2009) und interdisziplinäre sozialwissenschaftliche Studien (Bude & Lantermann, 2006; Heitmeyer, 2002-2012; Lantermann, Döring-Seipel, Eierdanz & Gerhold, 2009). Die Befunde der Telefonstudie zeigen, dass die individuelle Wahrnehmung und Empfindung nicht unweigerlich vorhandene objektiv prekäre Lebenslagen akkurat spiegelt. So können ausgeprägte interne Ressourcen wie die des Kohärenzsinns einen positiven Effekt objektiver zum Beispiel finanzieller und/oder sozialer Prekarität auf subjektives soziales sowie gesellschaftliches Exklusionsempfinden abschwächen. Auch zeigte sich im experimentellen Kontext, dass induzierter sozialer Ausschluss nicht zu empfundener sozialer Exklusion führen muss. Als mögliche Auswirkungen empfundener sozialer und gesellschaftlicher Exklusion wurden ein Streben nach sozialem Anschluss über eine verstärkte Identifikation mit sozialen Eigengruppen wie der religiösen oder nationalen Eigengruppe (Telefonstudie, Laborstudie II) sowie ebenfalls aggressive feindselige Tendenzen über fremdenfeindliche oder antisemitische Haltungen (Telefonstudie) aufgedeckt. Weiterhin stellt generelle Selbstunsicherheit einen Mediator zwischen empfundener Exklusion und der sozialen Eigengruppenidentifikation über die nationale Eigengruppe dar (Telefonstudie). Ein Fokus des Dissertationsprojekts lag zudem auf einer ersten Untersuchung von Indikatoren eines kontrollbasierten Drei-Phasenmodells im Umgang mit subjektiv empfundener Exklusion (Telefonstudie, Laborstudie I). Basierend auf dem Modell kann ein Prozess empfundener Exklusion erstmalig empirisch analysiert werden, welcher sich auch in potenziellen Folgen wie einem erhöhten sozialen Anschlussstreben oder verstärkten aggressiven Tendenzen spiegeln sollte. Das Phasenmodell wurde aus den Theorien psychologischer Reaktanz (Brehm & Brehm, 1981), sekundärer Kontrolle (Rothbaum, Weisz & Snyder, 1982) und erlernter Hilflosigkeit (Seligman, 1975, 1992) abgeleitet. Aus den empirischen Befunden gezogene theoretische Schlussfolgerungen werden abschließend dargestellt und diskutiert. Zudem werden Hinweise für eine zukünftige Exklusionsforschung gegeben. So erscheint beispielsweise eine Differenzierung zwischen sozial und gesellschaftlich empfundener Exklusion auch hinsichtlich resultierender Gedanken, Gefühle und Verhaltensweisen für weitere sozialwissenschaftliche Untersuchungen interessant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thermografie hat sich als wichtiges Hilfsmittel für die Inspektion, Prüfung und Überwachung etabliert. Bei vielen Anwendungen ist eine einzelne Messung allein oft nicht aussagekräftig, z. B. weil Strukturen nicht deutlich genug wahrgenommen werden können, das Messobjekt größer als das Blickfeld der Optik ist oder sich Kenngrößen erst aus dem zeitlichen Verlauf von Messungen ergeben. Zudem erfasst der Bediener der Kamera mit seinen Sinnen und seiner Erfahrung noch viele weitere Einflussgrößen, die bei der Entscheidungsfindung berücksichtigt werden. Eine Automatisierung von Inspektionsaufgaben in unbekannten Umgebungen ist also sehr komplex. In dieser Arbeit werden daher verschiedene Sensordatenfusionsansätze untersucht, die in der Thermografie eingesetzt werden können. Das Ziel bei der Fusion ist dabei die Verbesserung der Qualität der Messung und die Vergrößerung der verfügbaren Menge an nutzbaren Informationen über ein Messobjekt. Die betrachteten Ansätze können entweder nur mit Messungen der Thermografiekamera durchgeführt werden: zur Rauschunterdrückung durch zeitliche Mittelwertbildung, zur Vergrößerung der Schärfentiefe durch Kombination von Aufnahmen mit unterschiedlichem Fokus, zur Vergrößerung der Dynamik (also des Temperaturmessbereichs) durch Kombination von Messungen mit unterschiedlichen Messbereichen und durch Veränderung von Filtereinstellungen zur Unterdrückung von Störungen und zum Ableiten von geometrischen Informationen und Oberflächeneigenschaften. Weiterhin kann durch Veränderung der Kameraausrichtung das Blickfeld vergrößert und die geometrische Auflösung verbessert werden. Die Datenfusion von Thermogrammen kann aber auch mit Daten von anderen bildgebenden Messgeräten durchgeführt werden. Betrachtet wird die Kombination mit normalen Kameras im sichtbaren Spektralbereich, Thermografiekameras in anderen Wellenlängenbereichen und Tiefenkameras/Entfernungsmessgeräten (3D-Scanner, Laserscanner). Dadurch lassen sich für einen Messpunkt mehr Informationen gewinnen und die Messdaten können geometrisch als 3D-Modelle interpretiert und analysiert werden. Die Vielzahl an Informationen soll eine solide Dokumentation und gute (automatische) Analyse ermöglichen. Neben den Grundlagen zur Thermografie, dem punktweisen Zusammenführen von Messdaten und den oben genannten Sensordatenfusionsansätzen, wird ein Anwendungsbeispiel gezeigt. Darin soll die Machbarkeit der automatisierten Inspektionsdurchführung und die Kombination und praktische Anwendung der verschiedenen Sensordatenfusionsansätze gezeigt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Einhergehend mit der Entwicklung und zunehmenden Verfügbarkeit des Internets hat sich die Art der Informationsbereitstellung und der Informationsbeschaffung deutlich geändert. Die einstmalige Trennung zwischen Publizist und Konsument wird durch kollaborative Anwendungen des sogenannten Web 2.0 aufgehoben, wo jeder Teilnehmer gleichsam Informationen bereitstellen und konsumieren kann. Zudem können Einträge anderer Teilnehmer erweitert, kommentiert oder diskutiert werden. Mit dem Social Web treten schließlich die sozialen Beziehungen und Interaktionen der Teilnehmer in den Vordergrund. Dank mobiler Endgeräte können zu jeder Zeit und an nahezu jedem Ort Nachrichten verschickt und gelesen werden, neue Bekannschaften gemacht oder der aktuelle Status dem virtuellen Freundeskreis mitgeteilt werden. Mit jeder Aktivität innerhalb einer solchen Applikation setzt sich ein Teilnehmer in Beziehung zu Datenobjekten und/oder anderen Teilnehmern. Dies kann explizit geschehen, indem z.B. ein Artikel geschrieben wird und per E-Mail an Freunde verschickt wird. Beziehungen zwischen Datenobjekten und Nutzern fallen aber auch implizit an, wenn z.B. die Profilseite eines anderen Teilnehmers aufgerufen wird oder wenn verschiedene Teilnehmer einen Artikel ähnlich bewerten. Im Rahmen dieser Arbeit wird ein formaler Ansatz zur Analyse und Nutzbarmachung von Beziehungsstrukturen entwickelt, welcher auf solchen expliziten und impliziten Datenspuren aufbaut. In einem ersten Teil widmet sich diese Arbeit der Analyse von Beziehungen zwischen Nutzern in Applikationen des Social Web unter Anwendung von Methoden der sozialen Netzwerkanalyse. Innerhalb einer typischen sozialen Webanwendung haben Nutzer verschiedene Möglichkeiten zu interagieren. Aus jedem Interaktionsmuster werden Beziehungsstrukturen zwischen Nutzern abgeleitet. Der Vorteil der impliziten Nutzer-Interaktionen besteht darin, dass diese häufig vorkommen und quasi nebenbei im Betrieb des Systems abfallen. Jedoch ist anzunehmen, dass eine explizit angegebene Freundschaftsbeziehung eine stärkere Aussagekraft hat, als entsprechende implizite Interaktionen. Ein erster Schwerpunkt dieser Arbeit ist entsprechend der Vergleich verschiedener Beziehungsstrukturen innerhalb einer sozialen Webanwendung. Der zweite Teil dieser Arbeit widmet sich der Analyse eines der weit verbreitetsten Profil-Attributen von Nutzern in sozialen Webanwendungen, dem Vornamen. Hierbei finden die im ersten Teil vorgestellten Verfahren und Analysen Anwendung, d.h. es werden Beziehungsnetzwerke für Namen aus Daten von sozialen Webanwendungen gewonnen und mit Methoden der sozialen Netzwerkanalyse untersucht. Mithilfe externer Beschreibungen von Vornamen werden semantische Ähnlichkeiten zwischen Namen bestimmt und mit jeweiligen strukturellen Ähnlichkeiten in den verschiedenen Beziehungsnetzwerken verglichen. Die Bestimmung von ähnlichen Namen entspricht in einer praktischen Anwendung der Suche von werdenden Eltern nach einem passenden Vornamen. Die Ergebnisse zu der Analyse von Namensbeziehungen sind die Grundlage für die Implementierung der Namenssuchmaschine Nameling, welche im Rahmen dieser Arbeit entwickelt wurde. Mehr als 35.000 Nutzer griffen innerhalb der ersten sechs Monate nach Inbetriebnahme auf Nameling zu. Die hierbei anfallenden Nutzungsdaten wiederum geben Aufschluss über individuelle Vornamenspräferenzen der Anwender. Im Rahmen dieser Arbeit werden diese Nutzungsdaten vorgestellt und zur Bestimmung sowie Bewertung von personalisierten Vornamensempfehlungen verwendet. Abschließend werden Ansätze zur Diversifizierung von personalisierten Vornamensempfehlungen vorgestellt, welche statische Beziehungsnetzwerke für Namen mit den individuellen Nutzungsdaten verknüpft.