284 resultados para Köln kann auch anders
Resumo:
Im Rahmen der Dichtefunktionaltheorie wurden Orbitalfunktionale wie z.B. B3LYP entwickelt. Diese lassen sich mit der „optimized effective potential“ – Methode selbstkonsistent auswerten. Während sie früher nur im 1D-Fall genau berechnet werden konnte, entwickelten Kümmel und Perdew eine Methode, bei der das OEP-Problem unter Verwendung einer Differentialgleichung selbstkonsistent gelöst werden kann. In dieser Arbeit wird ein Finite-Elemente-Mehrgitter-Verfahren verwendet, um die entstehenden Gleichungen zu lösen und damit Energien, Dichten und Ionisationsenergien für Atome und zweiatomige Moleküle zu berechnen. Als Orbitalfunktional wird dabei der „exakte Austausch“ verwendet; das Programm ist aber leicht auf jedes beliebige Funktional erweiterbar. Für das Be-Atom ließ sich mit 8.Ordnung –FEM die Gesamtenergien etwa um 2 Größenordnungen genauer berechnen als der Finite-Differenzen-Code von Makmal et al. Für die Eigenwerte und die Eigenschaften der Atome N und Ne wurde die Genauigkeit anderer numerischer Methoden erreicht. Die Rechenzeit wuchs erwartungsgemäß linear mit der Punktzahl. Trotz recht langsamer scf-Konvergenz wurden für das Molekül LiH Genauigkeiten wie bei FD und bei HF um 2-3 Größenordnungen bessere als mit Basismethoden erzielt. Damit zeigt sich, dass auf diese Weise benchmark-Rechnungen durchgeführt werden können. Diese dürften wegen der schnellen Konvergenz über der Punktzahl und dem geringen Zeitaufwand auch auf schwerere Systeme ausweitbar sein.
Resumo:
Die soziale Waldamöbe Dictystelium discoideum ist ein etablierter Modellorganismus zur Erforschung grundlegender zellbiologischer Prozesse. Innerhalb der letzten Jahre konnte dabei insbesondere das Wissen zum Lipidmetabolismus umfassend erweitert werden. In diesem Zusammenhang spielt besonders eine Enzymgruppe eine wichtige Rolle: die LC/VLC-Acyl-CoA-Synthetasen. Diese übernehmen dabei die Aufgabe Fettsäuren zu aktivieren, um sie so dem Zellmetabolismus überhaupt erst zugänglich zu machen. D. discoideum verfügt über insgesamt vier dieser Enzyme: FcsA, FcsB, FcsC und das Bubblegum-Enzym Acsbg1. Während die FcsA und FcsB bereits in vorangegangenen Arbeiten untersucht wurden, werden die FcsC und die Acsbg1 in dieser Arbeit erstmals biologisch charakterisiert. Untersuchungen zur subzellulären Lokalisation der Proteine zeigen, dass die meisten LC/VLC-Acyl-CoA-Synthetase auf Endosomen und im Cytoplasma gefunden werden können (FcsA, FcsC und Acsbg1), während die FcsB als Transmembranprotein über das ER zu den Peroxisomen transportiert wird. Die Acsbg1 akkumuliert dabei zusätzlich an der Plasmamembran. Funktionell konnte gezeigt werden, dass neben der FcsA auch die Acsbg1 an der Bereitstellung von Acyl-CoA für Triacylglyceridsynthese beteiligt ist. Dabei besitzt die FcsA die Hauptenzymaktivität und kompensiert den Verlust der Acsbg1 in acsbg1- Zellen. In fcsA-/acsbg1- Zellen dagegen kommt der Verlust der Acsbg1 durch eine zusätzliche Verringerung des TAG-Gehaltes der Doppel-KOs im Vergleich zu fcsA- Zellen zum tragen. Alle vier Enzyme beeinflussen die Phagozytose. Dabei zeigen fcsA- und fcsC- Zellen eine gesteigerte Phagozytose in Gegenwart von der gesättigten Fettsäure Palmitinsäure im Kulturmedium. Auch der knockout der Acsbg1 wirkt sich positiv auf die Phagozytoserate aus, jedoch kommt auch nur dieser zum tragen, wenn neben der Acsbg1 auch die FcsA ausgeschaltet wird. Die FcsB dagegen zeigt eine dramatische Reduktion der Partikelaufnahme in nicht Fettsäure gefütterten Zellen. Durch die Zugabe einer exogenen Fettsäure kann dieser Effekt nicht kompensiert werden. Auch der zusätzliche Verlust der FcsA-Enzymaktivität verändert dieses Verhalten in Palmitinsäure inkubierten Zellen nicht. In fcsA-/fcsB- konnte zudem ein Defekt beim Abbau von Triacylglyceriden gefunden werden. Dieser Defekt liefert erste Hinweise für ein Modell, das den Abbau von LD gespeicherten Lipiden durch Autophagozytose in D. discoideum beschreibt. Peroxisomen sind wichtige Organellen für die Detoxifikation und die Oxidation von Fettsäuren. Durch das Ausschalten der Acaa1, der Thiolase, die den letzten Schritt der β-Oxidation in Peroxisomen katalysiert, zeigte sich ein verlangsamter Triacylglycerol-Abbau sowie eine verringerte Degradation des Etherlipids UKL und von Sterolestern, was auf eine Beteiligung der Peroxisomen beim Abbau von langkettigen Fettsäuren schließen lässt. Bei dem Versuch durch das Ausschalten des pex19-Gens eine Zelllinie zu generieren, die keine Peroxisomen besitzt, wurde die Organelle überraschender Weise, wenn auch mit einer vom Wildtyp abweichenden Morphologie, weiterhin vorgefunden. Dieser Befund korrelierte mit dem Resultat, dass trotzdem das pex19-Gen erfolgreich unterbrochen wurde, dennoch eine intakte Kopie des Gens nachgewiesen werden konnte. Dementsprechend sollte die erschaffene pex19- Zelllinie als knockdown und nicht als knockout gewertet werden. Der pex19 knockdown zeigte beim Abbau von Triacylglyceriden eine ähnliche Verlangsamung wie acaa1- Zellen. Zusätzlich wurde eine Verringerung der Synthese des Etherlipids UKL beobachtet, was darauf hindeutet, dass dieses Lipid im Peroxisom gebildet wird. Auch die Phagozytose und das Wachstum auf Bakterienrasen waren im pex19 knockdown dramatisch reduziert. Durch die Überexpression von Pex19-GFP im knockdown Hintergrund konnten die physiologischen Defekte in den meisten so generierten Zelllinien ausgeglichen werden. Lipid Droplets sind Organellen, die in Eukaryoten und Prokaryoten als Speicher für Neutralfette dienen und ebenfalls als Ort der Lipidsynthese fungieren. Um diese Aufgaben erfüllen zu können, besitzen sie auf ihrer Oberfläche Proteine, die für die Regulierung dieser Prozesse notwendig sind. Durch die weiterführende Analyse von Kandidatenproteinen, die durch eine proteomische Analyse von aufgereinigten LDs identifiziert wurden, konnte für vier weitere Proteine (Plsc1, Net4, Lip5 und Nsdhl) die LD-Assoziation durch GFP-Fusionsproteine bestätigt werden. Bei der Charakterisierung von plsc1 knockouts zeigte sich eine verminderte Fähigkeit beim Wachstum auf Bakterienrasen sowie eine erhöhte Phagozytoserate in Gegenwart einer exogenen Fettsäure, was auf eine Involvierung des Proteins in die Phospholipidsynthese hindeutet. Die bisher einzige identifizierte LD-assoziierte Lipase Lip5 nimmt nur eine untergeordnete Rolle bei der Hydrolyse von Triacylglycerolen und Sterolestern ein, da in KO-Mutanten nur ein milder Defekt beim Abbau beider Substanzen beobachtet werden konnte. Die LD-Lokalisation von Net4 ist evolutionär konserviert und kann nicht nur in D. discoideum beobachtet werden, sondern auch in humanen Zellen. Welche Funktion das Protein auf der LD-Oberfläche ausübt, konnte nicht geklärt werden. Allerdings kann ein direkter Einfluss auf den TAG- und Sterolaufbau ausgeschlossen werden. LDs stehen in engem Kontakt mit anderen Organellen, die in den Lipidmetabolismus involviert sind, wie mit den Mitochondrien oder dem ER. Durch Perilipin-Hybridproteine können künstliche, stabile Verbindungen zwischen LDs und diesen Organellen hergestellt werden. Dabei zeigte Perilipin ein sehr starkes Targeting-Potenzial, durch welches es notwendig war, als zweite Hybridhälfte ein Transmembranprotein zu wählen. Die Analyse eines Hybrids, das eine dauerhafte Verbindung von LDs und dem ER herstellt, wies dabeieine Reduktion der LD-Größe auf, wobei der Gesamt-TAG-Gehalt der Zellen unbeeinflusst blieb. Durch die starke Affinität von Perilipin für die Assoziation an LDs konnten durch die Generierung von Hybriden andere Proteine an die LD-Oberfläche dirigiert werden. Auf diese Weise konnte erfolgreich die LC-Acyl-CoA-Synthetase FcsA auf das LD transplantiert werden.
Resumo:
Albert Einstein gilt wohl als einer der genialsten Menschen und größten Physiker aller Zeiten. Das Zitat „Es ist schwieriger, eine vorgefasste Meinung zu zertrümmern als ein Atom.“ stammte ebenfalls von ihm und verweist auf eine schier unmögliche Aufgabe. Doch bedenkt man, dass zu Einsteins Zeiten der griechische Begriff „atomos“, der dem „Atom“ seinen Namen verlieh, noch „unteilbar“ meinte, konnte (vermutlich einige Zeit nach diesem Zitat) das Unmögliche doch möglich gemacht werden. Heute, im Zeitalter der Atomenergie ist Einsteins Zitat wohl nur noch zu belächeln. Wie aber verhält es sich nun mit den vorgefassten Meinungen, mit den Stereotypen und Vorurteilen? Ist es auch heute, trotz fokussierter Anti-Diskriminierungs-Arbeit, noch nicht möglich, diese zu überwinden? Zunächst möchte ich die Begrifflichkeiten „Stereotyp“ und „Vorurteil“ in Abhängigkeit voneinander definieren. Danach soll erörtert werden, ob Stereotypen komplett erfunden sind, oder vielleicht doch einen wahren Kern besitzen. In Anlehnung an die hier dargestellten Ergebnisse, möchte ich schließlich zeigen, wie aus einem kulturellen Unterschied ein Vorurteil werden kann. Dabei stehen psychologische und soziologische Erscheinungen wie Ethnozentrismus, Wahrnehmungskonstruktion, kognitive Vereinfachung, Kategorisierung, Sozialisation und das Phänomen der selbsterfüllenden Prophezeiung im Zentrum meiner Aufmerksamkeit und sollen durch die Schilderung verschiedener Experimente ergänzt und bewiesen werden. Das vierte Kapitel soll der Relevanz von Stereotypen und Vorurteilen gelten. Dabei werde ich zuerst auf ihre allgemeinen Wirkungen und Folgen eingehen, da Vorurteile gesellschaftlich oft verpönt sind, kaum aber jemand weiß, warum. Danach möchte ich auch die Bedeutsamkeit von vorgefassten Meinungen auf Seite der Lehrer betrachten und gleichzeitig zeigen, dass niemand frei von Vorurteilen zu sein scheint. Schließlich soll auch die bildungspolitische Wichtigkeit der Abschaffung von Intoleranzen beleuchtet werden. Dazu werde ich beispielhaft die fächerübergreifenden Kompetenzen sowie den Lehrplan Französisch untersuchen. Nachdem nun die Entstehung von Vorurteilen sowie deren Bedeutung erläutert wurde, soll im darauffolgenden Kapitel gezeigt werden, wie diese abgeschafft werden können und wo die Gestaltpädagogik ansetzt. Dazu werde ich die zwölf gestaltpädagogischen Prinzipien nach Burow (1988) theoretisch auf ihre Möglichkeiten und Grenzen in der Vorurteilsüberwindung untersuchen. Diese Theorie soll schließlich auch in die Praxis umgesetzt werden. Demzufolge möchte ich in Kapitel 6 meine Erfahrungen mit Gestaltpädagogik, angewendet auf die Vorurteile französischer Schüler über Deutsche, darstellen und herausfinden, ob es tatsächlich möglich ist, Stereotypen mit Hilfe dieser Erziehungswissenschaft zu verhindern.
Resumo:
In the process of urbanization, natural and semi-natural landscapes are increasingly cherished as open space and recreational resource. Urban rivers are part of this kind of resource and thus play an important role in managing urban resilience and health. Employing the example of Tianjin, this doctoral dissertation research aims at learning to understand how to plan and design for the interface zones between urban water courses and for the land areas adjacent to such water courses. This research also aims at learning how to link waterfront space with other urban space in order to make a recreational space system for the benefit of people. Five questions of this dissertation are: 1) what is the role of rivers in spatial and open space planning? 2) What are the human needs regarding outdoor open space? 3) How do river and water front spatial structures affect people's recreational activities? 4) How to define the recreational service of urban river and waterfront open space? 5) How might answering these question change planning and design of urban open space? Quantitative and qualitative empirical approaches were combined in this study for which literature review and theoretical explorations provide the basis. Empirical investigations were conducted in the city of Tianjin. The quantitative approach includes conducting 267 quantitative interviews, and the qualitative approach includes carrying out field observations and mappings. GIS served to support analysis and visualization of empirical information that was generated through this study. By responding to the five research questions, findings and lessons include the following: 1) In the course of time rivers have gained importance in all levels and scales of spatial planning and decision making. Regarding the development of ecological networks, mainly at national scale, rivers are considered significant linear elements. Regarding regional and comprehensive development, river basins and watersheds are often considered as the structural link for strategic ecological, economic, social and recreational planning. For purposes of urban planning, particularly regarding recreational services in cities, the distribution of urban open spaces often follows the structure of river systems. 2) For the purpose of classifying human recreational needs that relate to outdoor open space Maslow's hierarchy of human needs serves as theoretical basis. The classes include geographical, safety, physiological, social and aesthetic need. These classes serve as references while analyzing river and waterfront open space and other kinds of open space. 3) Regarding the question how river and waterfront spatial structures might affect people's recreational activities, eight different landscape units were identified and compared in the case study area. Considering the thermal conditions of Tianjin, one of these landscape units was identified as affording the optimal spatial arrangement which mostly meets recreational needs. The size and the shape of open space, and the plants present in an open space have been observed as being most relevant regarding recreational activities. 4) Regarding the recreational service of urban river and waterfront open space the results of this research suggest that the recreational service is felt less intensively as the distances between water 183 front and open space user’s places of residence are increasing. As a method for estimating this ‘Service Distance Effect’ the following formula may be used: Y = a*ebx. In this equation Y means the ‘Service Distance’ between homes and open space, and X means the percentage of the people who live within this service distance. Coefficient "a" represents the distance of the residential area nearest to the water front. The coefficient "b" is a comprehensive capability index that refers to the size of the available and suitable recreational area. 5) Answers found to the questions above have implications for the planning and design of urban open space. The results from the quantitative study of recreational services of waterfront open space were applied to the assessment of river-based open space systems. It is recommended that such assessments might be done employing the network analysis function available with any GIS. In addition, several practical planning and designing suggestions are made that would help remedy any insufficient base for satisfying recreational needs. The understanding of recreational need is considered helpful for the proposing planning and designing ideas and for the changing of urban landscapes. In the course of time Tianjin's urban water system has shrunk considerably. At the same time rivers and water courses have shaped Tianjin's urban structure in noticeable ways. In the process of urbanization water has become increasingly important to the citizens and their everyday recreations. Much needs to be changed in order to improve recreational opportunities and to better provide for a livable city, most importantly when considering the increasing number of old people. Suggestions made that are based on results of this study, might be implemented in Tianjin. They are 1) to promote the quality of the waterfront open space and to make all linear waterfront area accessible recreational spaces. Then, 2), it is advisable to advocate the concept of green streets and to combine green streets with river open space in order to form an everyday recreational network. And 3) any sound urban everyday recreational service made cannot rely on only urban rivers; the whole urban structure needs to be improved, including adding small open space and optimize the form of urban communities, finally producing a multi-functional urban recreational network.
Resumo:
Im Rahmen der vorliegenden Arbeit wird die bauteil- und alterungsabhängige Rissausbreitung in Gasturbinenschaufeln der polykristallinen Gusslegierung Inconel 738LC sowohl bei Raumtemperatur als auch bei 700°C analysiert. Für die Untersuchungen stand eine Sammlung von geometrisch gleichen Gasturbinenschaufeln mit unterschiedlich langen Einsatzzeiten in Kraftwerken zur Verfügung. Durch eine Gefüge- und Rissanalyse an den vorliegenden Turbinenschaufeln wird gezeigt, dass die Rissausbreitung unter thermischer und mechanischer Belastung in einem grobkörnigen Gussgefüge nur eingeschränkt mit der linear-elastischen Bruchmechanik beschrieben werden kann. Das Risswachstum ist vielmehr in hohem Maße von der lokalen Mikrostruktur, dem Grad der Werkstoffalterung und den lokalen Gegebenheiten an der Rissspitze abhängig. Dies hat zur Folge, dass sich Werkstoffkennwerte, die an konventionellen, feinkörnigen Laborproben ermittelt wurden, nicht auf den vorliegenden Schaufelwerkstoff übertragen lassen. Zunächst wird eine Versuchsmethodik entwickelt, die bruchmechanische Untersuchungen mit direkt aus Turbinenschaufeln entnommenen, miniaturisierten Werkstoffproben gestattet. Durch diese Vorgehensweise können die tatsächlichen Auswirkungen der betriebsbedingten Werkstoffalterung und der charakteristischen Mikrostruktur auf das Risswachstum analysiert werden. Die Risswachstumsversuche liefern alterungs- und temperaturabhängige Risswachstumsdaten und ermöglichen außerdem die Identifikation der relevanten Schädigungsmechanismen durch postexperimentelle Korrelationsbetrachtungen zwischen den Risswachstumskurven und den zugehörigen Risspfaden. Dabei liegt der Fokus sowohl auf lokalen als auch auf globalen werkstofflichen Veränderungen durch den Langzeitbetrieb und den daraus resultierenden alterungsabhängigen Wechselwirkungen von Rissausbreitungsgeschwindigkeit und Mikrostruktur. Zusätzlich zu den Untersuchungen an Laborrissen werden im Anlagenbetrieb entstandene Risse mit hochauflösender Rasterelektronenmikroskopie analysiert. In diesem Zusammenhang wird ein bisher in der Literatur unbekannter Schädigungsmechanismus beschrieben, der auf der Rekristallisation in der plastischen Zone vor der Rissspitze beruht und besonders für Turbinenschaufeln mit Wärmedämmschichten von Bedeutung ist. Der Schädigungsprozess sowie die relevanten Einflussparameter werden auf Basis mehrerer Hochtemperaturversuche identifiziert und der Einfluss auf das Risswachstum ermittelt.
Resumo:
Thermografie hat sich als wichtiges Hilfsmittel für die Inspektion, Prüfung und Überwachung etabliert. Bei vielen Anwendungen ist eine einzelne Messung allein oft nicht aussagekräftig, z. B. weil Strukturen nicht deutlich genug wahrgenommen werden können, das Messobjekt größer als das Blickfeld der Optik ist oder sich Kenngrößen erst aus dem zeitlichen Verlauf von Messungen ergeben. Zudem erfasst der Bediener der Kamera mit seinen Sinnen und seiner Erfahrung noch viele weitere Einflussgrößen, die bei der Entscheidungsfindung berücksichtigt werden. Eine Automatisierung von Inspektionsaufgaben in unbekannten Umgebungen ist also sehr komplex. In dieser Arbeit werden daher verschiedene Sensordatenfusionsansätze untersucht, die in der Thermografie eingesetzt werden können. Das Ziel bei der Fusion ist dabei die Verbesserung der Qualität der Messung und die Vergrößerung der verfügbaren Menge an nutzbaren Informationen über ein Messobjekt. Die betrachteten Ansätze können entweder nur mit Messungen der Thermografiekamera durchgeführt werden: zur Rauschunterdrückung durch zeitliche Mittelwertbildung, zur Vergrößerung der Schärfentiefe durch Kombination von Aufnahmen mit unterschiedlichem Fokus, zur Vergrößerung der Dynamik (also des Temperaturmessbereichs) durch Kombination von Messungen mit unterschiedlichen Messbereichen und durch Veränderung von Filtereinstellungen zur Unterdrückung von Störungen und zum Ableiten von geometrischen Informationen und Oberflächeneigenschaften. Weiterhin kann durch Veränderung der Kameraausrichtung das Blickfeld vergrößert und die geometrische Auflösung verbessert werden. Die Datenfusion von Thermogrammen kann aber auch mit Daten von anderen bildgebenden Messgeräten durchgeführt werden. Betrachtet wird die Kombination mit normalen Kameras im sichtbaren Spektralbereich, Thermografiekameras in anderen Wellenlängenbereichen und Tiefenkameras/Entfernungsmessgeräten (3D-Scanner, Laserscanner). Dadurch lassen sich für einen Messpunkt mehr Informationen gewinnen und die Messdaten können geometrisch als 3D-Modelle interpretiert und analysiert werden. Die Vielzahl an Informationen soll eine solide Dokumentation und gute (automatische) Analyse ermöglichen. Neben den Grundlagen zur Thermografie, dem punktweisen Zusammenführen von Messdaten und den oben genannten Sensordatenfusionsansätzen, wird ein Anwendungsbeispiel gezeigt. Darin soll die Machbarkeit der automatisierten Inspektionsdurchführung und die Kombination und praktische Anwendung der verschiedenen Sensordatenfusionsansätze gezeigt werden.
Resumo:
Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.
Resumo:
Ausgehend von der Annahme, dass der Übergang von der Grundschule in die Sekundarstufe 1 umfassende Auswirkungen auf Wohlbefinden und Selbstkonzept von Kindern haben kann und der geringen Anzahl qualitativer Studien zum Thema, ging die Arbeit der Frage nach, wie der Schulübergang von Kindern selbst diesbezüglich bewertet wird. Ziel waren individuelle Einzelfallanalysen und eine Typisierung unterschiedlicher Bewältigungstypen des Schulübergangs, um Gemeinsamkeiten und Unterschiede in der Einschätzung dieses Transitionsprozesses aus Sicht der Betroffenen darzustellen. Mittels qualitativer Leitfadeninterviews mit acht Kindern vor und nach dem Schulübergang wurden die Ausgangsdaten erhoben und mithilfe eines Diktiergeräts aufgenommen. Diese Aufnahmen wiederum wurden nach dem „TiQ“-Verfahren transkribiert und anschließend in Anlehnung an Mayring und Schmidt kategorisiert und ausgewertet. Die Ergebnisse wurden in einzelnen Fallinterpretationen und in drei unterschiedlichen Bewältigungstypen (positiv, neutral, negativ) dargestellt. Die Untersuchung führte zutage, dass der Schulübergang von den Kindern kritisch reflektiert wird und sowohl Hoffnungen als auch Befürchtungen mit ihm verbunden werden. Wie die drei Bewältigungstypen zeigen, überwiegen teilweise Sorgen, Ängste und Unsicherheit, teils halten sich die verschiedenen Aspekte die Waage und in anderen Fällen wird der Transitionsprozess mehrheitlich positiv bewertet. Das besondere Merkmal der Untersuchung stellt dabei der Vergleich zwischen den Aussagen vor und denen nach dem Schulübergang dar, mittels dessen Bestätigungen bzw. Widerlegungen von Anfangsaussagen deutlich werden.
Resumo:
Im Rahmen der Organischen Optoelektronik wird der Weg vom Molekül zum Bauteil als Wertschöpfungskette verstanden, deren Kernziele wissenschaftlicher Erkenntnisfortschritt und Produktanwendungen sind. Eine besonders vielversprechende Möglichkeit diese Entwicklung auch in Zukunft erfolgreich und innovativ fortführen zu können, eröffnet sich durch das Einbeziehen magnetosensitiver Prozesse. Spinzustände werden als zusätzliche Regelgröße verstanden, die es erlauben, optoelektronische Abläufe zu optimieren und neuartige Funktionen zu generieren. Dieses Konzept integriert die Vorteile sowie das Potential der Spintronik in die Organische Optoelektronik und hat sich zu einem zukunftsweisenden, neuartigen Forschungsfeld entwickelt. Es wird als Organische Magnetooptoelektronik bezeichnet und beschäftigt sich mit der Wirkung magnetischer Felder auf optisch und elektronisch anregbare Zustände in organischen Halbleitern. Mit den durchgeführten Forschungsaktivitäten ist es gelungen, Organische Feldeffekt-Transistoren (OFETs) als neuartige Plattform zur Untersuchung magnetooptoelektronischer Phänomene in niedermolekularen Halbleitern zu etablieren. Der gezielte Einsatz geeigneter Funktionsmaterialien ermöglicht die Herstellung magnetoresistiver 3-Kontakt-Bauteile, die das Wissenschaftsfeld des Organischen Magnetowiderstands entscheidend erweitern und dessen Anwendungsspektrum vergrößern. Dabei offenbaren OFETs auf Basis der Lochtransportmaterialien Pentacen und TIPS-Pentacen unter Belichtung magnetosensitives Verhalten, das erlaubt den Organischen Magnetowiderstand optisch ein- und auszuschalten. Auch ohne zusätzliche Belichtung können Magnetfeldeffekte erzielt werden, wenn spezielle Donor- und Akzeptor-Komponenten eingesetzt werden. Aus der ionisierenden Wechselwirkung zwischen Spiro-TTB (Elektronendonor) und HAT-CN (Elektronenakzeptor) resultiert eine so ausgeprägte Magnetosensitivität, dass bereits ultrakleine Magnetfelder den Ladungstransport signifikant beeinflussen. Zudem ist das magnetoresistive Verhalten empfindlich von den Spannungsbedingungen abhängig und das MR-Vorzeichen kann durch die Drainspannung umgepolt werden. Donor- und Akzeptor-Syteme mit nichtionisierender Wechselwirkung erweisen sich ebenfalls als geeignet für die Herstellung magnooptoelektronisch aktiver Bauteile. Sowohl in Spiro-DPPFPy als auch in Spiro-TAD/Spiro-PFPy OFETs zeigen sich im Dunkeln positiver und unter Belichtung negativer Magnetowiderstand. Diese gegensätzlichen MR-Komponenten lassen sich mit der Belichtungsintensität sowie der Magnetfeldstärke systematisch modulieren und es ist das magnetooptoelektronische Schalten des MR-Vorzeichens möglich. Unterschiedliche MR-Komponenten treten auch in ambipolaren Spiro-DPASP-tBu-Phenyl OFETs auf. Deren Drainstrom lässt sich in lochdominierte, elektronendominierte sowie ambipolare Bereiche gliedern, wobei bei unipolarem Ladungstransport positiver und bei ambipolarem negativer Magnetowiderstand vorherrscht. Mit der Betriebsspannung kann zwischen den jeweiligen Transportbereichen und damit dem MR-Vorzeichen geschaltet werden. All diese Facetten des Organischen Magnetowiderstands sind nicht nur Ausdruck des weitreichenden physikalischen Hintergrunds, sondern eröffnen eine vielversprechende Perspektive zur Realisierung multifunktionaler, magnetooptoelektronischer 3-Kontakt-Bauteile auf Basis organischer Halbleiter. Neben dem Nachweis neuartiger magnetoresistiver Phänomene in Organischen Feldeffekt-Transistoren beinhaltet dieses Forschungsprojekt das Ziel, zur Entschlüsselung der zugrundeliegenden Elementarprozesse beizutragen. Dabei ergibt sich folgendes Resümee für die Interpretation der erzielten Magnetfeldeffekte: Unter unipolaren Transportbedingungen wird der Magnetowiderstand durch spinsensitive Bipolaronenbildung versursacht. Im Rahmen dieser Arbeit tragen Bipolaronen signifikant zum Drainstrom bei, wenn im Leitungskanal Gegenladungen vorhanden sind oder dieser aus chemischen Einheiten mit hoher Elektronenaffinitätsdifferenz aufgebaut ist. Weitere MR-Komponenten werden erschlossen, wenn im Transportvolumen simultan positive und negative Ladungsträger vorhanden sind. Deren Interaktion resultiert in Elektron-Loch Paaren, die über ein magnetosensitives Reaktionsverhalten verfügen. Sie werden entweder über Belichtung der OFET-Struktur erzeugt oder bilden sich während des ambipolaren Ladungstransports.
Resumo:
Einhergehend mit der Entwicklung und zunehmenden Verfügbarkeit des Internets hat sich die Art der Informationsbereitstellung und der Informationsbeschaffung deutlich geändert. Die einstmalige Trennung zwischen Publizist und Konsument wird durch kollaborative Anwendungen des sogenannten Web 2.0 aufgehoben, wo jeder Teilnehmer gleichsam Informationen bereitstellen und konsumieren kann. Zudem können Einträge anderer Teilnehmer erweitert, kommentiert oder diskutiert werden. Mit dem Social Web treten schließlich die sozialen Beziehungen und Interaktionen der Teilnehmer in den Vordergrund. Dank mobiler Endgeräte können zu jeder Zeit und an nahezu jedem Ort Nachrichten verschickt und gelesen werden, neue Bekannschaften gemacht oder der aktuelle Status dem virtuellen Freundeskreis mitgeteilt werden. Mit jeder Aktivität innerhalb einer solchen Applikation setzt sich ein Teilnehmer in Beziehung zu Datenobjekten und/oder anderen Teilnehmern. Dies kann explizit geschehen, indem z.B. ein Artikel geschrieben wird und per E-Mail an Freunde verschickt wird. Beziehungen zwischen Datenobjekten und Nutzern fallen aber auch implizit an, wenn z.B. die Profilseite eines anderen Teilnehmers aufgerufen wird oder wenn verschiedene Teilnehmer einen Artikel ähnlich bewerten. Im Rahmen dieser Arbeit wird ein formaler Ansatz zur Analyse und Nutzbarmachung von Beziehungsstrukturen entwickelt, welcher auf solchen expliziten und impliziten Datenspuren aufbaut. In einem ersten Teil widmet sich diese Arbeit der Analyse von Beziehungen zwischen Nutzern in Applikationen des Social Web unter Anwendung von Methoden der sozialen Netzwerkanalyse. Innerhalb einer typischen sozialen Webanwendung haben Nutzer verschiedene Möglichkeiten zu interagieren. Aus jedem Interaktionsmuster werden Beziehungsstrukturen zwischen Nutzern abgeleitet. Der Vorteil der impliziten Nutzer-Interaktionen besteht darin, dass diese häufig vorkommen und quasi nebenbei im Betrieb des Systems abfallen. Jedoch ist anzunehmen, dass eine explizit angegebene Freundschaftsbeziehung eine stärkere Aussagekraft hat, als entsprechende implizite Interaktionen. Ein erster Schwerpunkt dieser Arbeit ist entsprechend der Vergleich verschiedener Beziehungsstrukturen innerhalb einer sozialen Webanwendung. Der zweite Teil dieser Arbeit widmet sich der Analyse eines der weit verbreitetsten Profil-Attributen von Nutzern in sozialen Webanwendungen, dem Vornamen. Hierbei finden die im ersten Teil vorgestellten Verfahren und Analysen Anwendung, d.h. es werden Beziehungsnetzwerke für Namen aus Daten von sozialen Webanwendungen gewonnen und mit Methoden der sozialen Netzwerkanalyse untersucht. Mithilfe externer Beschreibungen von Vornamen werden semantische Ähnlichkeiten zwischen Namen bestimmt und mit jeweiligen strukturellen Ähnlichkeiten in den verschiedenen Beziehungsnetzwerken verglichen. Die Bestimmung von ähnlichen Namen entspricht in einer praktischen Anwendung der Suche von werdenden Eltern nach einem passenden Vornamen. Die Ergebnisse zu der Analyse von Namensbeziehungen sind die Grundlage für die Implementierung der Namenssuchmaschine Nameling, welche im Rahmen dieser Arbeit entwickelt wurde. Mehr als 35.000 Nutzer griffen innerhalb der ersten sechs Monate nach Inbetriebnahme auf Nameling zu. Die hierbei anfallenden Nutzungsdaten wiederum geben Aufschluss über individuelle Vornamenspräferenzen der Anwender. Im Rahmen dieser Arbeit werden diese Nutzungsdaten vorgestellt und zur Bestimmung sowie Bewertung von personalisierten Vornamensempfehlungen verwendet. Abschließend werden Ansätze zur Diversifizierung von personalisierten Vornamensempfehlungen vorgestellt, welche statische Beziehungsnetzwerke für Namen mit den individuellen Nutzungsdaten verknüpft.
Resumo:
Die Arbeit beschäftigt sich mit der Frage, wie Bürger an der Inventarisierung historischer Kulturlandschaftselemente mitwirken können und welche Leistungen von ihnen erbracht werden können. Dabei wird der Fokus darauf gerichtet, ob mit einer optimalen organisatorischen und methodischen Herangehensweise ein Inventar historischer Kulturlandschaftselemente erstellt werden kann, das auch den Anforderungen für eine planerische Anwendung genügt. Forschungsschwerpunkte der Arbeit sind entsprechend die Inventarisierung historischer Kulturlandschaftselemente und die Anforderungen an die dabei erstellten Inventare sowie die Möglichkeiten für bürgerschaftliches Engagement bei der Inventarisierung. Darüber hinaus wird der Frage nachgegangen, ob mit dem bürgerschaftlichen Engagement bei der Inventarisierung ein sonstiger Mehrwert verbunden ist. Die Untersuchung wird anhand von Fallstudien durchgeführt. Empirische Grundlage sind acht ausgewählte Beispielprojekte, in denen Bürger an der Inventarisierung historischer Kulturlandschaftselemente mitwirken bzw. diese durchführen. Um einen möglichst großen Erfahrungspool zu erschließen wurden Fallbeispiele gewählt, die sich u. a. hinsichtlich der Rahmenbedingungen, der Organisationsstrukturen, dem Maß und der Art der Mitwirkung von Bürgern unterscheiden. Die detaillierte Analyse dieser Projekte und die Evaluierung der in ihrem Rahmen erstellten Inventare ist Hauptgegenstand dieser Arbeit und eine Grundlage für die Entwicklung von Empfehlungen für bürgerschaftliches Engagement bei der Inventarisierung historischer Kulturlandschaftselemente. Die Datenerhebung für die Analyse und Evaluierung erfolgt in erster Linie mittels Befragungen. Die Untersuchung zeigt, dass durch bürgerschaftliches Engagement wertvolle Beiträge zur Inventarisierung historischer Kulturlandschaftselemente geleistet werden können. In der Bevölkerung gibt es sowohl Interesse an der aktiven Mitwirkung als auch Kompetenzen, um unter Anleitung historische Kulturlandschaftselemente zu erfassen. Es müssen jedoch einige methodische Hinweise berücksichtigt und Maßnahmen getroffen werden, um Defizite, die sich durch die Erfassung durch Freiwillige ergeben können, zu vermeiden. So ist es bspw. zwingend notwendig, organisatorische Strukturen, Methoden und Standards vorzugeben, die Freiwilligen anzuleiten und ggf. zu unterstützen sowie die erhobenen Daten zu prüfen und in einem gewissen Umfang auch zu qualifizieren. Wenn die Inventarisierungen von Fachexperten aufgebaut und gesteuert werden, kann verhindert werden, dass die methodische Vorgehensweise von den fachlichen Anforderungen abweicht, und dass falsch erhobene und bewertete Daten verbreitet werden. Nicht von der Hand zu weisen ist der hohe Organisations- und Betreuungsaufwand sowie der Aufwand zur Prüfung und Nachbesserung der Daten, der mit der Beteiligung von Bürgern einhergeht. Doch selbst wenn die erfassten Daten der Bürger nur eine Grundlage bilden, die geprüft und für eine planerische Verwendung weiter qualifiziert werden muss, können durch die Einbindung von Bürgern wichtige Beiträge zum Erhalt der Kulturlandschaft geleistet werden. Neben der Datenerfassung werden zahlreiche Bürger für das Themenfeld Kulturlandschaft sensibilisiert, so dass die Anliegen zum Erhalt der Kulturlandschaft in weiten Teilen der Bevölkerung an Bedeutung gewinnen und verankert werden können. Um das Potenzial bürgerschaftlichen Engagements für die Inventarisierung historischer Kulturlandschaftselemente optimal nutzen zu können, und um möglichst bundes- oder landesweit einheitliche Inventare zu erstellen die Akzeptanz finden und für die Planung und weitere Anwendungszwecke genutzt werden, besteht noch Entwicklungs- und Abstimmungsbedarf. Manche Entwicklungen stehen nicht in Zusammenhang mit der Beteiligung von Bürgern, sondern sind generell notwendig, um einheitliche und möglichst landes- oder gar bundesweite Inventarisierungen historischer Kulturlandschaftselemente zu realisieren. Dies betrifft z. B. die Konsensfindung unter den Behörden und Fachstellen bezüglich methodischer Fragen und der Zuständigkeiten oder die Entwicklung eines geeigneten GIS-basierten Online-Inventars.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit dem Werk des französischen Philosophen Gilles Deleuze (1925-1995), indem sie dessen vielfältig-pluralistisches, in mancher Hinsicht sogar heterogenes Denken in einen Zusammenhang mit vitalistischen Philosophien der ersten Hälfte des 20. Jahrhunderts stellt (an erster Stelle Henri Bergson, aber auch Hans Driesch und Jakob von Uexküll), um auf diese Weise – durch Vergleiche und Gegenüberstellungen - zu verdeutlichen, dass und inwiefern der Vitalismus in der Version von Deleuze unter dem Eindruck der Entwicklung der Biologie seit Darwin (für die hier besonders die wissenschaftsphilosophischen Überlegungen der französischen Molekularbiologen François Jacob und Jacques Monod herangezogen werden) nicht mehr in erster Linie naturphilosophisch verstanden werden kann, sondern experimentell. Das, womit hier gedanklich experimentiert wird, sind Intensitäten. Und Intensität – so wird dargelegt – ist der Schlüsselbegriff zum Verständnis von Deleuzes’ erstem philosophischen Hauptwerk „Differenz und Wiederholung“. Im Zeichen eines Denkens der Intensitäten versucht Deleuze etablierte Dualismen wie die von Natur (physis) und Kunst (techné), Mensch und Tier, Individualität und Allgemeinheit zu unterlaufen. Weil dieser Versuch sich selbst als ein – wie es in dem von Deleuze gemeinsam mit dem Psychiater Félix Guattari verfassten Buch „Tausend Plateaus“ heißt - Vorstoß in "eine Welt aus formlosen, gegenstandslosen und gesichtslosen Schnelligkeiten und Langsamkeiten" versteht, stellt sich mit der Frage nach den lebenspraktischen Aspekten dieses grenzüberschreitenden und Freiräume eröffnenden Vorhabens auch die nach den damit verbundenen Risiken und Nebenwirkungen. Zur Konkretisierung werden Beispiele aus der modernen Literatur (die Verzeitlichung des Denkens bei Marcel Proust, aber auch die existentielle Sprachskepsis Antonin Artauds), der bildenden Kunst (die Deformationskunst in der Malerei Francis Bacons) und der Moral- bzw. moralkritischen Philosophie (der Stoizismus als eine Art Kunst der Selbstverteidigung, Nietzsches Umwertung aller Werte als eine Kunst der Selbstüberbietung) erörtert. Was in diesen Praktiken stattfindet und zum Ausdruck gebracht wird, sind Zerreißproben, d. h. radikale Belastungen oder Erprobungen von Vermögen wie Sinnlichkeit, Einbildungskraft, Denken, weshalb diese Versuche mit Deleuze, der sich hier von den stilpsychologischen Untersuchungen des Kunsthistorikers Wilhelm Worringer hat inspirieren lassen, als Spielarten eines nichtorganischen Lebens zu verstehen sind. Sich darauf in einem ständigen Wechsel von Annäherung und Distanzierung einzulassen, macht das ausgeprägte Pathos der Philosophie aus, auf das man im Denken von Gilles Deleuze trifft.
Resumo:
Enterprise-Resource-Planning-Systeme (ERP-Systeme) bilden für die meisten mittleren und großen Unternehmen einen essentiellen Bestandteil ihrer IT-Landschaft zur Verwaltung von Geschäftsdaten und Geschäftsprozessen. Geschäftsdaten werden in ERP-Systemen in Form von Geschäftsobjekten abgebildet. Ein Geschäftsobjekt kann mehrere Attribute enthalten und über Assoziationen zu anderen Geschäftsobjekten einen Geschäftsobjektgraphen aufspannen. Existierende Schnittstellen ermöglichen die Abfrage von Geschäftsobjekten, insbesondere mit Hinblick auf deren Attribute. Die Abfrage mit Bezug auf ihre Position innerhalb des Geschäftsobjektgraphen ist jedoch über diese Schnittstellen häufig nur sehr schwierig zu realisieren. Zur Vereinfachung solcher Anfragen können semantische Technologien, wie RDF und die graphbasierte Abfragesprache SPARQL, verwendet werden. SPARQL ermöglicht eine wesentlich kompaktere und intuitivere Formulierung von Anfragen gegen Geschäftsobjektgraphen, als es mittels der existierenden Schnittstellen möglich ist. Die Motivation für diese Arbeit ist die Vereinfachung bestimmter Anfragen gegen das im Rahmen dieser Arbeit betrachtete SAP ERP-System unter Verwendung von SPARQL. Zur Speicherung von Geschäftsobjekten kommen in ERP-Systemen typischerweise relationale Datenbanken zum Einsatz. Die Bereitstellung von SPARQL-Endpunkten auf Basis von relationalen Datenbanken ist ein seit längerem untersuchtes Gebiet. Es existieren verschiedene Ansätze und Tools, welche die Anfrage mittels SPARQL erlauben. Aufgrund der Komplexität, der Größe und der Änderungshäufigkeit des ERP-Datenbankschemas können solche Ansätze, die direkt auf dem Datenbankschema aufsetzen, nicht verwendet werden. Ein praktikablerer Ansatz besteht darin, den SPARQL-Endpunkt auf Basis existierender Schnittstellen zu realisieren. Diese sind weniger komplex als das Datenbankschema, da sie die direkte Abfrage von Geschäftsobjekten ermöglichen. Dadurch wird die Definition des Mappings erheblich vereinfacht. Das ERP-System bietet mehrere Schnittstellen an, die sich hinsichtlich des Aufbaus, der Zielsetzung und der verwendeten Technologie unterscheiden. Unter anderem wird eine auf OData basierende Schnittstelle zur Verfügung gestellt. OData ist ein REST-basiertes Protokoll zur Abfrage und Manipulation von Daten. Von den bereitgestellten Schnittstellen weist das OData-Interface gegenüber den anderen Schnittstellen verschiedene Vorteile bei Realisierung eines SPARQL-Endpunktes auf. Es definiert eine Abfragesprache und einen Link-Adressierungsmechanismus, mit dem die zur Beantwortung einer Anfrage benötigten Service-Aufrufe und die zu übertragende Datenmenge erheblich reduziert werden können. Das Ziel dieser Arbeit besteht in der Entwicklung eines Verfahrens zur Realisierung eines SPARQL-Endpunktes auf Basis von OData-Services. Dazu wird zunächst eine Architektur vorgestellt, die als Grundlage für die Implementierung eines entsprechenden Systems dienen kann. Ausgehend von dieser Architektur, werden die durch den aktuellen Forschungsstand noch nicht abgedeckten Bereiche ermittelt. Nach bestem Wissen ist diese Arbeit die erste, welche die Abfrage von OData-Schnittstellen mittels SPARQL untersucht. Dabei wird als Teil dieser Arbeit ein neuartiges Konzept zur semantischen Beschreibung von OData-Services vorgestellt. Dieses ermöglicht die Definition von Abbildungen der von den Services bereitgestellten Daten auf RDF-Graphen. Aufbauend auf den Konzepten zur semantischen Beschreibung wird eine Evaluierungssemantik erarbeitet, welche die Auflösung von Ausdrücken der SPARQL-Algebra gegen semantisch annotierte OData-Services definiert. Dabei werden die Daten aller OData-Services ermittelt, die zur vollständigen Abarbeitung einer Anfrage benötigt werden. Zur Abfrage der relevanten Daten wurden Konzepte zur Erzeugung der entsprechenden OData-URIs entwickelt. Das vorgestellte Verfahren wurde prototypisch implementiert und anhand zweier Anwendungsfälle für die im betrachteten Szenario maßgeblichen Servicemengen evaluiert. Mit den vorgestellten Konzepten besteht nicht nur die Möglichkeit, einen SPARQL-Endpunkt für ein ERP-System zu realisieren, vielmehr kann jede Datenquelle, die eine OData-Schnittstelle anbietet, mittels SPARQL angefragt werden. Dadurch werden große Datenmengen, die bisher für die Verarbeitung mittels semantischer Technologien nicht zugänglich waren, für die Integration mit dem Semantic Web verfügbar gemacht. Insbesondere können auch Datenquellen, deren Integration miteinander bisher nicht oder nur schwierig möglich war, über Systeme zur föderierten Abfrage miteinander integriert werden.
Resumo:
Im Rahmen des vom Hessischen Ministerium der Finanzen geförderten Forschungsprojektes „Bausteine für die CO2-Neutralität im Liegenschaftsbestand hessischer Hochschulen“ wird die neu entwickelte Teilenergiekennwertmethode, kurz TEK - an dem Universitätsgebäude D der Hochschule RheinMain Wiesbaden (1993) in dem Kurt-Schumacher-Ring 18, 65197 Wiesbaden, angewandt. Das Gebäude wird als Labor- und Bürogebäude genutzt und besitzt zusätzlich einen Hörsaal und mehrere Seminarräume. Die Außenfassade besteht größtenteils aus dunkler Eternit-Verkleidung in Kombination mit einer stark geneigten und abgestuften Fassade. Die aus den Analysen gewonnenen Gebäude- und Anlagendaten dienen als Datengrundlage für eine Querschnittsanalyse zum Nichtwohngebäudebestand. Der folgende Kurzbericht umfasst: • Eine kurze Beschreibung des Projektes und des Gebäudes, • die Bewertung des Ist-Zustands des Gebäudes, • die Angabe von Modernisierungsmaßnahmen unter Nennung der Energieeinsparung, der Grobkosten und der sich hieraus ergebenden Wirtschaftlichkeit, • einen Anhang mit ausführlichen Informationen zur Gebäudeanalyse. Der Primärenergiebedarf des Objektes wurde mit 323 kWh/(m²a) unter Berücksichtigung der vorhandenen Nutzung als „mittel“ eingestuft. Im Zuge einer möglichen nötigen Erneuerung der Fenster wird empfohlen dreifachverglaste Fenster mit hochwertigem Rahmen zu verwenden, um die einzige Schwachstelle der Gebäudehülle zu sanieren. Das wirtschaftlichste Einsparpotential liegt in der Modernisierung der Lüftungsanlage mit Wärmerückgewinnung, wodurch die Luftwechselrate deutlich reduziert werden kann und somit neben eine Stromersparnis auch der Wärmebedarf zurückgeht. Zusätzlich kann eine Senkung des Stromverbrauchs durch den Einsatz moderner Beleuchtungstechnik mit Präsenzmeldern geschaffen werden. Bei Berücksichtigung aller Maßnahmen zeigt sich eine mögliche jährliche Einsparung von 55.000 Euro bezogen auf die Gesamtkosten. Der ökologische Vergleich zeigt eine Minderung der absoluten CO2-Emissionen um knapp 260 Tonnen pro Jahr.
Resumo:
In this work investigation of the QDs formation and the fabrication of QD based semiconductor lasers for telecom applications are presented. InAs QDs grown on AlGaInAs lattice matched to InP substrates are used to fabricate lasers operating at 1.55 µm, which is the central wavelength for far distance data transmission. This wavelength is used due to its minimum attenuation in standard glass fibers. The incorporation of QDs in this material system is more complicated in comparison to InAs QDs in the GaAs system. Due to smaller lattice mismatch the formation of circular QDs, elongated QDs and quantum wires is possible. The influence of the different growth conditions, such as the growth temperature, beam equivalent pressure, amount of deposited material on the formation of the QDs is investigated. It was already demonstrated that the formation process of QDs can be changed by the arsenic species. The formation of more round shaped QDs was observed during the growth of QDs with As2, while for As4 dash-like QDs. In this work only As2 was used for the QD growth. Different growth parameters were investigated to optimize the optical properties, like photoluminescence linewidth, and to implement those QD ensembles into laser structures as active medium. By the implementation of those QDs into laser structures a full width at half maximum (FWHM) of 30 meV was achieved. Another part of the research includes the investigation of the influence of the layer design of lasers on its lasing properties. QD lasers were demonstrated with a modal gain of more than 10 cm-1 per QD layer. Another achievement is the large signal modulation with a maximum data rate of 15 Gbit/s. The implementation of optimized QDs in the laser structure allows to increase the modal gain up to 12 cm-1 per QD layer. A reduction of the waveguide layer thickness leads to a shorter transport time of the carriers into the active region and as a result a data rate up to 22 Gbit/s was achieved, which is so far the highest digital modulation rate obtained with any 1.55 µm QD laser. The implementation of etch stop layers into the laser structure provide the possibility to fabricate feedback gratings with well defined geometries for the realization of DFB lasers. These DFB lasers were fabricated by using a combination of dry and wet etching. Single mode operation at 1.55 µm with a high side mode suppression ratio of 50 dB was achieved.