20 resultados para Umgebung
Resumo:
In vielen Industrieanlagen werden verschiedenste Fluide in der Produktion eingesetzt, die bei einer Freisetzung, z. B. durch ihre toxische oder karzinogene Eigenschaft oder wegen der Brand- und Explosionsgefahr, sowohl die Umwelt als auch Investitionsgüter gefährden können. In Deutschland sind zur Risikominimierung die maximal zulässigen Emissionsmengen von Stoffen und Stoffgruppen in verschiedenen Umweltvorschriften festgelegt, wodurch zu deren Einhaltung eine ausreichende Überwachung aller relevanten Anlagenkomponenten seitens der Betreiber notwendig ist. Eine kontinuierliche und flächendeckende Überwachung der Anlagen ist aber weder personell, noch finanziell mit klassischer In-situ-Sensorik realisierbar. In der vorliegenden Arbeit wird die Problemstellung der autonomen mobilen Gasferndetektion und Gasleckortung in industrieller Umgebung mittels optischer Gasfernmesstechnik adressiert, die zum Teil im Rahmen des Verbundprojekts RoboGasInspector entstand. Neben der Beschreibung des verwendeten mobilen Robotersystems und der Sensorik, werden die eingesetzten Techniken zur Messdatenverarbeitung vorgestellt. Für die Leckortung, als Sonderfall im Inspektionsablauf, wurde die TriMax-Methode entwickelt, die zusätzlich durch einen Bayes-Klassifikator basierten Gasleckschätzer (Bayes classification based gas leak estimator (BeaGLE)) erweitert wurde, um die Erstellung von Leckhypothesen zu verbessern. Der BeaGLE basiert auf Techniken, die in der mobilen Robotik bei der Erstellung von digitalen Karten mittels Entfernungsmessungen genutzt werden. Die vorgestellten Strategien wurden in industrieller Umgebung mittels simulierter Lecks entwickelt und getestet. Zur Bestimmung der Strategieparameter wurden diverse Laborund Freifelduntersuchungen mit dem verwendeten Gasfernmessgerät durchgeführt. Die abschließenden Testergebnisse mit dem Gesamtsystem haben gezeigt, dass die automatische Gasdetektion und Gaslecksuche mittels autonomer mobiler Roboter und optischer Gasfernmesstechnik innerhalb praktikabler Zeiten und mit hinreichender Präzision realisierbar sind. Die Gasdetektion und Gasleckortung mittels autonomer mobiler Roboter und optischer Gasfernmesstechnik ist noch ein junger Forschungszweig der industriellen Servicerobotik. In der abschließenden Diskussion der vorliegenden Arbeit wird deutlich, dass noch weitergehende, interessante Forschungs- und Entwicklungspotentiale erkennbar sind.
Resumo:
Sowohl die Ressourcenproblematik als auch die drohenden Ausmaße der Klimaänderung lassen einen Umstieg auf andere Energiequellen langfristig unausweichlich erscheinen und mittelfristig als dringend geboten. Unabhängig von der Frage, auf welchem Niveau sich der Energiebedarf stabilisieren lässt, bleibt dabei zu klären, welche Möglichkeiten sich aus technischer und wirtschaftlicher Sicht in Zukunft zur Deckung unseres Energiebedarfs anbieten. Eine aussichtsreiche Option besteht in der Nutzung regenerativer Energien in ihrer ganzen Vielfalt. Die Arbeit "Szenarien zur zukünftigen Stromversorgung, kostenoptimierte Variationen zur Versorgung Europas und seiner Nachbarn mit Strom aus erneuerbaren Energien" konzentriert sich mit der Stromversorgung auf einen Teilaspekt der Energieversorgung, der zunehmend an Wichtigkeit gewinnt und als ein Schlüssel zur nachhaltigen Energieversorgung interpretiert werden kann. Die Stromversorgung ist heute weltweit für etwa die Hälfte des anthropogenen CO2-Ausstoßes verantwortlich. In dieser Arbeit wurden anhand verschiedener Szenarien Möglichkeiten einer weitgehend CO2–neutralen Stromversorgung für Europa und seine nähere Umgebung untersucht, wobei das Szenariogebiet etwa 1,1 Mrd. Einwohner und einen Stromverbrauch von knapp 4000 TWh/a umfasst. Dabei wurde untersucht, wie die Stromversorgung aufgebaut sein sollte, damit sie möglichst kostengünstig verwirklicht werden kann. Diese Frage wurde beispielsweise für Szenarien untersucht, in denen ausschließlich heute marktverfügbare Techniken berücksichtigt wurden. Auch der Einfluss der Nutzung einiger neuer Technologien, die bisher noch in Entwicklung sind, auf die optimale Gestaltung der Stromversorgung, wurde anhand einiger Beispiele untersucht. Die Konzeption der zukünftigen Stromversorgung sollte dabei nach Möglichkeit objektiven Kriterien gehorchen, die auch die Vergleichbarkeit verschiedener Versorgungsansätze gewährleisten. Dafür wurde ein Optimierungsansatz gewählt, mit dessen Hilfe sowohl bei der Konfiguration als auch beim rechnerischen Betrieb des Stromversorgungssystems weitgehend auf subjektive Entscheidungsprozesse verzichtet werden kann. Die Optimierung hatte zum Ziel, für die definierte möglichst realitätsnahe Versorgungsaufgabe den idealen Kraftwerks- und Leitungspark zu bestimmen, der eine kostenoptimale Stromversorgung gewährleistet. Als Erzeugungsoptionen werden dabei u.a. die Nutzung Regenerativer Energien durch Wasserkraftwerke, Windenergiekonverter, Fallwindkraftwerke, Biomassekraftwerke sowie solare und geothermische Kraftwerke berücksichtigt. Abhängig von den gewählten Randbedingungen ergaben sich dabei unterschiedliche Szenarien. Das Ziel der Arbeit war, mit Hilfe unterschiedlicher Szenarien eine breite Basis als Entscheidungsgrundlage für zukünftige politische Weichenstellungen zu schaffen. Die Szenarien zeigen Optionen für eine zukünftige Gestaltung der Stromversorgung auf, machen Auswirkungen verschiedener – auch politischer – Rahmenbedingungen deutlich und stellen so die geforderte Entscheidungsgrundlage bereit. Als Grundlage für die Erstellung der Szenarien mussten die verschiedenen Potentiale erneuerbarer Energien in hoher zeitlicher und räumlicher Auflösung ermittelt werden, mit denen es erstmals möglich war, die Fragen einer großräumigen regenerativen Stromversorgung ohne ungesicherte Annahmen anhand einer verlässlichen Datengrundlage anzugehen. Auch die Charakteristika der verschiedensten Energiewandlungs- und Transportsysteme mussten studiert werden und sind wie deren Kosten und die verschiedenen Potentiale in der vorliegenden Arbeit ausführlich diskutiert. Als Ausgangsszenario und Bezugspunkt dient ein konservatives Grundszenario. Hierbei handelt es sich um ein Szenario für eine Stromversorgung unter ausschließlicher Nutzung erneuerbarer Energien, die wiederum ausschließlich auf heute bereits entwickelte Technologien zurückgreift und dabei für alle Komponenten die heutigen Kosten zugrundelegt. Dieses Grundszenario ist dementsprechend auch als eine Art konservative Worst-Case-Abschätzung für unsere Zukunftsoptionen bei der regenerativen Stromversorgung zu verstehen. Als Ergebnis der Optimierung basiert die Stromversorgung beim Grundszenario zum größten Teil auf der Stromproduktion aus Windkraft. Biomasse und schon heute bestehende Wasserkraft übernehmen den überwiegenden Teil der Backup-Aufgaben innerhalb des – mit leistungsstarker HGÜ (Hochspannungs–Gleichstrom–Übertragung) verknüpften – Stromversorgungsgebiets. Die Stromgestehungskosten liegen mit 4,65 €ct / kWh sehr nahe am heute Üblichen. Sie liegen niedriger als die heutigen Preisen an der Strombörse. In allen Szenarien – außer relativ teuren, restriktiv ”dezentralen” unter Ausschluss großräumig länderübergreifenden Stromtransports – spielt der Stromtransport eine wichtige Rolle. Er wird genutzt, um Ausgleichseffekte bei der dargebotsabhängigen Stromproduktion aus erneuerbaren Quellen zu realisieren, gute kostengünstige Potentiale nutzbar zu machen und um die Speicherwasserkraft sowie die dezentral genutzte Biomasse mit ihrer Speicherfähigkeit für großräumige Backup-Aufgaben zu erschließen. Damit erweist sich der Stromtransport als einer der Schlüssel zu einer kostengünstigen Stromversorgung. Dies wiederum kann als Handlungsempfehlung bei politischen Weichenstellungen interpretiert werden, die demnach gezielt auf internationale Kooperation im Bereich der Nutzung erneuerbarer Energien setzen und insbesondere den großräumigen Stromtransport mit einbeziehen sollten. Die Szenarien stellen detaillierte und verlässliche Grundlagen für wichtige politische und technologische Zukunftsentscheidungen zur Verfügung. Sie zeigen, dass bei internationaler Kooperation selbst bei konservativen Annahmen eine rein regenerative Stromversorgung möglich ist, die wirtschaftlich ohne Probleme zu realisieren wäre und verweisen den Handlungsbedarf in den Bereich der Politik. Eine wesentliche Aufgabe der Politik läge darin, die internationale Kooperation zu organisieren und Instrumente für eine Umgestaltung der Stromversorgung zu entwickeln. Dabei kann davon ausgegangen werden, dass nicht nur ein sinnvoller Weg zu einer CO2–neutralen Stromversorgung beschritten würde, sondern sich darüber hinaus ausgezeichnete Entwicklungsperspektiven für die ärmeren Nachbarstaaten der EU und Europas eröffnen.
Resumo:
Intrinsisch leitfähige Polymere sind durch eine Reihe materialspezifischer Eigenschaften gekennzeichnet. In Abhängigkeit des angelegten Potenzials und der chemischen Umgebung zeigen sie elektrochromes Verhalten, Veränderungen der Masse, des Volumens und der elektronischen Leitfähigkeit. Basierend auf diesen Eigenschaften eignen sich halbleitende organische Polymere als funktionales Material für Anwendungen in der Mikro- und Nanotechnologie, insbesondere für miniaturisierte chemische Sensoren und Aktoren. Im Gegensatz zu konventionellen Piezo-Aktoren operieren diese Aktoren z. B. bei Spannungen unterhalb 1 V. Diese Arbeit befasst sich mit den elektrochemomechanischen Eigenschaften der ausgewählten Polymere Polyanilin und Polypyrrol, d. h. mit den potenzialkontrollierten Veränderungen des Volumens, der Struktur und der mechanischen Eigenschaften. Bei diesem Prozess werden positive Ladungen innerhalb der Polymerphase generiert. Um die für den Ladungsausgleich benötigten Gegenionen bereitzustellen, werden alle Messungen in Anwesenheit eines wässrigen Elektrolyten durchgeführt. Der Ladungstransport und die Volumenänderungen werden mit den Methoden der zyklischen Voltammetrie, der elektrochemischen Quarzmikrowaage und der Rastersondenmikroskopie untersucht. Signifikante Ergebnisse können für dünne homogene Polymerschichten erhalten werden, wobei Schichtdicken oberhalb 150 nm aufgrund der insbesondere bei Polyanilin einsetzenden Bildung von Fadenstrukturen (Fibrillen) vermieden werden. Von besonderem Interesse im Rahmen dieser Arbeit ist die Kombination der funktionalen Polymere mit Strukturen auf Siliziumbasis, insbesondere mit mikrostrukturierten Cantilevern. Die zuvor erhaltenen Ergebnisse bilden die Grundlage für das Design und die Dimensionierung der Mikroaktoren. Diese bestehen aus Siliziumcantilevern, die eine Elektrodenschicht aus Gold oder Platin tragen. Auf der Elektrode wird mittels Elektrodeposition eine homogene Schicht Polymer mit Schichtdicken bis zu 150 nm aufgebracht. Die Aktorcharakteristik, die Biegung des Cantilevers aufgrund des angelegten Potenzials, wird mit dem aus der Rastersondenmikroskopie bekannten Lichtzeigerverfahren gemessen. Das Aktorsystem wird hinsichtlich des angelegten Potenzials, des Elektrolyten und der Redox-Kinetik charakterisiert. Die verschiedenen Beiträge zum Aktorverhalten werden in situ während des Schichtwachstums untersucht. Das beobachtete Verhalten kann als Superposition verschiedener Effekte beschrieben werden. Darunter sind die Elektrodenaufladung (Elektrokapillarität), die Veränderungen der Elektrodenoberfläche durch dünne Oxidschichten und die Elektrochemomechanik des Polymers.
Resumo:
In der vorliegenden Arbeit wurde gezeigt, wie mit Hilfe der atomaren Vielteilchenstörungstheorie totale Energien und auch Anregungsenergien von Atomen und Ionen berechnet werden können. Dabei war es zunächst erforderlich, die Störungsreihen mit Hilfe computeralgebraischer Methoden herzuleiten. Mit Hilfe des hierbei entwickelten Maple-Programmpaketes APEX wurde dies für geschlossenschalige Systeme und Systeme mit einem aktiven Elektron bzw. Loch bis zur vierten Ordnung durchgeführt, wobei die entsprechenden Terme aufgrund ihrer großen Anzahl hier nicht wiedergegeben werden konnten. Als nächster Schritt erfolgte die analytische Winkelreduktion unter Anwendung des Maple-Programmpaketes RACAH, was zu diesem Zwecke entsprechend angepasst und weiterentwickelt wurde. Erst hier wurde von der Kugelsymmetrie des atomaren Referenzzustandes Gebrauch gemacht. Eine erhebliche Vereinfachung der Störungsterme war die Folge. Der zweite Teil dieser Arbeit befasst sich mit der numerischen Auswertung der bisher rein analytisch behandelten Störungsreihen. Dazu wurde, aufbauend auf dem Fortran-Programmpaket Ratip, ein Dirac-Fock-Programm für geschlossenschalige Systeme entwickelt, welches auf der in Kapitel 3 dargestellen Matrix-Dirac-Fock-Methode beruht. Innerhalb dieser Umgebung war es nun möglich, die Störungsterme numerisch auszuwerten. Dabei zeigte sich schnell, dass dies nur dann in einem angemessenen Zeitrahmen stattfinden kann, wenn die entsprechenden Radialintegrale im Hauptspeicher des Computers gehalten werden. Wegen der sehr hohen Anzahl dieser Integrale stellte dies auch hohe Ansprüche an die verwendete Hardware. Das war auch insbesondere der Grund dafür, dass die Korrekturen dritter Ordnung nur teilweise und die vierter Ordnung gar nicht berechnet werden konnten. Schließlich wurden die Korrelationsenergien He-artiger Systeme sowie von Neon, Argon und Quecksilber berechnet und mit Literaturwerten verglichen. Außerdem wurden noch Li-artige Systeme, Natrium, Kalium und Thallium untersucht, wobei hier die niedrigsten Zustände des Valenzelektrons betrachtet wurden. Die Ionisierungsenergien der superschweren Elemente 113 und 119 bilden den Abschluss dieser Arbeit.
Resumo:
Der Anteil dezentraler eingebetteter Systeme steigt in zahlreichen Andwendungsfeldern, wie der Kfz-Elektronik oder der Anlagenautomatisierung [ScZu03]. Zudem steigen die Anforderungen and die Flexibilität und den Funktionsumfang moderner automatisierungs-technischer Systeme. Der Einsatz agentenorientierter Methoden ist diesbezüglich ein geeigneter Ansatz diesen Anforderungen gerecht zu werden [WGU03]. Mit Agenten können flexible, anpassungsfähige Softwaresysteme entwickelt werden, welche die Verteilung von Informationen, Aufgaben, Ressourcen oder Entscheidungsprozessen der realen Problemstellung im Softwaresystem widerspiegeln. Es ist somit möglich, die gewünschte Flexibilität des Systems, bezüglich der Struktur oder des Verhaltens gezielt zu entwerfen. Nachteilig ist jedoch der Indeterminismus des Verhaltens des Gesamtsystems, der sich aufgrund von schwer vorhersagbaren Interaktionen ergibt [Jen00]. Dem gegenüber stehen statische Softwaresysteme, welche zwar einen hohen Determinismus aufweisen aber wenig flexibel in Bezug auf Änderungen der Struktur des Systems oder des Ablaufs des realen Prozesses sind. Mit der steigenden Komplexität der Systeme ist allerdings selbst mit einem statischen Entwurf die Vorhersagbarkeit immer weniger zu gewährleisten. Die Zahl der möglichen Zustände einer Anlage wird mit der Berücksichtigung von allen möglichen Fehlern, Ausfällen und externen Einflüssen (dynamische Umgebung) so groß, daß diese mit vertretbarem Aufwand kaum noch erfassbar sind und somit auch nicht behandelt werden können. Das von der DFG geförderten Projekt AVE [AVE05], welches in Kooperation mit dem Institut für Automatisierungs- und Softwaretechnik der Universität Stuttgart bearbeitet wird, beschäftigt sich in diesem Kontext mit dem Konflikt, die Vorteile der Flexibilität und Anpassungsfähigkeit von agentenorientierter Software mit den spezifischen Anforderungen der Domäne der Echtzeitsysteme, wie Zeit- und Verlässlichkeitsanforderungen, zu verknüpfen. In einer detaillierten Analyse dieser Anforderungen wurde untersucht, wie die Eigenschaften der Anpassungsfähigkeit und Flexibilität prinzipiell die Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften beeinflussen und wie umgekehrt Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften die Anpassungsfähigkeit und Flexibilität beschränken können. Aufbauend auf diesen Erkenntnissen werden Methoden und Konzepte für den Entwurf und die Implementierung von Agentensystemen auf gängiger Automatisierungshardware, insbesondere Speicher Programmierbare Steuerungen (SPS), entwickelt. In diesem Rahmen wird ein Konzept für die Modellierung von Sicherheit in Agentensystemen vorgestellt, welches insbesondere den modularen Charakter von Agenten berücksichtigt. Kernaspekt ist es, dem Entwickler einen Rahmen vorzugeben, der ihn dabei unterstützt ein möglichst lückenloses Sicherheitskonzept zu erstellen und ihm dabei genug Freiheiten lässt den Aufwand für die Strategien zur Fehlererkennung, Fehlerdiagnose und Fehlerbehandlung je nach Anforderung für jedes Modul individuell festzulegen. Desweiteren ist besonderer Wert darauf gelegt worden, dass die verwendeten Darstellungen und Diagramme aus der Domäne stammen und eine gute Vorlage für die spätere Implementierung auf automatisierungstechnischer Hardware bieten.
Resumo:
By the end of the first day of embryonic development, zebrafish primordial germ cells (PGCs) arrive at the site where the gonad develops. In our study we investigated the mechanisms controlling the precision of primordial germ cell arrival at their target. We found that in contrast with our expectations which were based on findings in Drosophila and mouse, the endoderm does not constitute a preferred migration substrate for the PGCs. Rather, endoderm derivatives are important for later stages of organogenesis keeping the PGC clusters separated. It would be interesting to investigate the precise mechanism by which endoderm controls germ cell position in the gonad. In their migration towards the gonad, zebrafish germ cells follow the gradient of chemokine SDF-1a, which they detect using the receptor CXCR4b that is expressed on their membrane. Here we show that the C-terminal region of CXCR4b is responsible for down-regulation of receptor activity as well as for receptor internalization. We demonstrate that receptor molecules unable to internalize are less potent in guiding germ cells to the site where the gonad develops, thereby implicating chemokine receptor internalization in facilitating precision of migration during chemotaxis in vivo. We demonstrate that while CXCR4b activity positively regulates the duration of the active migration phases, the down-regulation of CXCR4b signalling by internalization limits the duration of this phase. This way, receptor signalling contributes to the persistence of germ cell migration, whereas receptor down-regulation enables the cells to stop and correct their migration path close to the target where germ cells encounter the highest chemokine signal. Chemokine receptors are involved in directing cell migration in different processes such as lymphocyte trafficking, cancer and in the development of the vascular system. The C-terminal domain of many chemokine receptors was shown to be essential for controlling receptor signalling and internalization. It would therefore be important to determine whether the role for receptor internalization in vivo as described here (allowing periodical corrections to the migration route) and the mechanisms involved (reducing the level of signalling) apply for those other events, too.
Resumo:
Land use is a crucial link between human activities and the natural environment and one of the main driving forces of global environmental change. Large parts of the terrestrial land surface are used for agriculture, forestry, settlements and infrastructure. Given the importance of land use, it is essential to understand the multitude of influential factors and resulting land use patterns. An essential methodology to study and quantify such interactions is provided by the adoption of land-use models. By the application of land-use models, it is possible to analyze the complex structure of linkages and feedbacks and to also determine the relevance of driving forces. Modeling land use and land use changes has a long-term tradition. In particular on the regional scale, a variety of models for different regions and research questions has been created. Modeling capabilities grow with steady advances in computer technology, which on the one hand are driven by increasing computing power on the other hand by new methods in software development, e.g. object- and component-oriented architectures. In this thesis, SITE (Simulation of Terrestrial Environments), a novel framework for integrated regional sland-use modeling, will be introduced and discussed. Particular features of SITE are the notably extended capability to integrate models and the strict separation of application and implementation. These features enable efficient development, test and usage of integrated land-use models. On its system side, SITE provides generic data structures (grid, grid cells, attributes etc.) and takes over the responsibility for their administration. By means of a scripting language (Python) that has been extended by language features specific for land-use modeling, these data structures can be utilized and manipulated by modeling applications. The scripting language interpreter is embedded in SITE. The integration of sub models can be achieved via the scripting language or by usage of a generic interface provided by SITE. Furthermore, functionalities important for land-use modeling like model calibration, model tests and analysis support of simulation results have been integrated into the generic framework. During the implementation of SITE, specific emphasis was laid on expandability, maintainability and usability. Along with the modeling framework a land use model for the analysis of the stability of tropical rainforest margins was developed in the context of the collaborative research project STORMA (SFB 552). In a research area in Central Sulawesi, Indonesia, socio-environmental impacts of land-use changes were examined. SITE was used to simulate land-use dynamics in the historical period of 1981 to 2002. Analogous to that, a scenario that did not consider migration in the population dynamics, was analyzed. For the calculation of crop yields and trace gas emissions, the DAYCENT agro-ecosystem model was integrated. In this case study, it could be shown that land-use changes in the Indonesian research area could mainly be characterized by the expansion of agricultural areas at the expense of natural forest. For this reason, the situation had to be interpreted as unsustainable even though increased agricultural use implied economic improvements and higher farmers' incomes. Due to the importance of model calibration, it was explicitly addressed in the SITE architecture through the introduction of a specific component. The calibration functionality can be used by all SITE applications and enables largely automated model calibration. Calibration in SITE is understood as a process that finds an optimal or at least adequate solution for a set of arbitrarily selectable model parameters with respect to an objective function. In SITE, an objective function typically is a map comparison algorithm capable of comparing a simulation result to a reference map. Several map optimization and map comparison methodologies are available and can be combined. The STORMA land-use model was calibrated using a genetic algorithm for optimization and the figure of merit map comparison measure as objective function. The time period for the calibration ranged from 1981 to 2002. For this period, respective reference land-use maps were compiled. It could be shown, that an efficient automated model calibration with SITE is possible. Nevertheless, the selection of the calibration parameters required detailed knowledge about the underlying land-use model and cannot be automated. In another case study decreases in crop yields and resulting losses in income from coffee cultivation were analyzed and quantified under the assumption of four different deforestation scenarios. For this task, an empirical model, describing the dependence of bee pollination and resulting coffee fruit set from the distance to the closest natural forest, was integrated. Land-use simulations showed, that depending on the magnitude and location of ongoing forest conversion, pollination services are expected to decline continuously. This results in a reduction of coffee yields of up to 18% and a loss of net revenues per hectare of up to 14%. However, the study also showed that ecological and economic values can be preserved if patches of natural vegetation are conservated in the agricultural landscape. -----------------------------------------------------------------------
Resumo:
The soil amoebae Dictyostelium discoideum take up particles from their environment in order to obtain nutrition. The particle transits through the cell within a phagosome that fuses with organelles of different molecular compositions, undergoing a gradual degradation by different sets of hydrolytic enzymes. Griffiths’ concept of “phagosome individuality” predicts signaling from phagosomes into the cytoplasm, which might regulate many aspects of cell physiology. The finding that Dictyostelium cells depleted of the lysozyme AlyA or over-expressing the esterase Gp70 exhibit increased uptake of food particles, led to the postulation of a signaling cascade between endocytic compartments and the cytoskeletal uptake machinery at the plasma membrane. Assuming that Gp70 acts downstream of AlyA, gene-expression profiling of both mutants revealed different and overlapping sets of misregulated genes that might participate in this signaling cascade. Based on these results, we analyzed the effects of the artificial misregulation of six candidate genes by over-expression or negative genetic interference, in order to reconstruct at least part of the signaling pathway. SSB420 and SSL793 were chosen as candidates for the first signaling step, as they were up-regulated in AlyA-null cells and remained unaltered in the Gp70 over-expressing cells. The over-expression of SSB420 enhanced phagocytosis and raised the expression levels of Gp70, supporting its involvement in the signaling pathway between AlyA and Gp70 as a positive regulator of phagocytosis. However, this was not the case of cells over-expressing SSL793, as this mutation had no effects on phagocytosis. For the signaling downstream of Gp70, we studied four commonly misregulated genes in AlyA-depleted and Gp70 over-expressing cells. The expression levels of SLB350, SSB389 and TipD were lower in both mutants and therefore these were assumed as possible candidates for the negative regulation of phagocytosis. Cells depleted of SLB350 exhibited an increased phagocytic activity and no effect on Gp70 expression, proving its participation in the signaling pathway downstream of Gp70. Unlike SLB350, the disruption of the genes coding for SSB389 and TipD had no effects on particle uptake, excluding them from the pathway. The fourth candidate was Yipf1, the only gene that was commonly up-regulated in both mutants. Yet, the artificial over-expression of this protein had no effects on phagocytosis, so this candidate is also not included in the signaling pathway. Furthermore, localizing the products of the candidate genes within the cell helped unveiling several cellular organelles that receive signals from the phagosome and transduce them towards the uptake machinery.
Resumo:
Dictyostelium discoideum ernährt sich in seinem natürlichen Habitat, dem Waldboden, vorwiegend von Bakterien. Diese werden aus der Umgebung über Phagozytose aufgenommen und unter anderem mit Hilfe von Lysozymen verdaut. Eines dieser Lysozyme, AlyA, wurde bereits in vorhergehenden Arbeiten detailliert untersucht. Sein Fehlen resultierte in einer zeitabhängigen Vergrößerung der Fresshöfe in Bakterienrasen. Zusätzlich waren in diesen Knockout-Mutanten auch die Phagozytoserate und die Expression eines zweiten lysosomalen Enzyms (Gp70) erhöht. Die Überexpression dieser Esterase in wildtypischen Zellen bewirkte ebenfalls, dass Partikel aus der Umgebung effektiver aufgenommen werden konnten. Da die AlyA-Mutanten und die Gp70-Überexprimierer ähnliche Phänotypen zeigten, die Proteine aber in unterschiedlichen lysosomalen Vesikeln lokalisieren, müssen weitere Proteine an der Ausbildung der Phänotypen beteiligt sein. Aus diesem Grund wurden die Genexpressionen beider Mutanten verglichen. Über Microarray-Analysen sollten auf diese Weise weitere Proteine identifiziert werden, die eine Weiterleitung des Signals von AlyA über Gp70 bis hin zur Plasmamembran vermitteln. Einigen der potentiellen Kandidaten konnte anhand der Untersuchung von Mutanten bereits eine Weiterleitung des Signals zwischen Gp70 und der erhöhten Phagozytose an der Plasmamembran zugeordnet werden. Um jedoch mehr über die Signalkette oberhalb von Gp70 zu erfahren, wurden im Rahmen dieser Arbeit drei Proteine untersucht. Die Expression von DD3-3, SSD673 und SSD485 war in den AlyA-Mutanten erhöht, in den Gp70-Überexprimierern jedoch unverändert. Durch Herstellung und Untersuchung von überexprimierenden Mutanten wurde die Wirkung jedes Proteins auf die Gp70-Expression, das Phagozytoseverhalten und den Durchmesser der Fresshöfe analysiert. Die Markierung der Kandidaten mit dem Myc-Epitop sollte deren subzelluläre Lokalisation klären. Für DD3-3-überexpimierende Klone konnte in dieser Arbeit allerdings keine Veränderung gegenüber wildtypischen Zellen festgestellt werden. Sie zeigt allerdings, dass Medium von SSD673-überexprimierenden Zellen die Phagozytoserate wildtypischer Zellen leicht erhöht. Eine starke SSD673myc-Expression führte auch zu einer verstärkten Aufnahme von Hefezellen. Die Gp70-Expression in Gesamtzelllysaten der SSD673-Mutanten blieb jedoch unverändert. Wurde in Wildtypzellen hingegen SSD485 im Übermaß exprimiert, so führte dies zu einer verstärkten Partikelaufnahme. Diese entwickelte sich ähnlich den AlyA-Knockout-Mutanten in Abhängigkeit der Zeit und ging mit einer erhöhten Gp70-Expression einher. In dieser Arbeit konnte folglich zwei von drei Proteinen eine positive Wirkung auf die Phagozytose nachgewiesen werden. SSD485-Mutanten erfüllten darüber hinaus die Bedingungen für eine Weiterleitung des AlyA-Signals von SSD485 auf Gp70 bis hin zu einer erhöhten Phagozytose.
Resumo:
Der Einsatz der Particle Image Velocimetry (PIV) zur Analyse selbsterregter Strömungsphänomene und das dafür notwendige Auswerteverfahren werden in dieser Arbeit beschrieben. Zur Untersuchung von solchen Mechanismen, die in Turbo-Verdichtern als Rotierende Instabilitäten in Erscheinung treten, wird auf Datensätze zurückgegriffen, die anhand experimenteller Untersuchungen an einem ringförmigen Verdichter-Leitrad gewonnen wurden. Die Rotierenden Instabilitäten sind zeitabhängige Strömungsphänomene, die bei hohen aerodynamischen Belastungen in Verdichtergittern auftreten können. Aufgrund der fehlenden Phaseninformation kann diese instationäre Strömung mit konventionellen PIV-Systemen nicht erfasst werden. Die Kármánsche Wirbelstraße und Rotierende Instabilitäten stellen beide selbsterregte Strömungsvorgänge dar. Die Ähnlichkeit wird genutzt um die Funktionalität des Verfahrens anhand der Kármánschen Wirbelstraße nachzuweisen. Der mittels PIV zu visualisierende Wirbeltransport erfordert ein besonderes Verfahren, da ein externes Signal zur Festlegung des Phasenwinkels dieser selbsterregten Strömung nicht zur Verfügung steht. Die Methodik basiert auf der Kopplung der PIV-Technik mit der Hitzdrahtanemometrie. Die gleichzeitige Messung mittels einer zeitlich hochaufgelösten Hitzdraht-Messung ermöglicht den Zeitpunkten der PIV-Bilder einen Phasenwinkel zuzuordnen. Hierzu wird das Hitzdrahtsignal mit einem FFT-Verfahren analysiert, um die PIV-Bilder entsprechend ihrer Phasenwinkel zu gruppieren. Dafür werden die aufgenommenen Bilder auf der Zeitachse der Hitzdrahtmessungen markiert. Eine systematische Analyse des Hitzdrahtsignals in der Umgebung der PIV-Messung liefert Daten zur Festlegung der Grundfrequenz und erlaubt es, der markierten PIV-Position einen Phasenwinkel zuzuordnen. Die sich aus den PIV-Bildern einer Klasse ergebenden Geschwindigkeitskomponenten werden anschließend gemittelt. Aus den resultierenden Bildern jeder Klasse ergibt sich das zweidimensionale zeitabhängige Geschwindigkeitsfeld, in dem die Wirbelwanderung der Kármánschen Wirbelstraße ersichtlich wird. In hierauf aufbauenden Untersuchungen werden Zeitsignale aus Messungen in einem Verdichterringgitter analysiert. Dabei zeigt sich, dass zusätzlich Filterfunktionen erforderlich sind. Im Ergebnis wird schließlich deutlich, dass die Übertragung der anhand der Kármánschen Wirbelstraße entwickelten Methode nur teilweise gelingt und weitere Forschungsarbeiten erforderlich sind.
Resumo:
Selbstbestimmung und -gestaltung des eigenen Alltages gewinnen immer mehr an Bedeutung, insbesondere für ältere Mitmenschen in ländlichen Regionen, die auf ärztliche Versorgung angewiesen sind. Die Schaffung sogenannter smart personal environments mittels einer Vielzahl von, nahezu unsichtbar installierten Sensoren im gewohnten Lebensraum liefert dem Anwender (lebens-) notwendige Informationen über seine Umgebung oder seinen eigenen Körper. Dabei gilt es nicht den Anwender mit technischen Daten, wie Spektren, zu überfordern. Vielmehr sollte die Handhabung so einfach wie möglich gestaltet werden und die ausgewertete Information als Indikationsmittel zum weiteren Handeln dienen. Die Anforderungen an moderne Technologien sind folglich eine starke Miniaturisierung, zur optimalen Integration und Mobilität, bei gleichzeitig hoher Auflösung und Stabilität. Die Zielsetzung der vorliegenden Arbeit ist die Miniaturisierung eines spektroskopischen Systems bei gleichzeitig hohem Auflösungsvermögen für die Detektion im sichtbaren Spektralbereich. Eine Möglichkeit für die Herstellung eines konkurrenzfähigen „Mini-„ oder „Mikrospektrometers“ basiert auf Fabry-Pérot (FP) Filtersystemen, da hierbei die Miniaturisierung nicht wie üblich auf Gittersysteme limitiert ist. Der maßgebliche Faktor für das spektrale Auflösungsvermögen des Spektrometers ist die vertikale Präzision und Homogenität der einzelnen 3D Filterkavitäten, die die unterschiedlichen Transmissionswellenlängen der einzelnen Filter festlegen. Die wirtschaftliche Konkurrenzfähigkeit des am INA entwickelten Nanospektremeters wurde durch die maximale Reduzierung der Prozessschritte, nämlich auf einen einzigen Schritt, erreicht. Erstmalig wird eine neuartige Nanoimprint Technologie, die sog. Substrate Conformal Imprint Lithography, für die Herstellung von wellenlängen-selektierenden Filterkavitäten von stark miniaturisierten Spektrometern eingesetzt. Im Zuge dieser Arbeit wird das Design des FP Filtersystems entwickelt und technologisch mittels Dünnschichtdeposition und der Nanoimprinttechnologie realisiert. Ein besonderer Schwerpunkt liegt hierbei in der Untersuchung des Prägematerials, dessen optische Eigenschaften maßgeblich über die Performance des Filtersystems entscheiden. Mit Hilfe eines speziell gefertigten Mikroskopspektrometers werden die gefertigten Filterfelder hinsichtlich ihrer Transmissionseigenschaften und ihres Auflösungsvermögens hin untersucht. Im Hinblick auf publizierte Arbeiten konkurrierender Arbeitsgruppen konnte eine deutliche Verbesserung des miniaturisierten Spektrometers erreicht werden. Die Minimierung der Prozessschritte auf einen einzigen Prägeschritt sorgt gleichzeitig für eine schnelle und zuverlässige Replikation der wellenlängenselektierenden Filterkavitäten. Im Rahmen dieser Arbeit wurde aufgezeigt, dass das angestrebte Nanospektrometer, trotz der sehr geringen Größe, eine hohe Auflösung liefern kann und gerade wegen der starken Miniaturisierung mit kommerziellen Mini- und Mikro-spektrometern konkurrenzfähig ist.
Resumo:
In the vision of Mark Weiser on ubiquitous computing, computers are disappearing from the focus of the users and are seamlessly interacting with other computers and users in order to provide information and services. This shift of computers away from direct computer interaction requires another way of applications to interact without bothering the user. Context is the information which can be used to characterize the situation of persons, locations, or other objects relevant for the applications. Context-aware applications are capable of monitoring and exploiting knowledge about external operating conditions. These applications can adapt their behaviour based on the retrieved information and thus to replace (at least a certain amount) the missing user interactions. Context awareness can be assumed to be an important ingredient for applications in ubiquitous computing environments. However, context management in ubiquitous computing environments must reflect the specific characteristics of these environments, for example distribution, mobility, resource-constrained devices, and heterogeneity of context sources. Modern mobile devices are equipped with fast processors, sufficient memory, and with several sensors, like Global Positioning System (GPS) sensor, light sensor, or accelerometer. Since many applications in ubiquitous computing environments can exploit context information for enhancing their service to the user, these devices are highly useful for context-aware applications in ubiquitous computing environments. Additionally, context reasoners and external context providers can be incorporated. It is possible that several context sensors, reasoners and context providers offer the same type of information. However, the information providers can differ in quality levels (e.g. accuracy), representations (e.g. position represented in coordinates and as an address) of the offered information, and costs (like battery consumption) for providing the information. In order to simplify the development of context-aware applications, the developers should be able to transparently access context information without bothering with underlying context accessing techniques and distribution aspects. They should rather be able to express which kind of information they require, which quality criteria this information should fulfil, and how much the provision of this information should cost (not only monetary cost but also energy or performance usage). For this purpose, application developers as well as developers of context providers need a common language and vocabulary to specify which information they require respectively they provide. These descriptions respectively criteria have to be matched. For a matching of these descriptions, it is likely that a transformation of the provided information is needed to fulfil the criteria of the context-aware application. As it is possible that more than one provider fulfils the criteria, a selection process is required. In this process the system has to trade off the provided quality of context and required costs of the context provider against the quality of context requested by the context consumer. This selection allows to turn on context sources only if required. Explicitly selecting context services and thereby dynamically activating and deactivating the local context provider has the advantage that also the resource consumption is reduced as especially unused context sensors are deactivated. One promising solution is a middleware providing appropriate support in consideration of the principles of service-oriented computing like loose coupling, abstraction, reusability, or discoverability of context providers. This allows us to abstract context sensors, context reasoners and also external context providers as context services. In this thesis we present our solution consisting of a context model and ontology, a context offer and query language, a comprehensive matching and mediation process and a selection service. Especially the matching and mediation process and the selection service differ from the existing works. The matching and mediation process allows an autonomous establishment of mediation processes in order to transfer information from an offered representation into a requested representation. In difference to other approaches, the selection service selects not only a service for a service request, it rather selects a set of services in order to fulfil all requests which also facilitates the sharing of services. The approach is extensively reviewed regarding the different requirements and a set of demonstrators shows its usability in real-world scenarios.
Resumo:
Diese Dissertation stellt eine Studie da, welche sich mit den Änderungen in der Governance der Hochschulbildung in Vietnam beschäftigt. Das zentrale Ziel dieser Forschungsarbeit ist die Untersuchung der Herkunft und Änderung in der Beziehung der Mächte zwischen dem vietnamesischen Staat und den Hochschulbildungsinstituten (HI), welche hauptsächlich aus der Interaktion dieser beiden Akteure resultiert. Die Macht dieser beiden Akteure wurde im sozialen Bereich konstruiert und ist hauptsächlich durch ihre Nützlichkeit und Beiträge für die Hochschulbildung bestimmt. Diese Arbeit beschäftigt sich dabei besonders mit dem Aspekt der Lehrqualität. Diese Studie nimmt dabei die Perspektive einer allgemeinen Governance ein, um die Beziehung zwischen Staat und HI zu erforschen. Zudem verwendet sie die „Resource Dependence Theory“ (RDT), um das Verhalten der HI in Bezug auf die sich verändernde Umgebung zu untersuchen, welche durch die Politik und eine abnehmende Finanzierung charakterisiert ist. Durch eine empirische Untersuchung der Regierungspolitik sowie der internen Steuerung und den Praktiken der vier führenden Universitäten kommt die Studie zu dem Schluss, dass unter Berücksichtigung des Drucks der Schaffung von Einkommen die vietnamesischen Universitäten sowohl Strategien als auch Taktiken entwickelt haben, um Ressourcenflüsse und Legitimität zu kontrollieren. Die Entscheidungs- und Zielfindung der Komitees, die aus einer Mehrheit von Akademikern bestehen, sind dabei mächtiger als die der Manager. Daher werden bei initiativen Handlungen der Universitäten größtenteils Akademiker mit einbezogen. Gestützt auf die sich entwickelnden Muster der Ressourcenbeiträge von Akademikern und Studierenden für die Hochschulbildung prognostiziert die Studie eine aufstrebende Governance Konfiguration, bei der die Dimensionen der akademischen Selbstverwaltung und des Wettbewerbsmarktes stärker werden und die Regulation des Staates rational zunimmt. Das derzeitige institutionelle Design und administrative System des Landes, die spezifische Gewichtung und die Koordinationsmechanismen, auch als sogenanntes effektives Aufsichtssystem zwischen den drei Schlüsselakteuren - der Staat, die HI/Akademiker und die Studierenden – bezeichnet, brauchen eine lange Zeit zur Detektion und Etablierung. In der aktuellen Phase der Suche nach einem solchen System sollte die Regierung Management-Tools stärken, wie zum Beispiel die Akkreditierung, belohnende und marktbasierte Instrumente und das Treffen informations-basierter Entscheidungen. Darüber hinaus ist es notwendig die Transparenz der Politik zu erhöhen und mehr Informationen offenzulegen.