123 resultados para Königliche Lyceum und Gymnasium zu Aschaffenburg.
Resumo:
Die lokale Anlagerung molekularer Substanzen auf Oberflächen ist technologisch von großem Interesse. Die Beeinflussung selbstassemblierender Materialien bietet dabei große Vorteile, da sie kostengünstig und großflächig angewendet werden kann. Untersuchungen einer solchen Beeinflussung mithilfe von magnetischen Feldern wurden bisher jedoch noch nicht durchgeführt. Ursache hierfür ist das, insbesondere bei der Verwendung von diamagnetischen Substanzen, geringe induzierte magnetische Moment und die daraus resultierenden geringen magnetischen Kräfte. In der vorliegenden Arbeit wurde untersucht, ob es möglich ist, die lokale Anlagerung von selbstassemblierenden, diamagnetischen Substanzen durch die Verwendung von magnetischen Streufeldern zu beeinflussen und somit ein Schichtwachstum bevorzugt in gewünschten Bereichen eines Substrats zu erreichen. Es wurde ein austauschverschobenes Dünnschichtsystem über das Verfahren der ionenbeschuss-induzierten magnetischen Strukturierung mit einem künstlichen Domänenmuster in streifenförmiger Anordnung im Mikrometermaßstab erzeugt. Über experimentelle Untersuchungen wurden die aus diesem Schichtsystem austretenden magnetischen Streufelder erstmals quantifiziert. Die experimentell unvermeidbaren Mittelungen und technischen Limitierungen wurden mithilfe eines theoretischen Modells herausgerechnet, sodass letztlich die resultierende Magnetfeldlandschaft in allen drei Dimensionen über der Probenoberfläche erhalten wurde. Durch die Bestimmung der magnetischen Suszeptibilitäten der hier verwendeten thioethersubstituierten Subphthalocyanin-Derivate konnte somit die Berechnung der induzierten magnetischen Kräfte erfolgen, deren Vergleich mit Literaturwerten eine erfolgreiche Beeinflussung der Anlagerung dieser Substanzen erhoffen ließ. Aufgrund der Kombination diverser, anspruchsvoller Nachweisverfahren konnte der experimentelle Beweis für die erfolgreiche Positionierung der molekularen Substanzen durch die magnetischen Streufelder des Dünnschichtsystems erbracht werden. Zunächst wurde nachgewiesen, dass sich die Subphthalocyanin-Derivate auf der Probenoberfläche befinden und in einer mit der Periode der magnetischen Domänenstruktur korrelierenden Geometrie anlagern. Über Untersuchungen an Synchrotronstrahlungsquellen konnte die magnetische Streifenstruktur mit der Struktur der angelagerten Moleküle überlagert werden, sodass bekannt wurde, dass sich die Moleküle bevorzugt in den magnetisch begünstigten Bereichen anlagern. Um mögliche Einflüsse einer eventuell durch den magnetischen Strukturierungsprozess lokal modifizierten Substratoberfläche als Ursache für die lokale Molekülanlagerung ausschließen zu können, wurden zusätzliche Referenzmessungen durchgeführt. Alle Untersuchungen zeigen, dass die Molekülpositionierung auf der Wechselwirkung der diamagnetischen Substanzen mit den Streufeldern des Substrats zurückzuführen ist. Der im Rahmen dieser Arbeit entwickelte Mechanismus der magnetischen Beeinflussung der lokalen Molekülanlagerung besagt dabei, dass insbesondere die Oberflächendiffusion der selbstassemblierenden Substanz durch die in-plane-Magnetfeldkomponente beeinflusst wird und vermutlich die Nukleationsphase der Selbstassemblierung entscheidend für die lokale Materialabscheidung ist. Es konnte in dieser Arbeit somit gezeigt werden, dass eine Beeinflussung der Selbstassemblierung von diamagnetischen Subphthalocyanin-Derivaten und somit eine lokal bevorzugte Anlagerung dieser Substanzen durch magnetische Streufelder von magnetisch strukturierten austauschverschobenen Dünnschichtsystemen erreicht werden kann. Es resultiert somit eine neue Möglichkeit die technologisch wichtigen Selbstassemblierungsprozesse nun auch über magnetische Streufelder beeinflussen und kontrollieren zu können. Durch die hohe Flexibilität bei den Strukturierungsmöglichkeiten der magnetischen Domänengeometrien der hier verwendeten austauschverschobenen Dünnschichtsysteme resultieren aus den hier gezeigten Ergebnissen vielfältige Anwendungsmöglichkeiten im Bereich der Beschichtungstechnik.
Resumo:
Die Epigenetik repräsentiert einen Teilbereich der Genetik, der sich mit Regulationsmechanismen befasst, welche Einfluss auf die Genexpression nehmen und dabei nicht auf Veränderungen in der DNA-Sequenz beruhen. Ein verbreiteter Mechanismus beruht auf der Kontrolle des Kondensationsgrades der DNA durch posttranslationale Modifizierung von Proteinen. Die Proteine können ein struktureller Bestandteil des Chromatins oder aber an dessen Etablierung und Aufrechterhaltung beteiligt sein. Heterochromatin Protein 1 (HP1) ist ein Schlüsselprotein bei der Bildung und Aufrechterhaltung heterochromatischer Strukturen. Zudem erfüllt es eine Reihe weiterer Funktionen und interagiert mit einer Vielzahl von Proteinen. In der vorliegenden Arbeit konnte gezeigt werden, dass die HP1-Homologe aus Dictyostelium discoideum umfangreich mit posttranslationalen Modifikationen versehen sind. Eine in der als Interaktionsdomäne bezeichneten Chromo-Shadow-Domäne gelegene Acetylierung steht zumindest in HcpB im Zusammenhang mit der Bildung von Heterochromatin. Darüber hinaus konnte gezeigt werden, dass HcpB physisch mit der Histonmethyltransferase SuvA interagiert. Der Einfluss der oben genannten Acetylierung auf die Bildung von Heterochromatin könnte dabei sowohl auf der Kontrolle der Homo- bzw. Heterodimerisierung als auch auf der Kontrolle der Interaktion mit SuvA beruhen. Die hohe Konservierung von HP1-Proteinen führt zu der Frage, ob das humane Homolog HP1α die endogenen HP1-Homologe in Dictyostelium discoideum kompensieren kann. Während humanes HP1α in der Lage ist im Einzel-Knockout mit heterochromatischen Strukturen zu assoziieren scheint der Knockout des zweiten Homologes letal zu sein. Dies legt nahe, dass HP1α nur einen Teil der Funktionen übernehmen kann. Um Interaktionspartner von HcpA und HcpB zu bestimmen wurden mit bioinformatischen Methoden drei Proteine aus Dictyostelium als potentielle Komponenten des Chromatin Assembly Factor 1 (CAF1) identifiziert und untersucht. Vorhergehende Experimente aus anderen Arbeiten stützen die Annahme, dass es sich hierbei um Komponenten des Chromatin Assembly Factor 1 handelt.
Strukturelle und funktionelle Charakterisierung des Dnmt2-Homologs DnmA von Dictyostelium discoideum
Resumo:
In dieser Arbeit wurde die DNA Methyltransferase 2 aus Dictyostelium discoideum strukturell und funktionell untersucht. Sie vermittelt die Methylierung des Cytosin an Position 38 nahe des Anticodons der tRNAAsp (Goll et al., 2006; Müller et al., 2013). Jedoch ist die biologische Funktion dieser Methylierung bis heute nicht hinreichend geklärt. In der Vergangenheit konnten erhebliche Unterschiede in der in vivo- und in vitro-Methylierungsaktivität von DnmA, dem Dnmt2-Homolog aus D. discoideum, beobachtet werden. So wurde bis jetzt ausschließlich tRNAAsp als in vivo-Substrat des Proteins identifiziert. In vitro methyliert rekombinant gewonnenes DnmA aus E. coli allerdings auch Transkripte der tRNAGlu und tRNAGly (Müller et al., 2013). Aus diesem Grund sollten in dieser Arbeit posttranslationaler Proteinmodifikationen von DnmA identifiziert werden. Diese können an dem Protein aus D. discoideum, jedoch nicht oder verändert an dem Protein aus E. coli auftreten und deshalb zu einer abweichenden Methylierungsaktivität von DnmA führen. Es konnte gezeigt werden, dass DnmA aus D. discoideum isoliert, zahlreiche Proteinmodifikationen aufweist, wobei elf Methylierungen, drei Phosphorylierungen und drei Acetylierungen identifiziert werden konnten. Die als methyliert identifizierten Aminosäuren K205, K236, K276 und R341 und die phosphorylierte Aminosäure T239 wurden detaillierter untersucht. Dazu wurden sie jeweils zu Alanin mutiert. Keine der Aminosäureaustausch-mutationen führte zu einem erheblichen Strukturverlust des Proteins und alle Proteine zeigten in vitro-Methylierungsaktivität mit tRNAAsp, tRNAGlu und tRNAGly. Die Mutations-proteine DnmAK276A und R341A wurden überdies in vivo untersucht und zeigten eine verringerte Methylierungsaktivität. Diese Ergebnisse liefern erste Hinweise darauf, dass posttranslationale Proteinmodifikationen die Aktivität von DnmA in vivo beeinflussen könnten. Außerdem konnte gezeigt werden, dass auch DnmA, welches in D. discoideum überexprimiert und daraus gereinigt wurde, in vitro-Methylierungsaktivität mit tRNAGly besitzt. Da tRNAGly kein Substrat für DnmA in vivo darstellt (Müller et al., 2013), konnte dadurch nachgewiesen werden, dass das Protein, auch wenn es in D. discoideum exprimiert wird, in vivo und in vitro abweichende Substratspezifität aufweist. Weiterhin wurde versucht, Protein-Interaktionspartner von DnmA zu identifizieren. Mittels Immunpräzipitation und anschließender massenspektrometrischer Analyse konnten eine Vielzahl von Kandidaten identifiziert werden. Erste Versuche, die Ergebnisse zu verifizieren, zeigten allerdings keine Bestätigung der direkten Interaktion der Proteine CulB, CulE und Nola1 mit DnmA. Wie in vorherigen Untersuchungen (Dissertation Vladimir Maksimov, 2010; Dissertation Sara Müller, 2011), konnten auch im Rahmen dieser Arbeit keine direkt mit DnmA assoziierten Proteine in D. discoideum identifiziert werden. Im dritten Projekt der vorliegenden Arbeit wurde ein Zusammenhang zwischen der DnmA-vermittelten tRNA-Methylierung am C38 und einer weiteren tRNA-Modifikation, Queuosin an Position 34, gezeigt. Die Methylierung der tRNAAsp durch DnmA war signifikant erhöht, wenn das Nährmedium von D. discoideum mit Queuin supplementiert wurde. Allerdings ist Queuosin für die DnmA-vermittelte tRNA-Methylierung nicht unabdingbar. In vivo konnte nach Überexpression von DnmA ebenfalls eine Queuosin-unabhängige tRNAAsp-Methylierung detektiert werden. Weiterhin wurde gezeigt, dass Queuosin-enthaltende tRNAs kein generelles Substrat für DnmA darstellen. Nach Gabe von Queuin wiesen die anderen Queuosin-enthaltenden tRNAs tRNAAsn, tRNAHis und tRNATyr keine Methylierung putativer DnmA-targets auf. Auch an tRNAGlu und tRNAGly konnte unter diesen Bedingungen keine in vivo-Methylierung des C38 bzw. C37 gezeigt werden. Weiterhin wurden erste Untersuchungen zur Bestimmung der Funktion der DnmA-vermittelten Methylierung in Zusammenhang mit der Queuosin-Modifikation durchgeführt. Bereits 1985 wurde beschrieben, dass Queuin im Nährmedium die tRNA-Menge von tRNAAsp und tRNATyr in Wildtyp Dictyostelium-Zellen um das Zweifache erhöht (Ott and Kersten, 1985). Hier konnten diese Ergebnisse bestätigt und außerdem gezeigt werden, dass dieser Effekt in einem dnmA- -Stamm nicht auftritt. Interessanterweise stellte tRNATyr jedoch kein Methylierungssubstrat für DnmA dar. Dennoch konnte in einem dnmA- -Stamm ebenfalls keine erhöhte Menge dieser tRNA beobachtet werden, obwohl die Zellen mit Queuin kultiviert wurden. In wieweit ein indirekter Effekt, welcher nicht die DnmA-vermittelte Methylierung darstellt, weitere tRNA-Modifikationen oder andere Proteine an diesem Regulationsmechanismus beteiligt sind, muss in zukünftigen Analysen geklärt werden.
Resumo:
The rapid growth of the optical communication branches and the enormous demand for more bandwidth require novel networks such as dense wavelength division multiplexing (DWDM). These networks enable higher bitrate transmission using the existing optical fibers. Micromechanically tunable optical microcavity devices like VCSELs, Fabry-Pérot filters and photodetectors are core components of these novel DWDM systems. Several air-gap based tunable devices were successfully implemented in the last years. Even though these concepts are very promising, two main disadvantages are still remaining. On the one hand, the high fabrication and integration cost and on the other hand the undesired adverse buckling of the suspended membranes. This thesis addresses these two problems and consists of two main parts: • PECVD dielectric material investigation and stress control resulting in membranes shape engineering. • Implementation and characterization of novel tunable optical devices with tailored shapes of the suspended membranes. For this purposes, low-cost PECVD technology is investigated and developed in detail. The macro- and microstress of silicon nitride and silicon dioxide are controlled over a wide range. Furthermore, the effect of stress on the optical and mechanical properties of the suspended membranes and on the microcavities is evaluated. Various membrane shapes (concave, convex and planar) with several radii of curvature are fabricated. Using this resonator shape engineering, microcavity devices such as non tunable and tunable Fabry-Pérot filters, VCSELs and PIN photodetectors are succesfully implemented. The fabricated Fabry-Pérot filters cover a spectral range of over 200nm and show resonance linewidths down to 1.5nm. By varying the stress distribution across the vertical direction within a DBR, the shape and the radius of curvature of the top membrane are explicitely tailored. By adjusting the incoming light beam waist to the curvature, the fundamental resonant mode is supported and the higher order ones are suppressed. For instance, a tunable VCSEL with 26 nm tuning range, 400µW maximal output power, 47nm free spectral range and over 57dB side mode suppresion ratio (SMSR) is demonstrated. Other technologies, such as introducing light emitting organic materials in microcavities are also investigated.
Resumo:
In der vorliegenden Arbeit werden die Auswirkungen von Umweltveränderungen in einem N-gesättigten Buchenwaldökosystem über Basalt (Braunerde) untersucht. Unter veränderten Umweltbedingungen sind hier vor allem Bestandesdachauflösung, immissions- oder waldbaulich bedingt, und Klimaveränderung zu verstehen, die eine Erwärmung des Oberbodens zur Folge haben. Die Änderungen der Umweltbedingungen werden in diesem Versuchsansatz durch einen waldbaulichen Eingriff simuliert, durch den eine Bestandeslücke entsteht, die in einer Erwärmung des Bodens resultieren und damit den Wasser- und Elementhaushalt insgesamt beeinflussen. Es wird deutlich, dass die in der vorliegenden Arbeit untersuchten Flächen als N-gesättigt bezeichnet werden können, da die N-Verluste aus dem System die Größe der Einträge überschreiten. In der Folge ist es zu einer Entkopplung des Stoffhaushalts und damit zu erhöhter N-Mobilisierung gekommen. Diese konnte vor allem im hydrologischen Jahr 1996 dokumentiert werden; der Überschuss-N-Output liegt auf der Auflichtungsfläche bei bis zu 50 kg N/(ha*a)! Die beobachteten hohen N-Austräge erfolgten trotz eines ebenfalls beobachteten Anwachsens des mikrobiellen Stickstoff-Pools und des Aufwachsens einer krautigen und strauchigen Vegetation auf der Auflichtungsfläche. Im Jahresgang konnten auf der Auflichtungsfläche in 0 - 30 cm Bodentiefe maximale Änderungen im Nmic-Vorrat von 130 kg N/(ha*a) beobachtet werden. Das im Frühjahr beginnende quantitative Anwachsen des mikrobiellen Stickstoff-Pools mit dem Jahresgang zeigt vor allem dessen Temperaturabhängigkeit auf. Die am Ende der Vegetationsperiode deutlich ansteigenden Austragsraten zeigen jedoch an, dass der freigesetzte Stickstoff auch von den Mikroorganismen nicht dauerhaft im System gehalten werden kann, da mit fallender Temperatur auch die Mikroorganismen absterben und der in ihrer Biomasse gespeicherte Stickstoff freigesetzt wird. Aufwachsende Vegetation auf der Auflichtungsfläche konnte einen Großteil des Netto-Stickstoff-Jahreseintrages aufnehmen. Da die "Netto-Jahres-Mineralisation" 1996 leicht über der Wurzelaufnahme liegt, verbleibt ein Rest, der nicht von der aufwachsenden krautigen Vegetation der Auflichtungsfläche aufgenommen werden kann. Ergebnis ist damit, dass die auf Lochhieben aufwachsende krautige und strauchige Vegetation eine temperaturbedingte Stickstoffmobilisierung nur teilweise kompensieren kann. Allein aufwachsende verholzende Vegetation kann Stickstoff langfristig im System binden.
Resumo:
Im Informationszeitalter erhalten die Neuen Medien eine immer größer werdende Bedeutung. Lange Zeit galten gedruckte Informationen – häufig in Form von Büchern und Zeitschriften – als eigentliche Informationsquelle in den Bibliotheken. Mehr und mehr nehmen jedoch mittlerweile auch multimediale Anwendungen breiteren Raum ein, gilt es doch, sich den veränderten Lese- und insbesondere Informationsgewohnheiten anzupassen. Insbesondere sollen elektronische Informationsquellen und digitale Literatur erschlossen und bereitgestellt werden. Im Zuge dieser Entwicklung wurde durch die hessische Ministerin für Wissenschaft und Kunst am 11.11.1998 in der Gesamthochschulbibliothek Kassel eine neugeschaffene Multi-Media-Thek (MMT) eröffnet. In dieser Multimediathek sollen die Bibliotheksbenutzer die Möglichkeit erhalten, die Neuen Medien zu erkunden und gewinnbringend für ihre Fragestellungen einzusetzen. Neben den mittlerweile weiter verbreiteten Internetarbeitsplätzen haben die Benutzer Gelegenheit, an speziell ausgestatteten Arbeitsplätzen Audio- und Videoanwendungen zu testen. Die zur Verfügung stehenden Arbeitsplätze sind plattformübergreifend gestaltet, neben Windows NT-Rechnern können Macintosh-, Java- und Linux-Rechner benutzt werden. Alle PC-Systeme verfügen über hochauflösende Grafik- und Soundkarten, allerdings müssen zum Abhören von Audio-Medien, DVD’s oder Multimedia-CD’s entsprechende Kopfhörer aufgesetzt werden. Über WinCenter können auch auf Linux- und Macintosh-Rechnern CD-Applikationen aus dem GHB-internen CD-Server angewählt werden. Zur Auswahl stehen derzeit 140 Datenbanken, die zudem ergänzt werden durch entsprechende Datenbankzugriffe auf den Silverplatter-Server der GHB. In separaten Klein-Arbeitsräumen können Audio-Cassetten und Video-Bänder benutzt werden. Natürlich lassen sich auch herkömmliche Dias und Microfiches in den Räumen der MMT betrachten und Ausdrucke über den Reader-Printer bzw. über das Bibliotheksnetz auf einen zentralen Benutzer-Drucker (OCE-Drucksystem mit Entgeldregelung) machen. Als Auslegestelle für DIN-Normen kann im DIN-Katalog über Internet recherchiert und das Ergebnis der Recherche direkt im DIN-Bestand angesehen werden. In einem speziell eingerichteten Macintosh-Pool sind mittels Scanner, Grafikbearbeitungssoftware und OCR-Möglichkeit weitere Bedingungen für multimediales Arbeiten geschaffen. Sie sollen bei entsprechendem Bedarf um digitale Bildbearbeitung (Photo, Video) gegebenenfalls ergänzt werden. Die Bibliothek bietet in den Räumen der Multimediathek entsprechende Schulungen zur effektiven Nutzung der Rechnerausstattung an.
Resumo:
Die Signaltransduktion in niederen und höheren Zellen gehört zu einem der intensivst beforschten, molekularen Mechanismen. Wie gelangt ein externer Stimulus in die Zelle, bzw. wie wird das entsprechende Signal von der Zelloberfläche in das Zellinnere übertragen? Welche Proteine, die in die Signaltransduktion involviert sind, benötigt die Zelle um auf diesen Stimulus zu reagieren – und wie reagiert die Zelle letztendlich auf dieses extrazelluläre Signal? In den letzten Jahren wurde deutlich, dass diese interaktiven Netzwerke hochkomplex sind und für die molekularbiologische Forschung nur dann einsehbar werden, wenn gezielt Mutanten hergestellt werden, die z.B. Rezeptoren oder interzelluläre Komponenten nicht mehr vorweisen können. Die Erforschung der Signaltransduktionsprozesse ist mittlerweile aus den Laboren der Grundlagenforschung auch in die molekularbiologischen Labors der pharmazeutischen Forschung übertragen worden. Aktuell wurden in den letzten Jahren mehrere Substanzen entwickelt, die z.B. für die Bekämpfung von bösartigen Tumoren geeignet sind, und diese Substanzen zeichnen sich dadurch aus, dass sie Komponenten der Signaltransduktion blockieren, bzw. Botenstoffe der Neoangiogenese aus dem Serum entfernen und so den Tumor „aushungern“. In Dictyostelium discoideum sind bereits zahlreiche Signaltransduktionskomponenten beschrieben worden und es finden sich die bekannten Systeme, wie z.B. Transmembranrezeptoren, G-Proteine oder ras-Proteine, die man aus anderen Organismen kennt wieder. Auch MAP-Kinase-Kaskaden sind vorhanden und verschiedene extrazelluläre Signalstoffe, wie z.B. cAMP, PSF oder CMF sind bekannt und teilweise charakterisiert. Dictyostelium discoideum eignet sich aus diesen Gründen und aus Gründen der biochemischen und zellbiologischen Verfügbarkeit dazu, Prozesse der Signalerkennung und deren Weiterleitung zu den Effektorproteinen zu erforschen. Das Primärziel dieser Arbeit war es, möglichst eine neue Komponente in einem der bereits bekannten Signalwege der Discoidin-Regulation durch Mutagenesen zu zerstören, um diese anschließend beschreiben und charakterisieren zu können.Dazu wurde die sog. REMI-Mutagenese am neu gegründeten Labor der Universität Kassel etabliert und ferner die Zellkulturtechnik von D. discoideum für den Routineeinsatz eingearbeitet. Eine weitere Aufgabe der vorliegenden Arbeit war das Screening bereits bekannter Zellinien, die durch einen auffälligen Phänotyp nach einer Mutagenese isoliert worden waren. Dieses Screening sollte mit Western-blot-Analysen des sog. Discoidin-Proteins durchgeführt werden. Zusätzlich sollten neue Methoden entwickelt werden, die es möglich machen die Interaktionen während des vegetativen Wachstums vom Dictyostelium in Klebsiella-Suspension zu beschreiben.
Resumo:
Zwischennutzungen sind ein Alltagsphänomen, das seit Ende der 1990er Jahre im wissenschaftlichen Kontext und der kommunalen Praxis der Stadt- und Freiraumentwicklung auffallend an Aufmerksamkeit gewinnt. Die vorliegende Arbeit widmet sich dem Phänomen aus der Perspektive der Freiraumentwicklung als kommunaler Aufgabe. Im Zentrum des Interesses steht die Frage, welche aktuelle Bedeutung Zwischennutzungen, verstanden als die vorübergehende Freiraumnutzung brachliegender Baugrundstücke, für freiraumbezogene öffentliche Aufgaben und Handlungsansätze haben bzw. welche Potentiale sie dafür bieten. Vor dem Hintergrund heterogener gesellschaftlicher und räumlicher Gegebenheiten, der Erkenntnis um eine begrenzte hoheitliche Steuerbarkeit der weiteren stadträumlichen Entwicklung und angesichts knapper Haushaltsmittel ist die kommunale Freiraumentwicklung gefordert, sich bezüglich ihrer Kernaufgaben aber auch bezüglich ihrer Rolle bei der Erfüllung dieser Aufgaben neu zu positionieren. Vermehrt werden Forderungen nach einem Abgehen von „allgemeingültigen“ Versorgungsstandards und traditionellen „Produktionsprozessen“ laut. Flexiblere Freiraumangebote sollen Gestaltungsspielräume für eigeninitiatives Handeln und wechselhafte oder neuartige Nutzungen eröffnen. Mit dem Setzen von Prioritäten, einer verstärkten Kundenorientierung und aktivierenden bzw. kooperativen Handlungsansätzen soll der schlechten Haushaltslage begegnet werden. Zwischennutzungen deuten aufgrund ihrer funktionalen, räumlichen und zeitlichen Flexibilität Möglichkeiten an, auf diese Anforderungen einzugehen. Der Blick in die Verwaltungspraxis einzelner Städte zeigt, dass Zwischennutzungen in der kommunalen Freiraumentwicklung in verschiedenen Zusammenhängen gezielt aufgegriffen werden und dabei diverse Bezüge zu diesen aktuellen Anforderungen herstellen lassen. Der Stellenwert, der ihnen beigemessen wird, reicht dabei vom Ausnahmefall bis zum bewährten Ansatz. Mit den Maßnahmen werden häufig akute bzw. kurzfristige Ziele verfolgt, etwa die vorübergehende Schaffung zusätzlicher Spiel- und Aufenthaltsmöglichkeiten oder die Aufwertung brachliegender Flächen durch extensive Gestaltungsmaßnahmen. Die Projekte sind häufig charakterisiert durch intensive Kooperationen mit anderen öffentlichen und mit nicht-öffentlichen Akteuren. Die Einbindung von Zwischennutzungen in das alltägliche Verwaltungshandeln ist allerdings auch mit diversen Schwierigkeiten verbunden, wie erste Institutionalisierungsansätze in manchen Städten zeigen. Die Verknüpfung unterschiedlicher Zeithorizonte im Planungsgeschehen, die Verbindung des temporären Phänomens Zwischennutzung mit dem traditionellerweise auf Dauerhaftigkeit ausgerichteten Aufgabenverständnis der kommunalen Freiraumentwicklung verlangt nach einer Modifizierung bisheriger Positionen und Herangehensweisen. Ein solcher Anpassungsprozess im Verwaltungshandeln lässt sich nur langfristig und schrittweise bewältigen und ist als Teil der – angesichts aktueller Entwicklungen notwendigen – Weiterentwicklung freiraumbezogener Aufgaben und Handlungsansätze zu verstehen. Zwischennutzungen können neben ihren kurzfristig umsetzbaren Funktionen einen Beitrag dazu leisten.
Resumo:
Die medienrechtliche Diskussion in Deutschland, aber auch in anderen Mitgliedstaaten, hat sich bisher (zu) wenig mit den Maßgaben des europäischen Medienrechts befasst und wurde (zu) häufig von aktuellen Themen auf nationaler Ebene überlagert. Dies wird dem großen Einfluss, den das Gemeinschaftsrecht auf die Ausgestaltung der nationalen Medienordnungen ausübt und künftig in (wohl) zunehmendem Maß ausüben wird, nicht gerecht. In den letzten 25 Jahren hat sich ein eigenständiges "europäisches Medienrecht" herausgebildet, dessen Konturen in diesem Beitrag beschrieben werden. Nach einer kurzen Einführung (I.) werden ausgehend von den Grundrechten des Europäischen Verfassungsvertrags und Grundfreiheiten des EGV (II.) die wichtigsten Regelungsbereiche des europäischen Medienrechts skizziert und deren Entwicklungstendenzen angedeutet (III.). Ein Ausblick schließt den Beitrag ab (IV.).
Resumo:
Das Grünbuch 2006 der Europäischen Kommission "Eine Europäische Strategie für nachhaltige, wettbewerbsfähige und sichere Energie" unterstreicht, dass Europa in ein neues Energie-Zeitalter eingetreten ist. Die vorrangigen Ziele europäischer Energiepolitik müssen Nachhaltigkeit, Wettbewerbsfähigkeit und Versorgungssicherheit sein, wobei sie eine zusammenhängende und logische Menge von Taktiken und Maßnahmen benötigt, um diese Ziele zu erreichen. Die Strommärkte und Verbundnetze Europas bilden das Kernstück unseres Energiesystems und müssen sich weiterentwickeln, um den neuen Anforderungen zu entsprechen. Die europäischen Stromnetze haben die lebenswichtigen Verbindungen zwischen Stromproduzenten und Verbrauchern mit großem Erfolg seit vielen Jahrzehnten gesichert. Die grundlegende Struktur dieser Netze ist entwickelt worden, um die Bedürfnisse großer, überwiegend auf Kohle aufgebauten Herstellungstechnologien zu befriedigen, die sich entfernt von den Verbraucherzentren befinden. Die Energieprobleme, denen Europa jetzt gegenübersteht, ändern die Stromerzeugungslandschaft in zwei Gesichtspunkten: die Notwendigkeit für saubere Kraftwerkstechnologien verbunden mit erheblich verbesserten Wirkungsgraden auf der Verbraucherseite wird es Kunden ermöglichen, mit den Netzen viel interaktiver zu arbeiten; andererseits müssen die zukünftigen europaweiten Stromnetze allen Verbrauchern eine höchst zuverlässige, preiswerte Energiezufuhr bereitstellen, wobei sowohl die Nutzung von großen zentralisierten Kraftwerken als auch kleineren lokalen Energiequellen überall in Europa ausgeschöpft werden müssen. In diesem Zusammenhang wird darauf hingewiesen, dass die Informationen, die in dieser Arbeit dargestellt werden, auf aktuellen Fragen mit großem Einfluss auf die gegenwärtigen technischen und wirtschaftspolitischen Diskussionen basieren. Der Autor hat während der letzten Jahre viele der hier vorgestellten Schlussfolgerungen und Empfehlungen mit Vertretern der Kraftwerksindustrie, Betreibern von Stromnetzen und Versorgungsbetrieben, Forschungsgremien und den Regulierungsstellen diskutiert. Die folgenden Absätze fassen die Hauptergebnisse zusammen: Diese Arbeit definiert das neue Konzept, das auf mehr verbraucherorientierten Netzen basiert, und untersucht die Notwendigkeiten sowie die Vorteile und die Hindernisse für den Übergang auf ein mögliches neues Modell für Europa: die intelligenten Stromnetze basierend auf starker Integration erneuerbarer Quellen und lokalen Kleinkraftwerken. Das neue Modell wird als eine grundlegende Änderung dargestellt, die sich deutlich auf Netzentwurf und -steuerung auswirken wird. Sie fordert ein europäisches Stromnetz mit den folgenden Merkmalen: – Flexibel: es erfüllt die Bedürfnisse der Kunden, indem es auf Änderungen und neue Forderungen eingehen kann – Zugänglich: es gestattet den Verbindungszugang aller Netzbenutzer besonders für erneuerbare Energiequellen und lokale Stromerzeugung mit hohem Wirkungsgrad sowie ohne oder mit niedrigen Kohlendioxidemissionen – Zuverlässig: es verbessert und garantiert die Sicherheit und Qualität der Versorgung mit den Forderungen des digitalen Zeitalters mit Reaktionsmöglichkeiten gegen Gefahren und Unsicherheiten – Wirtschaftlich: es garantiert höchste Wirtschaftlichkeit durch Innovation, effizientes Energiemanagement und liefert „gleiche Ausgangsbedingungen“ für Wettbewerb und Regulierung. Es beinhaltet die neuesten Technologien, um Erfolg zu gewährleisten, während es die Flexibilität behält, sich an weitere Entwicklungen anzupassen und fordert daher ein zuversichtliches Programm für Forschung, Entwicklung und Demonstration, das einen Kurs im Hinblick auf ein Stromversorgungsnetz entwirft, welches die Bedürfnisse der Zukunft Europas befriedigt: – Netztechnologien, die die Stromübertragung verbessern und Energieverluste verringern, werden die Effizienz der Versorgung erhöhen, während neue Leistungselektronik die Versorgungsqualität verbessern wird. Es wird ein Werkzeugkasten erprobter technischer Lösungen geschaffen werden, der schnell und wirtschaftlich eingesetzt werden kann, so dass bestehende Netze Stromeinleitungen von allen Energieressourcen aufnehmen können. – Fortschritte bei Simulationsprogrammen wird die Einführung innovativer Technologien in die praktische Anwendung zum Vorteil sowohl der Kunden als auch der Versorger stark unterstützen. Sie werden das erfolgreiche Anpassen neuer und alter Ausführungen der Netzkomponenten gewährleisten, um die Funktion von Automatisierungs- und Regelungsanordnungen zu garantieren. – Harmonisierung der ordnungspolitischen und kommerziellen Rahmen in Europa, um grenzüberschreitenden Handel von sowohl Energie als auch Netzdienstleistungen zu erleichtern; damit muss eine Vielzahl von Einsatzsituationen gewährleistet werden. Gemeinsame technische Normen und Protokolle müssen eingeführt werden, um offenen Zugang zu gewährleisten und den Einsatz der Ausrüstung eines jeden Herstellers zu ermöglichen. – Entwicklungen in Nachrichtentechnik, Mess- und Handelssystemen werden auf allen Ebenen neue Möglichkeiten eröffnen, auf Grund von Signalen des Marktes frühzeitig technische und kommerzielle Wirkungsgrade zu verbessern. Es wird Unternehmen ermöglichen, innovative Dienstvereinbarungen zu benutzen, um ihre Effizienz zu verbessern und ihre Angebote an Kunden zu vergrößern. Schließlich muss betont werden, dass für einen erfolgreichen Übergang zu einem zukünftigen nachhaltigen Energiesystem alle relevanten Beteiligten involviert werden müssen.
Resumo:
Physikalische Grundlagenforschung und anwendungsorientierte physikalische Forschung auf den Gebieten nanoskaliger kristalliner und amorpher fester Körper haben in vielfacher Weise eine große Bedeutung. Neben dem Verständnis für die Struktur der Materie und die Wechselwirkung von Objekten von der Größe einiger Atome ist die Erkenntnis über die physikalischen Eigenschaften nanostrukturierter Systeme von hohem Interesse. Diese Forschung eröffnet die Möglichkeit, die mit der Mikroelektronik begonnene Miniaturisierung fortzusetzen und wird darüber hinaus neue Anwendungsfelder eröffnen. Das Erarbeiten der physikalischen Grundlagen der Methoden zur Herstellung und Strukturierung ist dabei zwingend notwendig, da hier Wirkungsprinzipien dominieren, die erst bei Strukturgrößen im Nanometerbereich auftreten oder hinreichend stark ausgeprägt sind. Insbesondere Halbleitermaterialien sind hier von großem Interesse. Die in dieser Arbeit untersuchten Resonatorstrukturen, die auf dem kristallinen Verbindungshalbleitermaterial GaInAsP/InP basieren, erschließen wichtige Anwendungsfelder im Bereich der optischen Datenübertragung sowie der optischen Sensorik. Hergestellt wird das Halbleitermaterial mit der Metallorganischen Gasphasenepitaxie. Die experimentell besimmten Kenngrößen lassen Rückschlüsse auf die Güte der Materialien, die quantenmechanischen Wirkungsprinzipien und die Bauelementcharakteristik zu und führen zu optimal angepassten Kristallstrukturen. Auf Basis dieser optimierten Materialien wurde ein durchstimmbarer Fabry-Perot-Filter hergestellt, der aus einer Kombination aus InP-Membranen und Luftspalten besteht und elektromechanisch aktuiert werden kann. Das GaInAsP dient hierbei als wenige hundert nm dicke Opferschicht, die ätztechnisch hochselektiv beseitigt wird. Die Qualität der Grenzflächen zum InP ist entscheidend für die Qualität der freigeätzten Kavitäten und damit für die mechanische Gesamtstabilität der Struktur. Der in dieser Arbeit beschriebene Filter hat eine Zentralwellenlänge im Bereich von 1550 nm und weist einen Durchstimmbereich von 221 nm auf. Erzielt wurde dieser Wert durch ein konsistentes Modell der wirkenden Verspannungskomponenten und einer optimierten epitaktischen Kontrolle der Verspannungsparameter. Das realisierte Filterbauelement ist vielversprechend für den Einsatz in der optischen Kommunikation im Bereich von WDM (wavelength division multiplexing) Anwendungen. Als weitere Resonatorstrukur wurde ein Asymmetrisch gekoppelter Quantenfilm als optisch aktives Medium, bestehend aus GaInAsP mit variierender Materialkomposition und Verspannung, untersucht, um sein Potential für eine breitbandige Emission zu untersuchen und mit bekannten Modellen zu vergleichen. Als Bauelementdesign wurde eine kantenemittierende Superlumineszenzleuchtdiode gewählt. Das Ergebnis ist eine Emissionskurve von 100 nm, die eine höhere Unabhängigkeit vom Injektionsstrom aufweist als andere bekannte Konzepte. Die quantenmechanischen Wirkungsprinzipien - im wesentlichen die Kopplung der beiden asymmetrischen Potentialtöpfe und die damit verbundene Kopplung der Wellenfunktionen - werden qualitativ diskutiert. Insgesamt bestätigt sich die Eignung des Materials GaInAsP auch für neuartige, qualitativ höchst anspruchsvolle Resonatorstrukturen und die Bedeutung der vorgestellten und untersuchten Resonatorkonzepte. Die vorgestellten Methoden, Materialien und Bauelemente liefern aufgrund ihrer Konzeption und der eingehenden experimentellen Untersuchungen einen Beitrag sowohl zu den zugrunde liegenden mechanischen, optoelektronischen und quantenmechanischen Wirkungsprinzipien der Strukturen, als auch zur Realisierung neuer optoelektronischer Bauelemente.
Resumo:
Ab 1991 verfolgte die bolivianische Sozialfondspolitik primär über eine Förderung sozialer Infrastruktur und lokaler Partizipation eine Strategie zur Reduktion von Armut. Ein 1994 in Bolivien eingeführtes Gesetz zur Volksbeteiligung, die Ley de Participación Popular, unterstützte diese Bemühungen, indem es eine partizipativ ausgerichtete Kommunalpolitik ermöglichte, welche eine stärkere Berücksichtung der lokalen Bedürfnisse sicherstellen sollte, um so die Bedarfsgerechtigkeit, Effizienz sowie Nachhaltigkeit der knappen staatlichen Investitionen zu erhöhen. Im vorliegenden working paper wurden die Bemühungen dieser Lokalförderung durch den Fonds analysiert. Dazu wurden am Beispiel von vier ausgewählten bolivianischen Munizipien zum einen die messbaren Wirkungen der Sozialfondsaktivitäten respektive ihr Anteil an der Verbesserung der lokal anzutreffenden Armutssituationen untersucht. Zum anderen wurde die These einer positiven Korrelation von Partizipationsförderung und Armutsbekämpfung überprüft. Dabei wird deutlich, dass die Qualität und Dimension der Partizipation auf lokaler Ebene im Rahmen des untersuchten Mehrebenensystems des bolivianischen Sozialfonds nicht ausreichte, um tradierte Dominanz- und Dependenzverhältnisse zu durchbrechen. Die Partizipationsförderung ermöglichte aber gleichwohl eine Stärkung der Artikulationsfähigkeit lokaler Akteure und schuf somit nicht nur neue Entwicklungskapazitäten, sondern vermag mittel- bis langfristig auch einen Beitrag zur Reduzierung von Armut zu leisten.
Resumo:
Die Endozytose und die anschließende Verwertung der aufgenommenen Substanzen ist Gegenstand zahlreicher Untersuchungen. Dabei wird ein besonderes Augenmerk auf die Proteine gelegt, die an diesen Vorgängen beteiligt sind. In der hier vorliegenden Arbeit wird der Lipid-Status der Zelle und Enzyme des Lipid-Stoffwechsels berücksichtigt. Das Ausschalten einer Long Chain-Fatty Acyl CoA Synthetase 1 (LC-FACS), fcsB, in Dictyostelium discoideum hat eine Veränderung der Menge an neutralen Lipiden zur Folge. In diesen LC-FACS2 „Knock-Out“-Zellen wird ein Zusammenhang zwischen neutralen Lipiden und der Phagozytose von Hefen und Bakterien detektiert. Ein Einfluss auf den endozytotischen Transit kann in diesen Zellen nur induziert werden, wenn man zusätzlich den Triglycerid-Hydrolyse-Inhibitor LSD1 in den Zellen exprimiert. Mit Hilfe der Daten wird ein Modell erstellt, indem die Reduktion der Menge an neutralen Lipiden nicht direkt für diesen Phänotyp verantwortlich ist. Es ist vielmehr das Energie-Niveau der Zellen, das die Phagozytoserate beeinflusst. Möglich macht dies ein Pool aus Fettsäuren im Zytoplasma. Dieser besteht aus unaktivierten Fettsäuren und Acyl-CoAs. Auf ihn greifen Kompartimente wie Lipidtropfen, Mitochondrien und Peroxisomen zu, wenn Fettsäuren verstoffwechselt werden sollen. In LC-FACS2 „Knock-Out“-Zellen, wird das Gleichgewicht im Pool in Richtung der unaktivierten Fettsäuren verschoben. Anhand der Größe dieses Pools kann die Zelle ihren Energiestatus messen. Ein höherer Energie-Status führt dann zu einer Reduktion der Phagozytoserate. Vacuolin B Null Zellen (vacB-) zeigen eine extreme Verzögerung im endozytotischen Transit. Schaltet man in diesen Zellen die LC-FACS1 aus (vacB-/fcsA-), so reduziert man ebenfalls die Menge an Triglyceriden. Dies ist darauf zurückzuführen, dass der Acyl-CoA Anteil des Fettsäure-Pools reduziert ist. Diese Reduktion resultiert hier in einer Beschleunigung des endozytotischen Transits. Die Exozytose von vacB--Zellen und vacB-/ fcsA--Zellen unterscheidet sich nicht. Daher wird die Ursache für diese Beschleunigung in veränderten Fusions- bzw. Fissionseigenschaften der Endosomen vermutet. Somit führt das Ausschalten von LC-FACS-Proteinen in Dictyostelium zu einer veränderten Zusammensetzung des Fettsäure-Pools. Dies hat im Fall der LC-FACS1 Modifikationen der Membran-Dynamik und im Fall der LC-FACS2 Änderungen des Energie-Spiegels zur Folge.
Resumo:
The consumers are becoming more concerned about food quality, especially regarding how, when and where the foods are produced (Haglund et al., 1999; Kahl et al., 2004; Alföldi, et al., 2006). Therefore, during recent years there has been a growing interest in the methods for food quality assessment, especially in the picture-development methods as a complement to traditional chemical analysis of single compounds (Kahl et al., 2006). The biocrystallization as one of the picture-developing method is based on the crystallographic phenomenon that when crystallizing aqueous solutions of dihydrate CuCl2 with adding of organic solutions, originating, e.g., from crop samples, biocrystallograms are generated with reproducible crystal patterns (Kleber & Steinike-Hartung, 1959). Its output is a crystal pattern on glass plates from which different variables (numbers) can be calculated by using image analysis. However, there is a lack of a standardized evaluation method to quantify the morphological features of the biocrystallogram image. Therefore, the main sakes of this research are (1) to optimize an existing statistical model in order to describe all the effects that contribute to the experiment, (2) to investigate the effect of image parameters on the texture analysis of the biocrystallogram images, i.e., region of interest (ROI), color transformation and histogram matching on samples from the project 020E170/F financed by the Federal Ministry of Food, Agriculture and Consumer Protection(BMELV).The samples are wheat and carrots from controlled field and farm trials, (3) to consider the strongest effect of texture parameter with the visual evaluation criteria that have been developed by a group of researcher (University of Kassel, Germany; Louis Bolk Institute (LBI), Netherlands and Biodynamic Research Association Denmark (BRAD), Denmark) in order to clarify how the relation of the texture parameter and visual characteristics on an image is. The refined statistical model was accomplished by using a lme model with repeated measurements via crossed effects, programmed in R (version 2.1.0). The validity of the F and P values is checked against the SAS program. While getting from the ANOVA the same F values, the P values are bigger in R because of the more conservative approach. The refined model is calculating more significant P values. The optimization of the image analysis is dealing with the following parameters: ROI(Region of Interest which is the area around the geometrical center), color transformation (calculation of the 1 dimensional gray level value out of the three dimensional color information of the scanned picture, which is necessary for the texture analysis), histogram matching (normalization of the histogram of the picture to enhance the contrast and to minimize the errors from lighting conditions). The samples were wheat from DOC trial with 4 field replicates for the years 2003 and 2005, “market samples”(organic and conventional neighbors with the same variety) for 2004 and 2005, carrot where the samples were obtained from the University of Kassel (2 varieties, 2 nitrogen treatments) for the years 2004, 2005, 2006 and “market samples” of carrot for the years 2004 and 2005. The criterion for the optimization was repeatability of the differentiation of the samples over the different harvest(years). For different samples different ROIs were found, which reflect the different pictures. The best color transformation that shows efficiently differentiation is relied on gray scale, i.e., equal color transformation. The second dimension of the color transformation only appeared in some years for the effect of color wavelength(hue) for carrot treated with different nitrate fertilizer levels. The best histogram matching is the Gaussian distribution. The approach was to find a connection between the variables from textural image analysis with the different visual criteria. The relation between the texture parameters and visual evaluation criteria was limited to the carrot samples, especially, as it could be well differentiated by the texture analysis. It was possible to connect groups of variables of the texture analysis with groups of criteria from the visual evaluation. These selected variables were able to differentiate the samples but not able to classify the samples according to the treatment. Contrarily, in case of visual criteria which describe the picture as a whole there is a classification in 80% of the sample cases possible. Herewith, it clearly can find the limits of the single variable approach of the image analysis (texture analysis).