77 resultados para Vienna. U.L.F. zu den Schotten (Benedictine Monastery)


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Spinnenseide gehört zu den stabilsten bekannten Polymerverbindungen. Spinnfäden können bis auf das Dreifache ihrer ursprünglichen Länge gedehnt werden, bevor sie reißen, und dabei mit rund 160 MJ/m³ mehr als dreimal soviel Energie absorbieren wie die stärkste synthetisch hergestellte Faser Kevlar (50 MJ/m³). Dabei weisen Spinnfäden mit 2 bis 5 Mikrometer nur ein Zehntel des Durchmessers eines menschlichen Haares auf. Das präzise, berührungslose Bearbeiten von Spinnenseide ist für verschiedene technische Anwendungen interessant, insbesondere wenn dabei ihre außergewöhnlichen Eigenschaften erhalten bleiben. Könnten die von Natur aus dünnen Seidenden gezielt in ihrem Durchmesser verringert werden, so wären sie unter anderem in der Mikroelektronik einzusetzen. Hier könnten sie als Trägermaterial für eine dünne, elektrisch leitfähige Schicht fungieren. Man erhielte Nanodrähte, die auch in mechanisch besonders belasteten Mikroelektronikbauteilen (MEMS) Verwendung finden könnten. In dieser Arbeit wird die Verwendung der laserinduzierten Ablation zur gezielten Bearbeitung von Haltefäden der Schwarzen Witwe (Latrodectus hesperus) beschrieben. Eingesetzt wurde ein VUV-Excimerlaser vom Typ LPF 205 (Lambda-Physik, Göttingen) mit einer Wellenlänge von 157 nm und einer Pulsdauer von 18 ns. Eine berührungslose Laserbearbeitung bei 157 nm erlaubt einen effizienten und präzisen Abtrag von Material durch Ablation aufgrund der geringen optischen Eindringtiefe von unter 100 nm oberhalb einer Schwellenfluenz (Energie/Fläche) von Φth=29 mJ/cm², ohne dabei das umgebende Material thermisch zu beeinträchtigen. Parallel zur Ablation setzt allerdings eine wellenförmige Oberflächenstrukturierung auf der Faseroberfläche ein, wodurch die mechanische Belastbarkeit der Faser entscheidend geschwächt wird. Die Ursache hierfür liegt im Abbau materialbedingter Spannungsfelder („stress release“) innerhalb einer durch das Laserlicht induzierten dünnen Schmelzschicht. Im Rahmen dieser Arbeit ist es nun gelungen, diese Strukturen durch einen anschließenden Glättungsprozeß zu entfernen. Dabei wird auf der bestrahlten Oberfläche mittels Laserlichts eine glatte Ablation erzielt. Mit feinerer Abstufung dieser Prozeßschritte konnte der Durchmesser des verwendeten Spinnenseidefadens zum Teil um 70 Prozent bis auf ca. 750 nm verringert werden. Durch Zugfestigkeitsexperimente wurde belegt, daß die mechanischen Eigenschaften der so bearbeiteten Spinnenseide weitgehend erhalten bleiben. Die im Rahmen dieser Arbeit angewandte Methode erlaubt somit eine präzise Laserablation von Spinnenseide und ähnlichen hochabsorbierenden Materialien, ohne deren Kernsubstanz in ihrer Beschaffenheit zu verändern.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die relativistische Multikonfigurations Dirac-Fock (MCDF) Methode ist gegenwärtig eines der am häufigsten benutzten Verfahren zur Berechnung der elektronischen Struktur und der Eigenschaften freier Atome. In diesem Verfahren werden die Wellenfunktionen ausgewählter atomarer Zustände als eine Linearkombination von sogenannten Konfigurationszuständen (CSF - Configuration State Functions) konstruiert, die in einem Teilraum des N-Elektronen Hilbert-Raumes eine (Vielteilchen-)Basis aufspannen. Die konkrete Konstruktion dieser Basis entscheidet letzlich über die Güte der Wellenfunktionen, die üblicherweise mit Hilfe einer Variation des Erwartungswertes zum no-pair Dirac-Coulomb Hamiltonoperators gewonnen werden. Mit Hilfe von MCDF Wellenfunktionen können die dominanten relativistischen und Korrelationseffekte in freien Atomen allgemein recht gut erfaßt und verstanden werden. Außer der instantanen Coulombabstoßung zwischen allen Elektronenpaaren werden dabei auch die relativistischen Korrekturen zur Elektron-Elektron Wechselwirkung, d.h. die magnetischen und Retardierungsbeiträge in der Wechselwirkung der Elektronen untereinander, die Ankopplung der Elektronen an das Strahlungsfeld sowie der Einfluß eines ausgedehnten Kernmodells erfaßt. Im Vergleich mit früheren MCDF Rechnungen werden in den in dieser Arbeit diskutierten Fallstudien Wellenfunktionsentwicklungen verwendet, die um 1-2 Größenordnungen aufwendiger sind und daher systematische Untersuchungen inzwischen auch an Atomen mit offenen d- und f-Schalen erlauben. Eine spontane Emission oder Absorption von Photonen kann bei freien Atomen theoretisch am einfachsten mit Hilfe von Übergangswahrscheinlichkeiten erfaßt werden. Solche Daten werden heute in vielen Forschungsbereichen benötigt, wobei neben den traditionellen Gebieten der Fusionsforschung und Astrophysik zunehmend auch neue Forschungsrichtungen (z.B. Nanostrukturforschung und Röntgenlithographie) zunehmend ins Blickfeld rücken. Um die Zuverlässigkeit unserer theoretischen Vorhersagen zu erhöhen, wurde in dieser Arbeit insbesondere die Relaxation der gebundenen Elektronendichte, die rechentechnisch einen deutlich größeren Aufwand erfordert, detailliert untersucht. Eine Berücksichtigung dieser Relaxationseffekte führt oftmals auch zu einer deutlich besseren Übereinstimmung mit experimentellen Werten, insbesondere für dn=1 Übergänge sowie für schwache und Interkombinationslinien, die innerhalb einer Hauptschale (dn=0) vorkommen. Unsere in den vergangenen Jahren verbesserten Rechnungen zu den Wellenfunktionen und Übergangswahrscheinlichkeiten zeigen deutlich den Fortschritt bei der Behandlung komplexer Atome. Gleichzeitig kann dieses neue Herangehen künftig aber auch auf (i) kompliziertere Schalensstrukturen, (ii) die Untersuchung von Zwei-Elektronen-ein-Photon (TEOP) Übergängen sowie (iii) auf eine Reihe weiterer atomarer Eigenschaften übertragen werden, die bekanntermaßen empflindlich von der Relaxation der Elektronendichte abhängen. Dies sind bspw. Augerzerfälle, die atomare Photoionisation oder auch strahlende und dielektronische Rekombinationsprozesse, die theoretisch bisher nur selten überhaupt in der Dirac-Fock Näherung betrachtet wurden.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

"Funktionelle Analyse der LC-FACS in Dictyostelium discoideum" Das Dictyostelium discoideum Gen fcsA kodiert für ein 75 kDa großes Protein. Es kann durch Homologieanyalysen der Amino-säuresequenz zu den "long-chain fatty acyl-CoA"-Synthetasen ge-rechnet werden, die lang-kettige Fettsäuren durch die kovalente Bindung von Coenzym A akti-vie-ren und damit für diverse Reak-tionen in Stoffwechsel und Molekül-Synthese der Zelle verfügbar machen. Die hier untersuchte D. discoideum LC-FACS lokalisiert als peripher assoziiertes Protein an der cytosolischen Seite der Membran von Endo-somen und kleiner Vesikel. Bereits kurz nach der Bildung in der frühen sauren Phase kann die Lokalisation der LC-FACS auf Endosomen ge-zeigt werden. Sie dissoziiert im Laufe ihrer Neutra-li-sierung und kann auf späten Endosomen, die vor ihrer Exocytose stehen nicht mehr nach-gewiesen werden. Ein Teil der kleinen die in der gesamte Zelle verteilten kleinen Vesikel zeigt eine Kolokalisation mit lysosomalen Enzymen. Trotz des intrazellulären Verteilungs-mus-ters, das eine Beteiligung dieses Pro-teins an der Endocytose nahe-legt, konnte kein signifikanter Rückgang der Pino- und Phagocytose-Rate in LC-FACS Nullmutanten beobachtet werden. Der endo-cy-to-ti-sche Transit ist in diesen Zellen etwas verlängert, außerdem zeigen die Endosomen einen deutlich erhöhten pH-Wert, was zu einer weniger effektiven Prozessierung eines lysosomalen Enzyms führt (a-Mannosidase). Die Funktion der LC-FACS ist die Aufnahme von langkettigen Fettsäuren aus dem Lumen der Endosomen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Der eukaryotische Mikroorganismus Dictyostelium discoideum lebt als einzellige Amöbe solange ausreichende Nahrungsressourcen zur Verfügung stehen. Sobald Nahrungsmangel eintritt, entwickeln sich die Zellen von einem einzelligen zu einem mehrzelligen Zustand, der mit einem multizellulären Fruchtkörper abschließt. Dieser Prozess wird durch eine Reihe aufeinanderfolgender Signale organisiert, die eine differentielle Genexpression regulieren. Die Gene der Discoidin I Familie gehören zu den Ersten, die im Laufe des Wachstums-Differenzierungs-Übergangs (engl. GDT) aktiviert werden. Sie eignen sich daher vorzüglich als Marker für den Beginn der Entwicklung. Mit Hilfe einer REMI-Mutagenese und Discoidin I als molekularem Marker sind verschiedene Komponenten des Wachstums-Differenzierungs-Übergangs in unserer Arbeitsgruppe identifiziert worden (Zeng et al., 2000 A und B; Riemann und Nellen, persönliche Mitteilung). Mit demselben Ansatz wurde in der vorliegenden Arbeit eine REMI-Mutante identifiziert, die eine Fehl-Expression von Discoidin zeigte und einen axenischen Wachstumsdefekt bei 15 °C aufwies. Das Gen wurde als Homolog zum humanen Tafazzin-Gen identifiziert. Dieses Gen wurde zur Rekonstruktion des Phänotyps über homologe Rekombination erneut disruptiert, was wie erwartet zu dem zuerst beschriebenen Phänotyp führte. Folgerichtig ergab eine Überexpression des Gens in den Mutanten eine Komplementation des Phänotyps. Immunfluoreszenz-Experimente zeigten eine mitochondriale Lokalisation des Dictyostelium discoideum Taffazzin Proteins. Dass ein mitochondriales Protein in Zusammenhang mit dem Wachstums-Differenzierungs-Übergang steht, ist ein unerwarteter Befund, der aber als Hinweis darauf gewertet werden kann, dass Mitochondrien einen direkten Einfluss auf die entwicklungsspezifische Signaltransduktion ausüben. Die Taffazzin Disruptions-Mutante in Dictyostelium führte zu einem abnormalen Cardiolipin Metabolismus. Dieses Phospholipid ist ein charakteristischer Bestandteil der inneren Mitochondrienmembran und für die Funktion verschiedener Enzyme erforderlich. Unsere vorläufigen Analysen des Phospholipid-Gehalts zeigten Übereinstimmung mit Daten von Patienten mit Barth-Syndrom, einer humanen Erkrankung, bei der das Taffazzin-Gen Mutationen aufweist, und mit Hefe-Mutanten dieses Gens. Dies zeigt den Wert von Dictyostelium discoideum als einen weiteren Modelorganismus zur Untersuchung des Barth-Syndroms und zur Erprobung möglicher Therapieansätze.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La investigación presenta una propuesta para la solución integral de los problemas del transporte urbano en Santiago de Cali, una ciudad con 2.3 millones de habitantes en el sur-occidente de Colombia, aplicando criterios del desarrollo sostenible. Una parte importante de la solución integral del transporte urbano es la propuesta novedosa para crear condiciones para la movilidad segura de peatones y ciclistas en toda la ciudad. El autor propone la redistribución del espacio publico que no sólo incluye los andenes, plazas y parques, sino tambien los carriles para el tráfico motorizado: uno de dos carriles de las vias ya construidas - por lo menos 4 de los 7 metros de la calle - es para el uso de peatones y ciclistas que son protegidos del tráfico vehicular motorizado por materas con plantas y flores. Las medidas para peatones y ciclistas se complementan con la creación de una amplia zona peatonal que incluye un espacio organizado para los trabajos del sector informal de la economia. Para el transporte publico colectivo propone el autor una solución con la tecnologia de los buses de piso bajo como alternativa a los buses y estaciones de plataforma alta usados en el modelo de TransMilenio en la capital colombiana Bogotá. Los buses de piso bajo permiten la creación de un sistema de transporte publico colectivo mucho mas eficiente y rápido, económico para los pasajeros y a costos de menos de diez porciento de la solución de Bogotá. La solución integral del transporte urbano se complementa con una reforma del transporte en taxis y con medidas para reducir el uso de los vehiculos particulares. La solución integral es justificada en cada una de sus medidas aplicando criterios ambientales, sociales, psicológicos, económicos, financieros y culturales del desarrollo sostenible. Se presentan los indicadores que permiten evaluar la situación y los posibles efectos de los cambios propuestos para lograr la sostenibilidad en el transporte urbano en Santiago de Cali. Los resultados de la investigación se pueden aplicar tambien en otras ciudades (de Colombia).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Signaltransduktion in niederen und höheren Zellen gehört zu einem der intensivst beforschten, molekularen Mechanismen. Wie gelangt ein externer Stimulus in die Zelle, bzw. wie wird das entsprechende Signal von der Zelloberfläche in das Zellinnere übertragen? Welche Proteine, die in die Signaltransduktion involviert sind, benötigt die Zelle um auf diesen Stimulus zu reagieren – und wie reagiert die Zelle letztendlich auf dieses extrazelluläre Signal? In den letzten Jahren wurde deutlich, dass diese interaktiven Netzwerke hochkomplex sind und für die molekularbiologische Forschung nur dann einsehbar werden, wenn gezielt Mutanten hergestellt werden, die z.B. Rezeptoren oder interzelluläre Komponenten nicht mehr vorweisen können. Die Erforschung der Signaltransduktionsprozesse ist mittlerweile aus den Laboren der Grundlagenforschung auch in die molekularbiologischen Labors der pharmazeutischen Forschung übertragen worden. Aktuell wurden in den letzten Jahren mehrere Substanzen entwickelt, die z.B. für die Bekämpfung von bösartigen Tumoren geeignet sind, und diese Substanzen zeichnen sich dadurch aus, dass sie Komponenten der Signaltransduktion blockieren, bzw. Botenstoffe der Neoangiogenese aus dem Serum entfernen und so den Tumor „aushungern“. In Dictyostelium discoideum sind bereits zahlreiche Signaltransduktionskomponenten beschrieben worden und es finden sich die bekannten Systeme, wie z.B. Transmembranrezeptoren, G-Proteine oder ras-Proteine, die man aus anderen Organismen kennt wieder. Auch MAP-Kinase-Kaskaden sind vorhanden und verschiedene extrazelluläre Signalstoffe, wie z.B. cAMP, PSF oder CMF sind bekannt und teilweise charakterisiert. Dictyostelium discoideum eignet sich aus diesen Gründen und aus Gründen der biochemischen und zellbiologischen Verfügbarkeit dazu, Prozesse der Signalerkennung und deren Weiterleitung zu den Effektorproteinen zu erforschen. Das Primärziel dieser Arbeit war es, möglichst eine neue Komponente in einem der bereits bekannten Signalwege der Discoidin-Regulation durch Mutagenesen zu zerstören, um diese anschließend beschreiben und charakterisieren zu können.Dazu wurde die sog. REMI-Mutagenese am neu gegründeten Labor der Universität Kassel etabliert und ferner die Zellkulturtechnik von D. discoideum für den Routineeinsatz eingearbeitet. Eine weitere Aufgabe der vorliegenden Arbeit war das Screening bereits bekannter Zellinien, die durch einen auffälligen Phänotyp nach einer Mutagenese isoliert worden waren. Dieses Screening sollte mit Western-blot-Analysen des sog. Discoidin-Proteins durchgeführt werden. Zusätzlich sollten neue Methoden entwickelt werden, die es möglich machen die Interaktionen während des vegetativen Wachstums vom Dictyostelium in Klebsiella-Suspension zu beschreiben.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Während der letzten 20 Jahre hat sich das Periodensystem bis zu den Elementen 114 und 116 erweitert. Diese sind kernphysikalisch nachgewiesen, so dass jetzt die chemische Untersuchung an erster Selle steht. Nachdem sich das Periodensystem bis zum Element 108 so verhält, wie man es dem Periodensystem nach annimmt, wird in dieser Arbeit die Chemie des Elements 112 untersucht. Dabei geht es um die Adsorptionsenergie auf einer Gold-Ober fläche, weil dies der physikalisch/chemische Prozess ist, der bei der Analyse angewandt wird. Die Methode, die in dieser Arbeit angwandt wird, ist die relativistische Dichtefunktionalmethode. Im ersten Teil wird das Vielkörperproblem in allgemeiner Form behandelt, und im zweiten die grundlegenden Eigenschaften und Formulierungen der Dichtefunktionaltheorie. Die Arbeit beschreibt zwei prinzipiell unterschiedliche Ansätze, wie die Adsorptionsenergie berechnet werden kann. Zum einen ist es die sogenannte Clustermethode, bei der ein Atom auf ein relativ kleines Cluster aufgebracht und dessen Adsorptionsenergie berechnet wird. Wenn es gelingt, die Konvergenz mit der Größe des Clusters zu erreichen, sollte dies zu einem Wert für die Adsorptionsenergie führen. Leider zeigt sich in den Rechnungen, dass aufgrund des zeitlichen Aufwandes die Konvergenz für die Clusterrechnungen nicht erreicht wird. Es werden sehr ausführlich die drei verschiedenen Adsorptionsplätze, die Top-, die Brücken- und die Muldenposition, berechnet. Sehr viel mehr Erfolg erzielt man mit der Einbettungsmethode, bei der ein kleiner Cluster von vielen weiteren Atomen an den Positionen, die sie im Festkörpers auf die Adsorptionsenergie soweit sichergestellt ist, dass physikalisch-chemisch gute Ergebnisse erzielt werden. Alle hier gennanten Rechnungen sowohl mit der Cluster- wie mit der Einbettungsmethode verlangen sehr, sehr lange Rechenzeiten, die, wie oben bereits erwähnt, nicht zu einer Konvergenz für die Clusterrechnungen ausreichten. In der Arbeit wird bei allen Rechnungen sehr detailliert auf die Abhängigkeit von den möglichen Basissätzen eingegangen, die ebenfalls in entscheidender Weise zur Länge und Qualität der Rechnungen beitragen. Die auskonvergierten Rechnungen werden in der Form von Potentialkurven, Density of States (DOS), Overlap Populations sowie Partial Crystal Overlap Populations analysiert. Im Ergebnis zeigt sich, dass die Adsoptionsenergie für das Element 112 auf einer Goldoberfläche ca. 0.2 eV niedriger ist als die Adsorption von Quecksilber auf der gleichen Ober fläche. Mit diesem Ergebnis haben die experimentellen Kernchemiker einen Wert an der Hand, mit dem sie eine Anhaltspunkt haben, wo sie bei den Messungen die wenigen zu erwartenden Ereignisse finden können.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In dieser Arbeit wird die Wechselwirkung zwischen einem Photon und einem Elektron im starken Coulombfeld eines Atomkerns am Beispiel des radiativen Elektroneneinfangs beim Stoß hochgeladener Teilchen untersucht. In den letzten Jahren wurde dieser Ladungsaustauschprozess insbesondere für relativistische Ion–Atom–Stöße sowohl experimentell als auch theoretisch ausführlich erforscht. In Zentrum standen dabei haupsächlich die totalen und differentiellen Wirkungsquerschnitte. In neuerer Zeit werden vermehrt Spin– und Polarisationseffekte sowie Korrelationseffekte bei diesen Stoßprozessen diskutiert. Man erwartet, dass diese sehr empfindlich auf relativistische Effekte im Stoß reagieren und man deshalb eine hervorragende Methode zu deren Bestimmung erhält. Darüber hinaus könnten diese Messungen auch indirekt dazu führen, dass man die Polarisation des Ionenstrahls bestimmen kann. Damit würden sich neue experimentelle Möglichkeiten sowohl in der Atom– als auch der Kernphysik ergeben. In dieser Dissertation werden zunächst diese ersten Untersuchungen zu den Spin–, Polarisations– und Korrelationseffekten systematisch zusammengefasst. Die Dichtematrixtheorie liefert hierzu die geeignete Methode. Mit dieser Methode werden dann die allgemeinen Gleichungen für die Zweistufen–Rekombination hergeleitet. In diesem Prozess wird ein Elektron zunächst radiativ in einen angeregten Zustand eingefangen, der dann im zweiten Schritt unter Emission des zweiten (charakteristischen) Photons in den Grundzustand übergeht. Diese Gleichungen können natürlich auf beliebige Mehrstufen– sowie Einstufen–Prozesse erweitert werden. Im direkten Elektroneneinfang in den Grundzustand wurde die ”lineare” Polarisation der Rekombinationsphotonen untersucht. Es wurde gezeigt, dass man damit eine Möglichkeit zur Bestimmung der Polarisation der Teilchen im Eingangskanal des Schwerionenstoßes hat. Rechnungen zur Rekombination bei nackten U92+ Projektilen zeigen z. B., dass die Spinpolarisation der einfallenden Elektronen zu einer Drehung der linearen Polarisation der emittierten Photonen aus der Streuebene heraus führt. Diese Polarisationdrehung kann mit neu entwickelten orts– und polarisationsempfindlichen Festkörperdetektoren gemessen werden. Damit erhält man eine Methode zur Messung der Polarisation der einfallenden Elektronen und des Ionenstrahls. Die K–Schalen–Rekombination ist ein einfaches Beispiel eines Ein–Stufen–Prozesses. Das am besten bekannte Beispiel der Zwei–Stufen–Rekombination ist der Elektroneneinfang in den 2p3/2–Zustand des nackten Ions und anschließendem Lyman–1–Zerfall (2p3/2 ! 1s1/2). Im Rahmen der Dichte–Matrix–Theorie wurden sowohl die Winkelverteilung als auch die lineare Polarisation der charakteristischen Photonen untersucht. Beide (messbaren) Größen werden beträchtlich durch die Interferenz des E1–Kanals (elektrischer Dipol) mit dem viel schwächeren M2–Kanal (magnetischer Quadrupol) beeinflusst. Für die Winkelverteilung des Lyman–1 Zerfalls im Wasserstoff–ähnlichen Uran führt diese E1–M2–Mischung zu einem 30%–Effekt. Die Berücksichtigung dieser Interferenz behebt die bisher vorhandene Diskrepanz von Theorie und Experiment beim Alignment des 2p3/2–Zustands. Neben diesen Ein–Teichen–Querschnitten (Messung des Einfangphotons oder des charakteristischen Photons) wurde auch die Korrelation zwischen den beiden berechnet. Diese Korrelationen sollten in X–X–Koinzidenz–Messungen beobbachtbar sein. Der Schwerpunkt dieser Untersuchungen lag bei der Photon–Photon–Winkelkorrelation, die experimentell am einfachsten zu messen ist. In dieser Arbeit wurden ausführliche Berechnungen der koinzidenten X–X–Winkelverteilungen beim Elektroneneinfang in den 2p3/2–Zustand des nackten Uranions und beim anschließenden Lyman–1–Übergang durchgeführt. Wie bereits erwähnt, hängt die Winkelverteilung des charakteristischen Photons nicht nur vom Winkel des Rekombinationsphotons, sondern auch stark von der Spin–Polarisation der einfallenden Teilchen ab. Damit eröffnet sich eine zweite Möglichkeit zur Messung der Polaristion des einfallenden Ionenstrahls bzw. der einfallenden Elektronen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In dieser Arbeit werden grundlegende Algorithmen für Ore-Algebren in Mathematica realisiert. Dabei entsteht eine Plattform um die speziellen Beschränkungen und Möglichkeiten dieser Algebren insbesondere im Zusammenhang mit Gröbnerbasen an praktischen Beispielen auszuloten. Im Gegensatz zu den existierenden Paketen wird dabei explizit die Struktur der Ore-Algebra benutzt. Kandri-Rody und Weispfenning untersuchten 1990 Verallgemeinerungen von Gröbnerbasen auf Algebren ordnungserhaltender Art (``algebras of solvable type''). Diese verhalten sich so, dass Buchbergers Algorithmus stets eine Gröbnerbasis findet. Es wird ein Beispiel gezeigt, an dem klar wird, dass es mehr Ore-Algebren ordnungserhaltender Art gibt als die in der Literatur stets betrachteten Operator-Algebren. Für Ore-Algebren ordnungserhaltender Art werden Algorithmen zu Gröbnerbasen implementiert. Anschließend wird der Gröbner-Walk für Ore-Algebren untersucht. Der Gröbner-Walk im kommutativen Fall wird mit einem instruktiven Beispiel vorgestellt. Dann wird zum nichtkommutativen Fall übergegangen. Es wird gezeigt, dass die Eigenschaft ordnungserhaltender Art zu sein, auf der Strecke zwischen zwei Ordnungen erhalten bleibt. Eine leichte Modifikation des Walks für Ore-Algebren wird implementiert, die im Erfolgsfall die Basis konvertiert und ansonsten abbricht. Es werden Beispiele angegeben, in denen der modifizierte Walk funktioniert sowie ein Beispiel analysiert, in dem er versagt.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Wenn man die Existenz von physikalischen Mechanismen ignoriert, die für die Struktur hydrologischer Zeitreihen verantwortlich sind, kann das zu falschen Schlussfolgerungen bzgl. des Vorhandenseins möglicher Gedächtnis (memory) -Effekte, d.h. von Persistenz, führen. Die hier vorgelegte Doktorarbeit spürt der niedrigfrequenten klimatischen Variabilität innerhalb den hydrologischen Zyklus nach und bietet auf dieser "Reise" neue Einsichten in die Transformation der charakteristischen Eigenschaften von Zeitreihen mit einem Langzeitgedächtnis. Diese Studie vereint statistische Methoden der Zeitreihenanalyse mit empirisch-basierten Modelltechniken, um operative Modelle zu entwickeln, die in der Lage sind (1) die Dynamik des Abflusses zu modellieren, (2) sein zukünftiges Verhalten zu prognostizieren und (3) die Abflusszeitreihen an unbeobachteten Stellen abzuschätzen. Als solches präsentiert die hier vorgelegte Dissertation eine ausführliche Untersuchung zu den Ursachen der niedrigfrequenten Variabilität von hydrologischen Zeitreihen im deutschen Teil des Elbe-Einzugsgebietes, den Folgen dieser Variabilität und den physikalisch basierten Reaktionen von Oberflächen- und Grundwassermodellen auf die niedrigfrequenten Niederschlags-Eingangsganglinien. Die Doktorarbeit gliedert sich wie folgt: In Kapitel 1 wird als Hintergrundinformation das Hurst Phänomen beschrieben und ein kurzer Rückblick auf diesbezügliche Studien gegeben. Das Kapitel 2 diskutiert den Einfluss der Präsenz von niedrigfrequenten periodischen Zeitreihen auf die Zuverlässigkeit verschiedener Hurst-Parameter-Schätztechniken. Kapitel 3 korreliert die niedrigfrequente Niederschlagsvariabilität mit dem Index der Nord-Atlantischen Ozillations (NAO). Kapitel 4-6 sind auf den deutschen Teil des Elbe-Einzugsgebietes fokussiert. So werden in Kapitel 4 die niedrigfrequenten Variabilitäten der unterschiedlichen hydro-meteorologischen Parameter untersucht und es werden Modelle beschrieben, die die Dynamik dieser Niedrigfrequenzen und deren zukünftiges Verhalten simulieren. Kapitel 5 diskutiert die mögliche Anwendung der Ergebnisse für die charakteristische Skalen und die Verfahren der Analyse der zeitlichen Variabilität auf praktische Fragestellungen im Wasserbau sowie auf die zeitliche Bestimmung des Gebiets-Abflusses an unbeobachteten Stellen. Kapitel 6 verfolgt die Spur der Niedrigfrequenzzyklen im Niederschlag durch die einzelnen Komponenten des hydrologischen Zyklus, nämlich dem Direktabfluss, dem Basisabfluss, der Grundwasserströmung und dem Gebiets-Abfluss durch empirische Modellierung. Die Schlussfolgerungen werden im Kapitel 7 präsentiert. In einem Anhang werden technische Einzelheiten zu den verwendeten statistischen Methoden und die entwickelten Software-Tools beschrieben.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Arbeit hat zum Ziel, die Beziehungen der Bewohnerinnen und Bewohner ihres neuen Stadtteils zu beobachten und zu erklären. Der Verfasser ist dabei teilnehmender Beobachter, da er seit über acht Jahren als Quartiersarbeiter in diesem Stadtteil tätig ist. Hintergrund der Tätigkeit des Verfassers und seiner Arbeit ist die Kritik an den Trabantenstädten der 1970er Jahre in Deutschland. Im weiteren Verlauf verfolgt die Arbeit einem soziologisch theoretischen Ansatz. Handlungen, Zeichen, Symbole, Konflikte, Distanzen und Prozesse der sozialen Durchmischungen werden in Bezug zu einzelnen Theorem gesehen. Der Handlungsansatz, der Milieuansatz, die Raumtheorien, Integration und Exklusion sind die fünf theoretischen Perspektiven. Diese werden jeweils zunächst auf Grundlage der wissenschaftlichen Literatur dargestellt, um dann einzelne Beobachtungen diesen jeweiligen Rahmen zuzuordnen. Neue Stadtteile sind in den letzten Jahren in Deutschland nicht viele entstanden. Zu viele negative Erfahrungen machten die Städte, die in 60er und 70er Jahren des 20 Jahrhunderts Trabenten- oder Satellitenstädte am Stadtrand errichteten. Die Stadt Freiburg war eine der ersten Städte, die Anfang der 90er Jahre wieder versucht einen neuen urbanen Stadtteil für 10 – 12 000 Einwohner auf der grünen Wiese zu planen und zu bauen. Die Leitfrage war darum, wie kann eine ähnlich problematische Entwicklung, wie sie die vielen anderen Neubaustadtteile genommen haben, im Stadtteil Rieselfeld verhindert werden. Vor diesem Hintergrund beauftragte die Stadt Freiburg ein Konzept zu unterstützen, dass neben dem Bau der Häuser und der Infrastruktur auch die Entsehung des sozialen und kulturellen Lebens fördern sollte. Die Trägerschaft für dieses Projekt „Quartiersaufbau Rieselfeld“ wurde der Kontaktstelle für praxisorientierte Forschung e. V., der Forschungsstelle der Evangelischen Fachhochschule Freiburg für Sozialwesen, für den Zeitraum von 1996 bis 2003 übertragen. Dieses Stadtentwicklungsprojekt war auch Arbeitgeber für den Verfasser dieser Arbeit. In den vorliegenden Text fliesen daher auch viele Alltagserfahrungen und auch biographische Anteile ein. Diese Arbeit will als eine sozialtheoretische Reflektion verstanden werden, die als Rahmen für lokalisierte empirische Beobachtungen dienen soll. Dies gewährleistete die absolute Nähe zu den Geschehnissen vor Ort, die Entwicklung im alltäglichen Leben mit den BewohnerInnen zu erleben, erschwerte aber die Distanz zur Reflexion dieses Prozesses. Aus dieser Nähe entwickelte sich im Lauf der Zeit, die Frage wie eigen sich die Bewohnerinnen und Bewohner ihren Stadtteil an. Dieses Interesse steht quasi über den alltäglichen sozialarbeiterischen Aufgaben und Herausforderungen. Die Hauptthese dieser Arbeit ist, dass sich die Aneignung des neuen Stadtteils durch einen ständigen Machtkampf, der auf den unterschiedlichsten Ebenen ausgetragen wird, vollzieht. Der Kern der Argumentation besteht neben theoretischen Überlegungen aus alltagstypischen Beobachtungen, die der Verfasser du Zusammenfassend orientiert sich die vorliegende Arbeit als machtsoziologischer Versuch an der genau verorteten Lokalisierung ihrer Produzenten, die sich im Laufe der letzten sieben Jahre herausgebildet und räumlich lokalisiert haben.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Motiviert durch die Lebenswissenschaften (Life sciences) haben sich Untersuchungen zur Dynamik von Makromolekülen in Lösungen in den vergangenen Jahren zu einem zukunftsweisenden Forschungsgebiet etabliert, dessen Anwendungen von der Biophysik über die physikalische Chemie bis hin zu den Materialwissenschaften reichen. Neben zahlreichen experimentellen Forschungsprogrammen zur räumlichen Struktur und den Transporteigenschaften grosser MolekÄule, wie sie heute praktisch an allen (Synchrotron-) Strahlungsquellen und den Laboren der Biophysik anzutreffen sind, werden gegenwärtig daher auch umfangreiche theoretische Anstrengungen unternommen, um das Diffusionsverhalten von Makromolekülen besser zu erklären. Um neue Wege für eine quantitative Vorhersagen des Translations- und Rotationsverhaltens grosser Moleküle zu erkunden, wurde in dieser Arbeit ein semiphänomenologischer Ansatz verfolgt. Dieser Ansatz erlaubte es, ausgehend von der Hamiltonschen Mechanik des Gesamtsystems 'Molekül + Lösung', eine Mastergleichung für die Phasenraumdichte der Makromoleküle herzuleiten, die den Einfluss der Lösung mittels effektiver Reibungstensoren erfasst. Im Rahmen dieses Ansatzes gelingt es z.B. (i) sowohl den Einfluss der Wechselwirkung zwischen den makromolekularen Gruppen (den sogenannten molekularen beads) und den Lösungsteilchen zu analysieren als auch (ii) die Diffusionseigen schaften für veschiedene thermodynamische Umgebungen zu untersuchen. Ferner gelang es auf der Basis dieser Näherung, die Rotationsbewegung von grossen Molekülen zu beschreiben, die einseitig auf einer Oberfläche festgeheftet sind. Im Vergleich zu den aufwendigen molekulardynamischen (MD) Simulationen grosser Moleküle zeichnet sich die hier dargestellte Methode vor allem durch ihren hohen `Effizienzgewinn' aus, der für komplexe Systeme leicht mehr als fünf Grössenordnungen betragen kann. Dieser Gewinn an Rechenzeit erlaubt bspw. Anwendungen, wie sie mit MD Simulationen wohl auch zukünftig nicht oder nur sehr zögerlich aufgegriffen werden können. Denkbare Anwendungsgebiete dieser Näherung betreffen dabei nicht nur dichte Lösungen, in denen auch die Wechselwirkungen der molekularen beads zu benachbarten Makromolekülen eine Rolle spielt, sondern auch Untersuchungen zu ionischen Flüssigkeiten oder zur Topologie grosser Moleküle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Aufarbeitung der Wechselwirkung von Politik, Schulentwicklung und dem mit dem Verfassungsauftrag verbundenen Verantwortungsbereich der Schulaufsicht und ihrer Steuerungsfunktion im Bildungswesen ist Thema der Studie. Es sollen die Kontexte von Bildungsplanung, Steuerung der Schulentwicklung und Schulaufsicht bezogen auf die „autonome“ Schule am Beispiel Hessens dargestellt, analysiert und Perspektiven aufgezeigt werden. Die rechtlichen Grundlagen der Schulentwicklung und ihre bildungspolitischen Ausprägungen und die Strukturen und die Organisation der Bildungsverwaltung – mit einer Fokussierung auf die „inneren“ und „äußeren“ Schulangelegenheiten - werden dargestellt und die Entwicklungsprozesse analysiert. An den Beispielen Mittelpunktschule/Förderstufe und Schulprogramm wird der Versuch unternommen, die veränderten Rollen und Funktionen der Schulaufsicht in Verbindung mit den jeweiligen Entwicklungsphasen der Schulaufsichtsorganisation seit 1945 aufzuzeigen. Im Spannungsfeld von Politik, Pädagogik und Ökonomie war und ist die Steuerung der Schulentwicklung durch die Bildungsverwaltung ein zentrales gestaltendes Element. Die Schulforschung hat in der Vergangenheit dem Bereich der Bildungsverwaltung, hier insbesondere der Schulaufsicht, relativ wenig Aufmerksamkeit geschenkt. Dabei ist die Schulaufsicht nicht nur im Grundgesetz sondern in allen Länderverfassung als „hoheitliche“ Aufgabe verankert und in den entsprechenden Schulgesetzen als Dienst-, Fach- und Rechtsaufsicht über die Schulen ein fester Bestandteil des staatlichen Gewaltmonopols. Nicht nur die Schulaufsicht als Teil der Bildungsverwaltung und ihre direkte und indirekte Rolle bei der Steuerung der Schulentwicklung in Hessen, auch der Einfluss der Finanzpolitik sowie die Auswirkungen der internationalen Vergleichsuntersuchungen und der Europäisierung (TIMSS, PISA, IGLU, Bologna, Lissabon, EU-Programme, internationale Organisationen) werden kontextuell behandelt. Die Auswirkungen finanzpolitischer Entscheidungen ("schlanker Staat") und die Einführung der Neuen Verwaltungssteuerung in Hessen auf die weiteren Perspektiven der Schulaufsicht und die Bildungsverwaltung insgesamt werden im Kontext zu den übrigen Bundesländern auf Grund aktueller politischer Entscheidungen im Zusammenhang mit der Diskussion um Qualitätssicherung im Bildungswesen aufgezeigt und künftige Funktionen und Gestaltungsmöglichkeiten der Schulaufsicht als „regionaler Qualitätsagentur“ perspektivisch entwickelt.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Bei der Stromversorgung handelte es sich bis zu seiner Liberalisierung 1998 um einen Wirtschaftszweig, der von Gebietsmonopolen auf allen Versorgungsstufen geprägt war. Diese Monopole gründeten im Wesentlichen auf dem natürlichen Monopol des Stromnetzes sowie auf der Bedeutung der Stromversorgung. Auch nach der Liberalisierung ist der Markt noch immer durch die etablierten ehemaligen Gebietsversorger geprägt, die nach wie vor über die Netze verfügen und zudem untereinander und mit der Politik gut vernetzt sind. Damit über das weiterhin bestehende natürliche Monopol bei den Stromnetzen keine wettbewerbswidrigen Interessen verfolgt werden können, bedarf die Transformation der Elektrizitätsversorgung in einen vorwiegend vom Wettbewerb geprägten Markt einiger Anpassungen. Einige Interessenskonflikte können bereits gelöst werden, indem die Marktstruktur an die neuen Bedingungen angepasst wird. Zum einen bedarf es einer Netzzugangsregelung, die dem Netzbetreiber möglichst geringe Missbrauchsmöglichkeiten offen lässt. Damit der Netzbetreiber überdies keine Interessen aus Aktivitäten in wettbewerbsgeprägten Märkten zulasten der Netznutzer verfolgt, ist zumindest der Betrieb des Netzes auf eigentumsrechtlich unabhängige Netzbetreiber zu übertragen. Diese Entflechtungsform sollte scheinbar bequemeren Lösungen, die sich leichter umsetzen lassen, vorgezogen werden. Auf lange Sicht werden die damit verbundenen höheren Regulierungskosten die Markttransformationskosten weit übersteigen. Das Problem des natürlichen Monopols beim Netz bedarf trotz allem einer dauernden Regulierung. Hier empfiehlt sich eine weitreichende ex-ante-Regulierung, in die auch Kriterien einfließen sollten, die den Netzbetreiber zu einem stabilen und sicheren Betrieb des Netzes veranlassen. Infolgedessen dürfte der Bedarf an einer ex-post-Kontrolle durch die Regulierungsinstitution entsprechend gering ausfallen. Die Regulierungsinstitution sollte hierbei nicht auf einige wenige Regulierungsinstrumente festgelegt werden. Die Gefahr der Anmaßung von Wissen, der Regulierungsinstitutionen wegen ihrer im Vergleich zu den Marktteilnehmern größeren Marktferne ausgesetzt sind, lässt sich durch die Akteursbeteiligung in der Regulierungsinstitution verringern: Die Akteure könnten innerhalb eines vorgegebenen Rahmens die Ausgestaltung der Netznutzungsregeln weitestgehend selbst bestimmen, die Aushandelungsmodalitäten hierfür müssen allerdings präzise festgelegt und die getroffenen Regelungen für alle Marktteilnehmer verbindlich sein. Diese Mischform zwischen staatlicher Rahmensetzung und Selbstregulierung nutzt die Regelungspotentiale des Staates und die Selbstorganisationsmöglichkeiten der relevanten Akteure gleichermaßen. Durch die Besetzung der Regulierungsinstitution mit Vertretern der relevanten Akteure wird zudem ein großes Maß an spezifischem Branchenwissen in sie hineingetragen, insbesondere da die vertikal integrierten Elektrizitätsversorgungsunternehmen nach der eigentumsrechtlichen Entflechtung zumindest noch anfangs über einen großen Teil der Informationen über den Netzbetrieb verfügen. Damit wäre das Informationsproblem, das staatlichen Regulierungsstellen anhaftet, geringer. Durch die Interessenlage der Mitglieder der Regulierungsinstitution dürfte sie auf den Netzbetreiber den starken Effizienzdruck ausüben. Der Netzbetreiber sollte hingegen ein Unternehmen im vollständigen öffentlichen Eigentum sein. Damit kann eine Unterwanderung durch Anteilserwerb verhindert und das Netz leichter im Sinne gemeinwirtschaftlicher Verpflichtungen betrieben werden. Dies wäre überdies wegen der Legitimationsprobleme, die mit einer weitgehend unabhängigen, mit umfangreichen und nicht präzise abgegrenzten Eingriffbefugnissen versehenen Regulierungsinstitution einhergehen, vorteilhaft, wenn nicht gar geboten. Damit sind große Teile der Grundrechtsprobleme, die mit der Regulierungsinstitution, ihrer Zusammensetzung und ihren Kompetenzen zusammenhängen, irrelevant.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Physikalische Grundlagenforschung und anwendungsorientierte physikalische Forschung auf den Gebieten nanoskaliger kristalliner und amorpher fester Körper haben in vielfacher Weise eine große Bedeutung. Neben dem Verständnis für die Struktur der Materie und die Wechselwirkung von Objekten von der Größe einiger Atome ist die Erkenntnis über die physikalischen Eigenschaften nanostrukturierter Systeme von hohem Interesse. Diese Forschung eröffnet die Möglichkeit, die mit der Mikroelektronik begonnene Miniaturisierung fortzusetzen und wird darüber hinaus neue Anwendungsfelder eröffnen. Das Erarbeiten der physikalischen Grundlagen der Methoden zur Herstellung und Strukturierung ist dabei zwingend notwendig, da hier Wirkungsprinzipien dominieren, die erst bei Strukturgrößen im Nanometerbereich auftreten oder hinreichend stark ausgeprägt sind. Insbesondere Halbleitermaterialien sind hier von großem Interesse. Die in dieser Arbeit untersuchten Resonatorstrukturen, die auf dem kristallinen Verbindungshalbleitermaterial GaInAsP/InP basieren, erschließen wichtige Anwendungsfelder im Bereich der optischen Datenübertragung sowie der optischen Sensorik. Hergestellt wird das Halbleitermaterial mit der Metallorganischen Gasphasenepitaxie. Die experimentell besimmten Kenngrößen lassen Rückschlüsse auf die Güte der Materialien, die quantenmechanischen Wirkungsprinzipien und die Bauelementcharakteristik zu und führen zu optimal angepassten Kristallstrukturen. Auf Basis dieser optimierten Materialien wurde ein durchstimmbarer Fabry-Perot-Filter hergestellt, der aus einer Kombination aus InP-Membranen und Luftspalten besteht und elektromechanisch aktuiert werden kann. Das GaInAsP dient hierbei als wenige hundert nm dicke Opferschicht, die ätztechnisch hochselektiv beseitigt wird. Die Qualität der Grenzflächen zum InP ist entscheidend für die Qualität der freigeätzten Kavitäten und damit für die mechanische Gesamtstabilität der Struktur. Der in dieser Arbeit beschriebene Filter hat eine Zentralwellenlänge im Bereich von 1550 nm und weist einen Durchstimmbereich von 221 nm auf. Erzielt wurde dieser Wert durch ein konsistentes Modell der wirkenden Verspannungskomponenten und einer optimierten epitaktischen Kontrolle der Verspannungsparameter. Das realisierte Filterbauelement ist vielversprechend für den Einsatz in der optischen Kommunikation im Bereich von WDM (wavelength division multiplexing) Anwendungen. Als weitere Resonatorstrukur wurde ein Asymmetrisch gekoppelter Quantenfilm als optisch aktives Medium, bestehend aus GaInAsP mit variierender Materialkomposition und Verspannung, untersucht, um sein Potential für eine breitbandige Emission zu untersuchen und mit bekannten Modellen zu vergleichen. Als Bauelementdesign wurde eine kantenemittierende Superlumineszenzleuchtdiode gewählt. Das Ergebnis ist eine Emissionskurve von 100 nm, die eine höhere Unabhängigkeit vom Injektionsstrom aufweist als andere bekannte Konzepte. Die quantenmechanischen Wirkungsprinzipien - im wesentlichen die Kopplung der beiden asymmetrischen Potentialtöpfe und die damit verbundene Kopplung der Wellenfunktionen - werden qualitativ diskutiert. Insgesamt bestätigt sich die Eignung des Materials GaInAsP auch für neuartige, qualitativ höchst anspruchsvolle Resonatorstrukturen und die Bedeutung der vorgestellten und untersuchten Resonatorkonzepte. Die vorgestellten Methoden, Materialien und Bauelemente liefern aufgrund ihrer Konzeption und der eingehenden experimentellen Untersuchungen einen Beitrag sowohl zu den zugrunde liegenden mechanischen, optoelektronischen und quantenmechanischen Wirkungsprinzipien der Strukturen, als auch zur Realisierung neuer optoelektronischer Bauelemente.