284 resultados para Köln kann auch anders


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Der SPNV als Bestandteil des ÖPNV bildet einen integralen Bestandteil der öffentlichen Daseinsvorsorge. Insbesondere Flächenregionen abseits urbaner Ballungszentren erhalten durch den SPNV sowohl ökonomisch als auch soziokulturell wichtige Impulse, so dass die Zukunftsfähigkeit dieser Verkehrsart durch geeignete Gestaltungsmaßnahmen zu sichern ist. ZIELE: Die Arbeit verfolgte das Ziel, derartige Gestaltungsmaßnahmen sowohl grundlagentheoretisch herzuleiten als auch in ihrer konkreten Ausformung für die verkehrswirtschaftliche Praxis zu beschreiben. Abgezielt wurde insofern auf strukturelle Konzepte als auch praktische Einzelmaßnahmen. Der Schwerpunkt der Analyse erstreckte sich dabei auf Deutschland, wobei jedoch auch verkehrsbezogene Privatisierungserfahrungen aus anderen europäischen Staaten und den USA berücksichtigt wurden. METHODEN: Ausgewertet wurden deutschsprachige als auch internationale Literatur primär verkehrswissenschaftlicher Ausrichtung sowie Fallbeispiele verkehrswirtschaftlicher Privatisierung. Darüber hinaus wurden Entscheidungsträger der Deutschen Bahn (DB) und DB-externe Eisenbahnexperten interviewt. Eine Gruppe 5 DB-interner und 5 DB-externer Probanden nahm zusätzlich an einer standardisierten Erhebung zur Einschätzung struktureller und spezifischer Gestaltungsmaßnahmen für den SPNV teil. ERGEBNISSE: In struktureller Hinsicht ist die Eigentums- und Verfügungsregelung für das gesamte deutsche Bahnwesen und den SPNV kritisch zu bewerten, da der dominante Eisenbahninfrastrukturbetreiber (EIU) in Form der DB Netz AG und die das Netz nutzenden Eisenbahnverkehrs-Unternehmen (EVUs, nach wie vor zumeist DB-Bahnen) innerhalb der DB-Holding konfundiert sind. Hieraus ergeben sich Diskriminierungspotenziale vor allem gegenüber DB-externen EVUs. Diese Situation entspricht keiner echten Netz-Betriebs-Trennung, die wettbewerbstheoretisch sinnvoll wäre und nachhaltige Konkurrenz verschiedener EVUs ermöglichen würde. Die seitens der DB zur Festigung bestehender Strukturen vertretene Argumentation, wonach Netz und Betrieb eine untrennbare Einheit (Synergie) bilden sollten, ist weder wettbewerbstheoretisch noch auf der Ebene technischer Aspekte akzeptabel. Vielmehr werden durch die gegenwärtige Verquickung der als Quasimonopol fungierenden Netzebene mit der Ebene der EVU-Leistungen Innovationspotenziale eingeschränkt. Abgesehen von der grundsätzlichen Notwendigkeit einer konsequenten Netz-Betriebs-Trennung und dezentraler Strukturen sind Ausschreibungen (faktisch öffentliches Verfahren) für den Betrieb der SPNV-Strecken als Handlungsansatz zu berücksichtigen. Wettbewerb kann auf diese Weise gleichsam an der Quelle einer EVU-Leistung ansetzen, wobei politische und administrative Widerstände gegen dieses Konzept derzeit noch unverkennbar sind. Hinsichtlich infrastruktureller Maßnahmen für den SPNV ist insbesondere das sog. "Betreibermodell" sinnvoll, bei dem sich das übernehmende EIU im Sinne seiner Kernkompetenzen auf den Betrieb konzentriert. Die Verantwortung für bauliche Maßnahmen sowie die Instandhaltung der Strecken liegt beim Betreiber, welcher derartige Leistungen am Markt einkaufen kann (Kostensenkungspotenzial). Bei Abgabeplanungen der DB Netz AG für eine Strecke ist mithin für die Auswahl eines Betreibers auf den genannten Ausschreibungsmodus zurückzugreifen. Als kostensenkende Einzelmaßnahmen zur Zukunftssicherung des SPNV werden abschließend insbesondere die Optimierung des Fahrzeugumlaufes sowie der Einsatz von Triebwagen anstatt lokbespannter Züge und die weiter forcierte Ausrichtung auf die kundenorientierte Attraktivitätssteigerung des SPNV empfohlen. SCHLUSSFOLGERUNGEN: Handlungsansätze für eine langfristige Sicherung des SPNV können nicht aus der Realisierung von Extrempositionen (staatlicher Interventionismus versus Liberalismus) resultieren, sondern nur aus einem pragmatischen Ausgleich zwischen beiden Polen. Dabei erscheint eine Verschiebung hin zum marktwirtschaftlichen Pol sinnvoll, um durch die Nutzung wettbewerbsbezogener Impulse Kostensenkungen und Effizienzsteigerungen für den SPNV herbeizuführen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diese Arbeit beschreibt den Evaluationsprozess einer dreidimensionalen Visualisierungstechnik, die am Institut für periphere Mikroelektronik der Universität Kassel entwickelt wurde. Hinter der dreidimensionalen Darstellung mittels Linsenrasterscheibe verbirgt sich eine neue Dimension der Interaktion mit dem Computer. Im Vergleich zu gewöhnlichen dreidimensionalen Darstellungen, bei denen ein 3D-Objekt auf einer 2D-Fläche abgebildet wird und somit nach wie vor nicht aus der Bildschirmebene heraus kann, können bei der stereoskopen Darstellung die Objekte dreidimensional visualisiert werden. Die Objekte tauchen vor, beziehungsweise hinter der Darstellungsebene auf. Da die Linsenrasterscheibe bisher noch nicht wahrnehmungspsychologisch untersucht wurde und auch allgemein auf dem Gebiet der Evaluation von 3D-Systemen nur wenige Untersuchungen mit quantitativen Ergebnissen verfügbar sind (Vollbracht, 1997), besteht hier ein zentrales Forschungsinteresse. Um eine Evaluation dieses 3D-Systems durchzuführen, wird im Theorieteil der Arbeit zunächst der Begriff der Evaluation definiert. Des Weiteren werden die wahrnehmungspsychologischen Grundlagen der monokularen und binokularen Raumwahrnehmung erörtert. Anschließend werden Techniken zur Erzeugung von Tiefe in Bildern und auf Bildschirmen erläutert und die Unterschiede zwischen der technisch erzeugten und der natürlichen Tiefenwahrnehmung näher beleuchtet. Nach der Vorstellung verschiedener stereoskoper Systeme wird näher auf die autostereoskope Linsenrasterscheibe eingegangen. Zum Abschluss des theoretischen Teils dieser Arbeit wird die Theorie des eingesetzten Befindlichkeitsfragebogens veranschaulicht. Gegenstand des empirischen Teils dieser Arbeit sind zwei zentrale Fragestellungen. Erstens soll untersucht werden, ob durch den höheren Informationsgehalt grundlegende Wahrnehmungsleistungen in bestimmten Bereichen positiv beeinflusst werden können. Zweitens soll untersucht werden, ob sich die höhere visuelle Natürlichkeit und die Neuartigkeit der Bildpräsentation auch auf die subjektive Befindlichkeit der Probanden auswirkt. Die empirische Überprüfung dieser Hypothesen erfolgt mittels dreier Experimente. Bei den ersten beiden Experimenten stehen grundlegende wahrnehmungspsychologische Leistungen im Vordergrund, während in der dritten Untersuchung der Bereich der subjektiven Befindlichkeit gemessen wird. Abschließend werden die Ergebnisse der Untersuchungen vorgestellt und diskutiert. Des Weiteren werden konkrete Einsatzmöglichkeiten für die Linsenrasterscheibe aufgezeigt und denkbare nachfolgende experimentelle Vorgehensweisen skizziert.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In now-a-days semiconductor and MEMS technologies the photolithography is the working horse for fabrication of functional devices. The conventional way (so called Top-Down approach) of microstructuring starts with photolithography, followed by patterning the structures using etching, especially dry etching. The requirements for smaller and hence faster devices lead to decrease of the feature size to the range of several nanometers. However, the production of devices in this scale range needs photolithography equipment, which must overcome the diffraction limit. Therefore, new photolithography techniques have been recently developed, but they are rather expensive and restricted to plane surfaces. Recently a new route has been presented - so-called Bottom-Up approach - where from a single atom or a molecule it is possible to obtain functional devices. This creates new field - Nanotechnology - where one speaks about structures with dimensions 1 - 100 nm, and which has the possibility to replace the conventional photolithography concerning its integral part - the self-assembly. However, this technique requires additional and special equipment and therefore is not yet widely applicable. This work presents a general scheme for the fabrication of silicon and silicon dioxide structures with lateral dimensions of less than 100 nm that avoids high-resolution photolithography processes. For the self-aligned formation of extremely small openings in silicon dioxide layers at in depth sharpened surface structures, the angle dependent etching rate distribution of silicon dioxide against plasma etching with a fluorocarbon gas (CHF3) was exploited. Subsequent anisotropic plasma etching of the silicon substrate material through the perforated silicon dioxide masking layer results in high aspect ratio trenches of approximately the same lateral dimensions. The latter can be reduced and precisely adjusted between 0 and 200 nm by thermal oxidation of the silicon structures owing to the volume expansion of silicon during the oxidation. On the basis of this a technology for the fabrication of SNOM calibration standards is presented. Additionally so-formed trenches were used as a template for CVD deposition of diamond resulting in high aspect ratio diamond knife. A lithography-free method for production of periodic and nonperiodic surface structures using the angular dependence of the etching rate is also presented. It combines the self-assembly of masking particles with the conventional plasma etching techniques known from microelectromechanical system technology. The method is generally applicable to bulk as well as layered materials. In this work, layers of glass spheres of different diameters were assembled on the sample surface forming a mask against plasma etching. Silicon surface structures with periodicity of 500 nm and feature dimensions of 20 nm were produced in this way. Thermal oxidation of the so structured silicon substrate offers the capability to vary the fill factor of the periodic structure owing to the volume expansion during oxidation but also to define silicon dioxide surface structures by selective plasma etching. Similar structures can be simply obtained by structuring silicon dioxide layers on silicon. The method offers a simple route for bridging the Nano- and Microtechnology and moreover, an uncomplicated way for photonic crystal fabrication.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Vielen Sensoren in mikroelektromechanische Systemen (MEMS) liegen Siliziummembranen zu Grunde. Die Membranen werden mit unterschiedlichen Verfahren hergestellt. Zum Teil kann man Opferschichten benutzen. Will man jedoch Membranen aus kristallinem Silizium, so muß man auf Ätzstopptechniken zurückgreifen. Eine gängige Methode verwendet vergrabene p^(+)-Schichten. Die sehr hohe Dotierung des Siliziums führt jedoch zu unüberwindbaren Problemen bei der Schaltkreisintegration. Die Verwendung von pn-Übergängen beim elektrochemischen Ätzen als Ätzstopp scheint eine aussichtsreiche Lösung. Die Dotierstoffkonzentrationen sind unkritisch, da sie die Elektronik nicht beeinflussen. Die Siliziummembranen lassen sich mit den üblichen Standard-IC-Prozessen herstellen. Ein Ziel der vorliegenden Arbeit bestand darin, die physikalisch-chemische Erklärung des elektrochemischen Ätzstopps von Silizium in alkalischen Lösungen zu finden. Dabei sollten Effekte untersucht werden, die einen Einfluß auf das Ätzstoppverhalten haben, wozu insbesondere - die Verarmungszone unterhalb der p-Silizium/Elektrolyt-Phasengrenzfläche - sowie die Raumladungszone des in Sperrichtung geschalteten pn-Übergangs zählen. Ausgangspunkt sind die chemischen Ätzmechanismen des Siliziums respektive des Siliziumdioxids, wobei der Mechanismus des Siliziumätzens in alkalischen Lösungen und die elektrochemischen Effekte ausführlich beschrieben werden. Es zeigt sich ein starker Einfluß der Oberflächenelektronen im Leitungsband des Siliziums und der Hydroxidionen des Elektrolyten auf den Auflösungsmechanismus des Siliziums. Diese Erkenntnisse ermöglichen es, den mittels pn-Übergangs kontrollierten elektrochemischen Ätzstopp vollständig zu beschreiben. Es zeigte sich, daß die Dicke der Membran von den Dotierstoffkonzentrationen des p-Siliziumsubstrats und der n-Siliziumschicht, der Tiefe der n-Dotierung, der Temperatur im Ätzsystem und besonders von der anodischen Sperrspannung abhängig ist. Zur Verifizierung wurden Siliziummembrandicken mit Hilfe von IR-Ellipsometrie vermessen. Im Rahmen dieser Arbeit wurde auch der es Einflusses von starken Dotierungen im Silizium auf dessen elastische Eigenschaften untersucht, im speziellen bei µm-dünnen Membranen, die mittels elektrochemischen Ätzstopps hergestellt wurden. Dabei wird auf den Einfluß der hohen Dotierstoffkonzentrationen ein besonderes Augenmerk gelegt. Der Youngsche Modul läßt sich bei einem Zugversuch durch Messung der Ausdehnung ermitteln. Für eine zerstörungsfreie Messung der sehr dünnen pn-Siliziummembranen wird die Dehnung berührungslos mit Hilfe des Laser-Speckle Extensometers gemessen. Laserakustische Oberflächenwellen wurden eingesetzt, um gezielt den Einfluß der unterschiedlich starken Dotierung mit Phosphor auf den Elastizitätsmodul zu ermitteln.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die relativistische Multikonfigurations Dirac-Fock (MCDF) Methode ist gegenwärtig eines der am häufigsten benutzten Verfahren zur Berechnung der elektronischen Struktur und der Eigenschaften freier Atome. In diesem Verfahren werden die Wellenfunktionen ausgewählter atomarer Zustände als eine Linearkombination von sogenannten Konfigurationszuständen (CSF - Configuration State Functions) konstruiert, die in einem Teilraum des N-Elektronen Hilbert-Raumes eine (Vielteilchen-)Basis aufspannen. Die konkrete Konstruktion dieser Basis entscheidet letzlich über die Güte der Wellenfunktionen, die üblicherweise mit Hilfe einer Variation des Erwartungswertes zum no-pair Dirac-Coulomb Hamiltonoperators gewonnen werden. Mit Hilfe von MCDF Wellenfunktionen können die dominanten relativistischen und Korrelationseffekte in freien Atomen allgemein recht gut erfaßt und verstanden werden. Außer der instantanen Coulombabstoßung zwischen allen Elektronenpaaren werden dabei auch die relativistischen Korrekturen zur Elektron-Elektron Wechselwirkung, d.h. die magnetischen und Retardierungsbeiträge in der Wechselwirkung der Elektronen untereinander, die Ankopplung der Elektronen an das Strahlungsfeld sowie der Einfluß eines ausgedehnten Kernmodells erfaßt. Im Vergleich mit früheren MCDF Rechnungen werden in den in dieser Arbeit diskutierten Fallstudien Wellenfunktionsentwicklungen verwendet, die um 1-2 Größenordnungen aufwendiger sind und daher systematische Untersuchungen inzwischen auch an Atomen mit offenen d- und f-Schalen erlauben. Eine spontane Emission oder Absorption von Photonen kann bei freien Atomen theoretisch am einfachsten mit Hilfe von Übergangswahrscheinlichkeiten erfaßt werden. Solche Daten werden heute in vielen Forschungsbereichen benötigt, wobei neben den traditionellen Gebieten der Fusionsforschung und Astrophysik zunehmend auch neue Forschungsrichtungen (z.B. Nanostrukturforschung und Röntgenlithographie) zunehmend ins Blickfeld rücken. Um die Zuverlässigkeit unserer theoretischen Vorhersagen zu erhöhen, wurde in dieser Arbeit insbesondere die Relaxation der gebundenen Elektronendichte, die rechentechnisch einen deutlich größeren Aufwand erfordert, detailliert untersucht. Eine Berücksichtigung dieser Relaxationseffekte führt oftmals auch zu einer deutlich besseren Übereinstimmung mit experimentellen Werten, insbesondere für dn=1 Übergänge sowie für schwache und Interkombinationslinien, die innerhalb einer Hauptschale (dn=0) vorkommen. Unsere in den vergangenen Jahren verbesserten Rechnungen zu den Wellenfunktionen und Übergangswahrscheinlichkeiten zeigen deutlich den Fortschritt bei der Behandlung komplexer Atome. Gleichzeitig kann dieses neue Herangehen künftig aber auch auf (i) kompliziertere Schalensstrukturen, (ii) die Untersuchung von Zwei-Elektronen-ein-Photon (TEOP) Übergängen sowie (iii) auf eine Reihe weiterer atomarer Eigenschaften übertragen werden, die bekanntermaßen empflindlich von der Relaxation der Elektronendichte abhängen. Dies sind bspw. Augerzerfälle, die atomare Photoionisation oder auch strahlende und dielektronische Rekombinationsprozesse, die theoretisch bisher nur selten überhaupt in der Dirac-Fock Näherung betrachtet wurden.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In dünnen Schichtsystemen, in denen es Grenzflächen zwischen antiferromagnetischen (AF) und ferromagnetischen (FM) Bereichen gibt, kann eine unidirektionale magnetische Anisotropie beobachtet werden: die Austauschanisotropie, auch "Exchange-Bias Effekt" genannt. Die Austauschanisotropie ist die Folge einer magnetischen Kopplung zwischen AF und FM. Makroskopisch äußert sich diese Anisotropie in einer Verschiebung der Magnetisierungskurve entlang der Magnetfeldachse. Anwendung findet die Austauschanisotropie z. B. in Spin-Valve Sensoren, deren Funktionsprinzip auf dem Riesen-Magnetowiderstand (engl. giant magnetoresistance, GMR) beruht. Die (thermische) Stabilität der Austauschanisotropie ist eine wichtige Voraussetzung für technische Anwendungen. Im Rahmen dieser Arbeit wurde untersucht, durch welche Materialeigenschaften die Austauschanisotropie in Schichtsystemen mit antiferromagnetischem Nickeloxid (NiO) bestimmt wird. Die Schichten wurden durch (reaktive) Kathodenzerstäubung hergestellt. Durch Variation der Depositionsbedingungen wurden Zusammensetzung und Struktur der NiO-Schichten verändert. Die Ergebnisse systematischer Analysen dieser Größen werden aufgeführt. Der Vergleich dieser Materialanalysen mit magnetischen Messungen an NiO/NiFe Schichtsystemen fšuhrt zu dem Ergebnis, dass die chemische Zusammensetzung und die Struktur der NiO-Schichten die thermische Stabilität der Austauschanisotropie entscheidend beeinflussen. Es wird zusätzlich gezeigt, dass die Stabilität der Austauschanisotropie durch einen Temperprozess im Anschluss an die Herstellung der Schichtsysteme entscheidend verbessert werden kann. Thermisch aktivierte, magnetische Relaxationsprozesse können außerdem zur Erhöhung der Austauschanisotropie führen. Des Weiteren werden zwei neuartige Methoden zur Modifizierung der Austauschanisotropie vorgestellt. Dabei wird gezeigt, dass durch die Bestrahlung der Schichtsysteme mit Helium-Ionen die magnetischen Eigenschaften der Schichtsysteme gezielt verändert und optimiert werden können. Der Einfluss der Ionenbestrahlung auf die Austauschanisotropie in NiO/NiFe Schichtsystemen und auf den Magnetowiderstand in FeMn basierten Spin-Valves steht dabei im Vordergrund der experimentellen Untersuchungen. Eine weitere Möglichkeit zur Modifizierung der Austauschanisotropie ist die Bestrahlung der Schichtsysteme mit kurzen Laserpulsen. Durch einen thermomagnetischen Prozess kann die Austauschanisotropie lokal verändert werden. Experimentelle Ergebnisse von diesem hier erstmals verwendeten Verfahren werden vorgestellt und interpretiert. Mit den beiden genannten Methoden ist es möglich, die Eigenschaften der Austauschanisotropie in Schichtsystemen nachträglich gezielt zu modifizieren.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ähnlich wie in Säugerzellen ist das neutrale Postlysosom in Dictyostelium discoideum von einem Coat aus filamentösem Actin umgeben. In dieser Arbeit wurde der Frage nach der Funktion dieses Actin-Cytoskeletts am späten Endosom nachgegangen. Hierzu wurde zunächst eine Analyse der Domänen des Vacuolin B durchgeführt, das als bisher spätester bekannter Marker im Endocytoseweg in Dictyostelium discoideum das neutrale, postlysosomale Kompartiment dekoriert. In einer Yeast Two Hybrid-Analyse wurden die Bereiche des Vacuolin B identifiziert, die für eine Selbst-Interaktion des Proteins notwendig und ausreichend sind. Es handelt sich dabei um die coiled-coil-Domäne und einen daran anschließenden, 18 Aminosäuren langen, alpha-helicalen Abschnitt. Diesem helicalen Bereich scheint die Funktion einer modifizierenden, die coiled-coil-Ausbildung vermittelnden oder initiierenden Faltungseinheit zuzukommen. Sie weist jedoch nicht die typischen Merkmale einer trigger-Helix auf. Lokalisationsuntersuchungen mit GFP-Deletionskonstrukten zeigten, dass es einen Zusammenhang zwischen Interaktionsfähigkeit und Bindung des Vacuolin an die Oberfläche später Endosomen gibt: Eine korrekte Lokalisation und Membranassoziation waren nur dann zu beobachten, wenn in der Yeast Two Hybrid-Analyse eine Interaktion nachgewiesen werden konnte. Es wurden die für die Lokalisation und Assoziation mit der vacuolären Membran notwendigen Sequenzbereiche identifiziert; diese waren jedoch nicht hinreichend. Vermutlich sind hierfür auch Sequenzen des N-Terminus notwendig. Die erhobenen Daten legen weiterhin eine Bedeutung der hydrophoben Domäne des Vacuolin B für die korrekte Faltung des Proteins nahe. Im Anschluss an die Domänenanalyse wurde Vacuolin dazu benutzt, durch Herstellung von Hybridproteinen Actin-interagierende Proteine gezielt an das späte Endosom zu transportieren. Es wurde deren Einfluss auf den lokalen Actin Coat und den endocytotischen Transit untersucht. Zwei Actin-bindende Proteine mit depolymerisierender Wirkung konnten im Rahmen dieser Arbeit getestet werden, nämlich Severin und Cofilin. Die Schwächung des lokalen Actin Coats durch das Vorhandensein von Severin an der späten Vacuole war nicht eindeutig festzustellen. Severin am Postlysosom führte nicht zu einer Veränderung der Transitkinetik von Flüssigphasenmarker. Allerdings konnte ein Defekt in der Phagocytose festgestellt werden. Es könnte hierbei ein Zusammenhang zwischen der Mobilisierung von intrazellulärem Calcium während der Partikelaufnahme und der Calcium-abhängigen Regulation der Severin-Aktivität bestehen. Das Hybridprotein aus Vacuolin und Cofilin zeigte neben einer Assoziation mit der vacuolären Membran auch eine Lokalisation im Cytoplasma und Cortex der Zellen. Mit der Lokalisation im Cytoplasma und Cortex korrelierte eine Veränderung der endocytotischen Aktivität. Das Vacuolin-Cofilin-Fusionsprotein am Postlysosom rief einen Verlust des lokalen Actin Coats hervor. Dies führte zu einer traubenförmigen Assoziation der späten Endosomen; exocytotische Parameter blieben jedoch unbeeinflusst. Aufgrund der hier erhobenen Daten kann vermutet werden, dass der Actin Coat am Postlysosom dazu dient, eine Agglutination dieser Endosomen zu inhibieren. Dies könnte ein Schutzmechanismus zum Ausschluss von Docking- und Fusionsereignissen sein.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Während der Spermatogenese wird das Element Zink an die Sulfhydrylreste der Cysteine in den Mantelfaserproteinen der Spermienflagellen gebunden. So kann in den noch unreifen Mantelfasern die ungerichtete Ausbildung von Disulfidbrücken verhindert werden. Im Zuge der Spermatozoenreifung während der Nebenhodenpassage wird dieses Zink androgenabhängig zu einem hohen Prozentsatz wieder eliminiert. Die nun gerichtete Ausbildung von Disulfidbrücken ermöglicht die Versteifung der Mantelfasern. Diese Rigidität stellt die Voraussetzung zur progressiven Motilität dar, ohne die eine Fertilisierung der Eizelle im weiblichen Genitaltrakt nicht möglich ist. Da eine negative Korrelation zwischen dem Zinkgehalt von Flagellen und ihrer Motilität besteht (Henkel et al., 1999), hat die Zinkeliminierung während der Nebenhodenpassage eine entscheidende Bedeutung in der Entwicklung der Spermatozoen. Die vorliegende Arbeit untersucht die Mechanismen der epididymalen Zinkeliminierung sowie die an diesem Prozess beteiligten Komponenten und den Verbleib des eliminierten Zinks am System des Bullen, der Ratte und des Menschen. Mittels proteinchemischer Verfahren kann im bovinen System ein zinkbindendes 60 kDa-Protein als Albumin identifiziert werden. Ein 80 kDa-Protein mit zinkbindenden Eigenschaften bleibt unidentifiziert. Die Zinkbindungskapazität der fraktionierten Proteine ist dabei im Caput epididymidis am stärksten ausgeprägt. Atomabsorptionsspektralphotometrische Untersuchungen zeigen die höchsten flagellären Zinkwerte in den Spermien des Rete testis und eine Abnahme des Zinkgehalts zwischen Nebenhodenkopf und -körper. Durch Autometallographie kann eine epitheliale Zinkresorption im Nebenhodenschwanz nachgewiesen werden. Dort erfolgt auch die basale Anreicherung des Zinks. Am Zinkstoffwechsel scheint auch der Macrophage Migration Inhibitory Factor (MIF) beteiligt zu sein. Dieser ist ein Zytokin mit Oxidoreduktasecharakter und kommt unter anderem im Nebenhodenepithel sowie in den Vesikeln des Nebenhoden-Fluids der Ratte vor. MIF zeigt in den hier durchgeführten Untersuchungen sowohl in systemhomologer, als auch in rekombinanter Form in vitro eine Zink-eliminierende Wirkung auf Rattenspermatozoen des Caputs und der Cauda epididymidis und hat somit möglicherweise Einfluss auf den Reifungsprozess der Spermien im Nebenhoden. Lit.: Henkel R, Bittner J, Weber R, Hüther F, Miska W (1999). Relevance of zinc in human sperm flagella and its relation to motility. Fertil Steril 71: 1138-1143

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Bei der Bestimmung der irreduziblen Charaktere einer Gruppe vom Lie-Typ entwickelte Lusztig eine Theorie, in der eine sogenannte Fourier-Transformation auftaucht. Dies ist eine Matrix, die nur von der Weylgruppe der Gruppe vom Lie-Typ abhängt. Anhand der Eigenschaften, die eine solche Fourier- Matrix erfüllen muß, haben Geck und Malle ein Axiomensystem aufgestellt. Dieses ermöglichte es Broue, Malle und Michel füur die Spetses, über die noch vieles unbekannt ist, Fourier-Matrizen zu bestimmen. Das Ziel dieser Arbeit ist eine Untersuchung und neue Interpretation dieser Fourier-Matrizen, die hoffentlich weitere Informationen zu den Spetses liefert. Die Werkzeuge, die dabei entstehen, sind sehr vielseitig verwendbar, denn diese Matrizen entsprechen gewissen Z-Algebren, die im Wesentlichen die Eigenschaften von Tafelalgebren besitzen. Diese spielen in der Darstellungstheorie eine wichtige Rolle, weil z.B. Darstellungsringe Tafelalgebren sind. In der Theorie der Kac-Moody-Algebren gibt es die sogenannte Kac-Peterson-Matrix, die auch die Eigenschaften unserer Fourier-Matrizen besitzt. Ein wichtiges Resultat dieser Arbeit ist, daß die Fourier-Matrizen, die G. Malle zu den imprimitiven komplexen Spiegelungsgruppen definiert, die Eigenschaft besitzen, daß die Strukturkonstanten der zugehörigen Algebren ganze Zahlen sind. Dazu müssen äußere Produkte von Gruppenringen von zyklischen Gruppen untersucht werden. Außerdem gibt es einen Zusammenhang zu den Kac-Peterson-Matrizen: Wir beweisen, daß wir durch Bildung äußerer Produkte von den Matrizen vom Typ A(1)1 zu denen vom Typ C(1) l gelangen. Lusztig erkannte, daß manche seiner Fourier-Matrizen zum Darstellungsring des Quantendoppels einer endlichen Gruppe gehören. Deswegen ist es naheliegend zu versuchen, die noch ungeklärten Matrizen als solche zu identifizieren. Coste, Gannon und Ruelle untersuchen diesen Darstellungsring. Sie stellen eine Reihe von wichtigen Fragen. Eine dieser Fragen beantworten wir, nämlich inwieweit rekonstruiert werden kann, zu welcher endlichen Gruppe gegebene Matrizen gehören. Den Darstellungsring des getwisteten Quantendoppels berechnen wir für viele Beispiele am Computer. Dazu müssen unter anderem Elemente aus der dritten Kohomologie-Gruppe H3(G,C×) explizit berechnet werden, was bisher anscheinend in noch keinem Computeralgebra-System implementiert wurde. Leider ergibt sich hierbei kein Zusammenhang zu den von Spetses herrührenden Matrizen. Die Werkzeuge, die in der Arbeit entwickelt werden, ermöglichen eine strukturelle Zerlegung der Z-Ringe mit Basis in bekannte Anteile. So können wir für die meisten Matrizen der Spetses Konstruktionen angeben: Die zugehörigen Z-Algebren sind Faktorringe von Tensorprodukten von affinen Ringe Charakterringen und von Darstellungsringen von Quantendoppeln.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Digitales stochastisches Magnetfeld-Sensorarray Stefan Rohrer Im Rahmen eines mehrjährigen Forschungsprojektes, gefördert von der Deutschen Forschungsgesellschaft (DFG), wurden am Institut für Mikroelektronik (IPM) der Universität Kassel digitale Magnetfeldsensoren mit einer Breite bis zu 1 µm entwickelt. Die vorliegende Dissertation stellt ein aus diesem Forschungsprojekt entstandenes Magnetfeld-Sensorarray vor, das speziell dazu entworfen wurde, um digitale Magnetfelder schnell und auf minimaler Fläche mit einer guten räumlichen und zeitlichen Auflösung zu detektieren. Der noch in einem 1,0µm-CMOS-Prozess gefertigte Test-Chip arbeitet bis zu einer Taktfrequenz von 27 MHz bei einem Sensorabstand von 6,75 µm. Damit ist er das derzeit kleinste und schnellste digitale Magnetfeld-Sensorarray in einem Standard-CMOS-Prozess. Konvertiert auf eine 0,09µm-Technologie können Frequenzen bis 1 GHz erreicht werden bei einem Sensorabstand von unter 1 µm. In der Dissertation werden die wichtigsten Ergebnisse des Projekts detailliert beschrieben. Basis des Sensors ist eine rückgekoppelte Inverter-Anordnung. Als magnetfeldsensitives Element dient ein auf dem Hall-Effekt basierender Doppel-Drain-MAGFET, der das Verhalten der Kippschaltung beeinflusst. Aus den digitalen Ausgangsdaten kann die Stärke und die Polarität des Magnetfelds bestimmt werden. Die Gesamtanordnung bildet einen stochastischen Magnetfeld-Sensor. In der Arbeit wird ein Modell für das Kippverhalten der rückgekoppelten Inverter präsentiert. Die Rauscheinflüsse des Sensors werden analysiert und in einem stochastischen Differentialgleichungssystem modelliert. Die Lösung der stochastischen Differentialgleichung zeigt die Entwicklung der Wahrscheinlichkeitsverteilung des Ausgangssignals über die Zeit und welche Einflussfaktoren die Fehlerwahrscheinlichkeit des Sensors beeinflussen. Sie gibt Hinweise darauf, welche Parameter für das Design und Layout eines stochastischen Sensors zu einem optimalen Ergebnis führen. Die auf den theoretischen Berechnungen basierenden Schaltungen und Layout-Komponenten eines digitalen stochastischen Sensors werden in der Arbeit vorgestellt. Aufgrund der technologisch bedingten Prozesstoleranzen ist für jeden Detektor eine eigene kompensierende Kalibrierung erforderlich. Unterschiedliche Realisierungen dafür werden präsentiert und bewertet. Zur genaueren Modellierung wird ein SPICE-Modell aufgestellt und damit für das Kippverhalten des Sensors eine stochastische Differentialgleichung mit SPICE-bestimmten Koeffizienten hergeleitet. Gegenüber den Standard-Magnetfeldsensoren bietet die stochastische digitale Auswertung den Vorteil einer flexiblen Messung. Man kann wählen zwischen schnellen Messungen bei reduzierter Genauigkeit und einer hohen lokalen Auflösung oder einer hohen Genauigkeit bei der Auswertung langsam veränderlicher Magnetfelder im Bereich von unter 1 mT. Die Arbeit präsentiert die Messergebnisse des Testchips. Die gemessene Empfindlichkeit und die Fehlerwahrscheinlichkeit sowie die optimalen Arbeitspunkte und die Kennliniencharakteristik werden dargestellt. Die relative Empfindlichkeit der MAGFETs beträgt 0,0075/T. Die damit erzielbaren Fehlerwahrscheinlichkeiten werden in der Arbeit aufgelistet. Verglichen mit dem theoretischen Modell zeigt das gemessene Kippverhalten der stochastischen Sensoren eine gute Übereinstimmung. Verschiedene Messungen von analogen und digitalen Magnetfeldern bestätigen die Anwendbarkeit des Sensors für schnelle Magnetfeldmessungen bis 27 MHz auch bei kleinen Magnetfeldern unter 1 mT. Die Messungen der Sensorcharakteristik in Abhängigkeit von der Temperatur zeigen, dass die Empfindlichkeit bei sehr tiefen Temperaturen deutlich steigt aufgrund der Abnahme des Rauschens. Eine Zusammenfassung und ein ausführliches Literaturverzeichnis geben einen Überblick über den Stand der Technik.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diese Arbeit umfaßt das elektromechanische Design und die Designoptimierung von weit durchstimmbaren optischen multimembranbasierten Bauelementen, mit vertikal orientierten Kavitäten, basierend auf der Finiten Element Methode (FEM). Ein multimembran InP/Luft Fabry-Pérot optischer Filter wird dargestellt und umfassend analysiert. In dieser Arbeit wird ein systematisches strukturelles Designverfahren dargestellt. Genaue analytische elektromechanischer Modelle für die Bauelemente sind abgeleitet worden. Diese können unschätzbare Werkzeuge sein, um am Anfang der Designphase schnell einen klaren Einblick zur Verfügung zu stellen. Mittels des FEM Programms ist der durch die nicht-lineare Verspannung hervorgerufene versteifende Effekt nachgeforscht und sein Effekt auf die Verlängerung der mechanischen Durchstimmungsstrecke der Bauelemente demonstriert worden. Interessant war auch die Beobachtung, dass die normierte Relation zwischen Ablenkung und Spannung ein unveränderliches Profil hat. Die Deformation der Membranflächen der in dieser Arbeit dargestellten Bauelementformen erwies sich als ein unerwünschter, jedoch manchmal unvermeidbarer Effekt. Es zeigt sich aber, dass die Wahl der Größe der strukturellen Dimensionen den Grad der Membrandeformation im Falle der Aktuation beeinflusst. Diese Arbeit stellt ein elektromechanisches in FEMLAB implementierte quasi-3D Modell, das allgemein für die Modellierung dünner Strukturen angewendet werden kann, dar; und zwar indem man diese als 2D-Objekte betrachtet und die dritte Dimension als eine konstante Größe (z.B. die Schichtdicke) oder eine Größe, welche eine mathematische Funktion ist, annimmt. Diese Annahme verringert drastisch die Berechnungszeit sowie den erforderlichen Arbeitsspeicherbedarf. Weiter ist es für die Nachforschung des Effekts der Skalierung der durchstimmbaren Bauelemente verwendet worden. Eine neuartige Skalierungstechnik wurde abgeleitet und verwendet. Die Ergebnisse belegen, dass das daraus resultierende, skalierte Bauelement fast genau die gleiche mechanische Durchstimmung wie das unskalierte zeigt. Die Einbeziehung des Einflusses von axialen Verspannungen und Gradientenverspannungen in die Berechnungen erforderte die Änderung der Standardimplementierung des 3D Mechanikberechnungsmodus, der mit der benutzten FEM Software geliefert wurde. Die Ergebnisse dieser Studie zeigen einen großen Einfluss der Verspannung auf die Durchstimmungseigenschaften der untersuchten Bauelemente. Ferner stimmten die Ergebnisse der theoretischen Modellrechnung mit den experimentellen Resultaten sehr gut überein.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Arbeit analysiert die Gründe, die erst zur Golfkrise führten und dann zum darauf folgenden Golfkrieg. Es geht diesbezüglich darum festzustellen, ob die damalige US Regierung unter George Bush, die Invasion Kuwaits zum Ausbau der US-amerikanischen Hegemonie nicht nur in der Golfregion ausnutzte, sondern ob sie die Invasion begünstigte oder sogar provozierte, um als Hegemon in den internationalen Beziehungen herrschen zu können. Aus Sicht der internationalen Mächte Konstellation ergab sich 1990, nach dem Fall der Berliner Mauer (1989) und letztendlich mit der Disintegration der Sowjet Union 1991, für die USA die Gelegenheit ohne großes realpolitisches Risiko einen Krieg in einer Region zu entfachen, mit dem sie als Sieger sich die Rohstoffe (Ö l, 2/3 der bekannten Welt Ö lreserven, ect) der Golfregion aneignen könnten. Ferner würde eine Dominanz über diese Region, die als geostrategisch äuß erst wichtig gilt ihren Status als Hegemon weiter ausbauen. Um die Entwicklung der US Hegemonie zu eruieren werden kurz weitere Stationen, nach dem Golfkrieg 1991, durchleuchtet: wie z.B. der Kosovo-Krieg 1999, der 11.9.2001, der Afghanistan Krieg 2001 & der 3. Golfkrieg der USA 2003. Theoretisch wird vor allem die Hegemonietheorie auf ihre Stärken und ggf. Schwächen, in Bezug auf den 2. Golfkrieg untersucht, um zu sehen ob sie nicht nur eine Erklärung für den Krieg abgeben kann, sondern auch ob sie den weiteren Verlauf der US Auß enpolitik eruieren kann. Der empirische Teil besteht größt enteils aus der diplomatischen Geschichte zwischen den Hauptakteuren Irak, USA, Kuwait, ect. Ö konomische Aspekte kommen vor allem bei der Analyse über die Auswirkung der damaligen (US) Rezession von 1990 zu Geltung und in wiefern diese die Golfkrise und den drauf folgenden Krieg beeinfluß ten. Gegen Ende der Arbeit werden die theoretischen und die empirischen Daten nochmals auf ihre Koherenz untersucht, um ein in sich geschlossenes Gesamtbild des 2. Golfkriegs und die darauf folgende US Auß enpolitik abzugeben.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die in dieser Arbeit durchgeführten Untersuchungen zeigen, daß es möglich ist, komplexe thermische Systeme, unter Verwendung der thermisch-, elektrischen Analogien, mit PSpice zu simulieren. Im Mittelpunkt der Untersuchungen standen hierbei Strangkühlkörper zur Kühlung von elektronischen Bauelementen. Es konnte gezeigt werden,daß alle Wärmeübertragungsarten, (Wärmeleitung, Konvektion und Wärmestrahlung) in der Simulation berücksichtigt werden können. Für die Berechnung der Konvektion wurden verschiedene Methoden hergeleitet. Diese gelten zum einen für verschiedene Kühlkörpergeometrien, wie z.B. ebene Flächen und Kühlrippenzwischenräume, andererseits unterscheiden sie sich, je nachdem, ob freie oder erzwungene Konvektion betrachtet wird. Für die Wärmestrahlung zwischen den Kühlrippen wurden verschiedenen Berechnungsmethoden entwickelt. Für die Simulation mit PSpice wurde die Berechnung der Wärmestrahlung zwischen den Kühlrippen vereinfacht. Es konnte gezeigt werden, daß die Fehler, die durch die Vereinfachung entstehen, vernachlässigbar klein sind. Für das thermische Verhalten einer zu kühlenden Wärmequelle wurde ein allgemeines Modell entworfen. Zur Bestimmung der Modellparameter wurden verschiedene Meßverfahren entwickelt. Für eine im Fachgebiet Elektromechanik entwickelte Wärmequelle zum Test von Kühlvorrichtungen wurde mit Hilfe dieser Meßverfahren eine Parameterbestimmung durchgeführt. Die Erstellung des thermischen Modells eines Kühlkörpers für die Simulation in PSpice erfordert die Analyse der Kühlkörpergeometrie. Damit diese Analyse weitestgehend automatisiert werden kann, wurden verschiedene Algorithmen unter Matlab entwickelt. Es wurde ein Algorithmus entwickelt, der es ermöglicht, den Kühlkörper in Elementarzellen zu zerlegen, die für die Erstellung des Simulationsmodells benötigt werden. Desweiteren ist es für die Simulation notwendig zu wissen, welche der Elementarzellen am Rand des Kühlkörpers liegen, welche der Elementarzellen an einem Kühlrippenzwischenraum liegen und welche Kühlkörperkanten schräg verlaufen. Auch zur Lösung dieser Aufgaben wurden verschiedene Algorithmen entwickelt. Diese Algorithmen wurden zu einem Programm zusammengefaßt, das es gestattet, unterschiedliche Strangkühlkörper zu simulieren und die Simulationsergebnisse in Form der Temperaturverteilung auf der Montagefläche des Kühlkörpers grafisch darzustellen. Es können stationäre und transiente Simulationen durchgeführt werden. Desweiteren kann der thermische Widerstand des Kühlkörpers RthK als Funktion der Verlustleistung der Wärmequelle dargestellt werden. Zur Verifikation der Simulationsergebnisse wurden Temperaturmessungen an Kühlkörpern durchgeführt und mit den Simulationsergebnissen verglichen. Diese Vergleiche zeigen, daß die Abweichungen im Bereich der Streuung der Temperaturmessung liegen. Das hier entwickelte Verfahren zur thermischen Simulation von Strangkühlkörpern kann somit als gut bewertet werden.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die wachsende Weltbevölkerung bedingt einen höheren Energiebedarf, dies jedoch unter der Beachtung der nachhaltigen Entwicklung. Die derzeitige zentrale Versorgung mit elektrischer Energie wird durch wenige Erzeugungsanlagen auf der Basis von fossilen Primärenergieträgern und Kernenergie bestimmt, die die räumlich verteilten Verbraucher zuverlässig und wirtschaftlich über ein strukturiertes Versorgungssystem beliefert. In den Elektrizitätsversorgungsnetzen sind keine nennenswerten Speicherkapazitäten vorhanden, deshalb muss die von den Verbrauchern angeforderte Energie resp. Leistung jederzeit von den Kraftwerken gedeckt werden. Bedingt durch die Liberalisierung der Energiemärkte und die geforderte Verringerung der Energieabhängigkeit Luxemburgs, unterliegt die Versorgung einem Wandel hin zu mehr Energieeffizienz und erhöhter Nutzung der dargebotsabhängigen Energiequellen. Die Speicherung der aus der Windkraft erzeugten elektrischen Energie, wird in den Hochleistungs-Bleiakkumulatoren, errichtet im ländlichen Raum in der Nähe der Windkraftwerke, eingespeichert. Die zeitversetzte Einspeisung dieser gespeicherten elektrischen Energie in Form von veredelter elektrischer Leistung während den Lastspitzen in das 20 kV-Versorgungsnetz der CEGEDEL stellt die Innovation in der luxemburgischen Elektrizitätsversorgung dar. Die Betrachtungen beschränken sich somit auf die regionale, relativ kleinräumige Einbindung der Windkraft in die elektrische Energieversorgung des Großherzogtums Luxemburg. Die Integration der Windkraft im Regionalbereich wird in den Vordergrund der Untersuchung gerückt. Überregionale Ausgleichseffekte durch Hochspannungsleitungen der 230/400 kV-Systeme werden außer Acht gelassen. Durch die verbrauchernahe Bereitstellung von elektrischer Spitzenleistung vermindern sich ebenfalls die Übertragungskosten aus den entfernten Spitzenlastkraftwerken, der Ausbau von Kraftwerkskapazitäten kann in die Zukunft verschoben werden. Die Emission von Treibhausgasen in thermischen Kraftwerken wird zum Teil reduziert. Die Berechnungen der Wirtschaftlichkeit von Hybridanlagen, zusammengesetzt aus den Windkraftwerken und den Hochleistungs-Bleiakkumulatoren bringen weitere Informationen zum Einsatz dieser dezentralen Speichern, als Partner der nachhaltigen Energieversorgung im ländlichen Raum. Die untersuchte Einspeisung von erneuerbarer Spitzenleistung lässt sich auch in die Entwicklungsländer übertragen, welche nicht über zentrale Kraftwerkskapazitäten und Verteilungsnetze verfügen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Es ist bekannt, dass die Dichte eines gelösten Stoffes die Richtung und die Stärke seiner Bewegung im Untergrund entscheidend bestimmen kann. Eine Vielzahl von Untersuchungen hat gezeigt, dass die Verteilung der Durchlässigkeiten eines porösen Mediums diese Dichteffekte verstärken oder abmindern kann. Wie sich dieser gekoppelte Effekt auf die Vermischung zweier Fluide auswirkt, wurde in dieser Arbeit untersucht und dabei das experimentelle sowohl mit dem numerischen als auch mit dem analytischen Modell gekoppelt. Die auf der Störungstheorie basierende stochastische Theorie der macrodispersion wurde in dieser Arbeit für den Fall der transversalen Makodispersion. Für den Fall einer stabilen Schichtung wurde in einem Modelltank (10m x 1.2m x 0.1m) der Universität Kassel eine Serie sorgfältig kontrollierter zweidimensionaler Experimente an einem stochastisch heterogenen Modellaquifer durchgeführt. Es wurden Versuchsreihen mit variierenden Konzentrationsdifferenzen (250 ppm bis 100 000 ppm) und Strömungsgeschwindigkeiten (u = 1 m/ d bis 8 m/d) an drei verschieden anisotrop gepackten porösen Medien mit variierender Varianzen und Korrelationen der lognormal verteilten Permeabilitäten durchgeführt. Die stationäre räumliche Konzentrationsausbreitung der sich ausbreitenden Salzwasserfahne wurde anhand der Leitfähigkeit gemessen und aus der Höhendifferenz des 84- und 16-prozentigen relativen Konzentrationsdurchgang die Dispersion berechnet. Parallel dazu wurde ein numerisches Modell mit dem dichteabhängigen Finite-Elemente-Strömungs- und Transport-Programm SUTRA aufgestellt. Mit dem kalibrierten numerischen Modell wurden Prognosen für mögliche Transportszenarien, Sensitivitätsanalysen und stochastische Simulationen nach der Monte-Carlo-Methode durchgeführt. Die Einstellung der Strömungsgeschwindigkeit erfolgte - sowohl im experimentellen als auch im numerischen Modell - über konstante Druckränder an den Ein- und Auslauftanks. Dabei zeigte sich eine starke Sensitivität der räumlichen Konzentrationsausbreitung hinsichtlich lokaler Druckvariationen. Die Untersuchungen ergaben, dass sich die Konzentrationsfahne mit steigendem Abstand von der Einströmkante wellenförmig einem effektiven Wert annähert, aus dem die Makrodispersivität ermittelt werden kann. Dabei zeigten sich sichtbare nichtergodische Effekte, d.h. starke Abweichungen in den zweiten räumlichen Momenten der Konzentrationsverteilung der deterministischen Experimente von den Erwartungswerten aus der stochastischen Theorie. Die transversale Makrodispersivität stieg proportional zur Varianz und Korrelation der lognormalen Permeabilitätsverteilung und umgekehrt proportional zur Strömungsgeschwindigkeit und Dichtedifferenz zweier Fluide. Aus dem von Welty et al. [2003] mittels Störungstheorie entwickelten dichteabhängigen Makrodispersionstensor konnte in dieser Arbeit die stochastische Formel für die transversale Makrodispersion weiter entwickelt und - sowohl experimentell als auch numerisch - verifiziert werden.