144 resultados para STL-Modelle


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Escherichia coli kann C4-Dicarboxylate und andere Carbonsäuren als Substrate für den aeroben und anaeroben Stoffwechsel nutzen. Die Anwesenheit von C4-Dicarboxylaten im Außenmedium wird über das Zweikomponentensystem DcuSR, bestehend aus der membranständigen Sensorkinase DcuS und dem cytoplasmatischen Responseregulator DcuR, erkannt. Die Bindung von C4-Dicarboxylaten an die periplasmatische Domäne von DcuS führt zu einer Induktion der Zielgene. Hierzu zählen die Gene für den anaeroben Fumarat/Succinat-Antiporter DcuB (dcuB), die anaerobe Fumarase (fumB) und die Fumaratreduktase (frdABCD). Unter aeroben Bedingungen stimuliert DcuSR die Expression des dctA Gens, das für den aeroben C4-Dicarboxylat-Carrier DctA kodiert. Für den Carrier DcuB konnte eine regulatorische Funktion bei der Expression der DcuSR-regulierten Gene gezeigt werden. Die Inaktivierung des dcuB Gens führte bereits ohne Fumarat zu einer maximalen Expression einer dcuB´-´lacZ Reportergenfusion und anderer DcuSR-abhängiger Gene. Diese Stimulierung erfolgte nur in einem dcuS-positiven Hintergrund. DcuB unterscheidet sich damit von den alternativen Carriern DcuA und DcuC, die diesen Effekt nicht zeigten. Mithilfe ungerichteter Mutagenese wurden DcuB-Punktmutanten hergestellt (Thr394Ile und Asp398Asn), die eine Geninduktion verursachten, aber eine intakte Transportfunktion besaßen. Dies zeigt, dass der regulatorische Effekt von DcuB unabhängig von dessen Transportfunktion ist. Durch gerichtete Mutagenese wurde die Funktion einer Punktmutation (Thr394) näher charakterisiert. Es werden zwei Modelle zur Membrantopologie von DcuB und der Lage der Punktmutationen im Protein vorgestellt. Da DcuB seine regulatorische Funktion über eine Interaktion mit DcuS vermitteln könnte, wurden mögliche Wechselwirkungen zwischen DcuB und DcuS als auch DcuR mithilfe von Two-Hybrid-Systemen untersucht. Für biochemische Untersuchungen von DcuB wurde außerdem die Expression des Proteins in vivo und in vitro versucht. Unter aeroben Bedingungen beeinflusst der C4-Dicarboxylat-Carrier DctA die Expression der DcuSR-abhängigen Gene. Eine Mutation des dctA Gens bewirkte eine stärkere Expression einer dctA´-´lacZ Reportergenfusion im Vergleich zum Wildtyp. Diese Expression nahm in einem dcuS-negativen Hintergrund ab, die Succinat-abhängige Induktion blieb jedoch erhalten. Unter anaeroben Bedingungen kann das dctA Gen auch durch Inaktivierung von DcuB induziert werden. Es wird ein Modell vorgestellt, das die Beteiligung beider Carrier an der DcuSR-abhängigen Regulation erklärt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Begriff "Kulturbroker" beschreibt Menschen, die eine kulturelle Mittlerrolle einnehmen, und sich um eine Annäherung zwischen verschiedenen aufeinander treffenden Kulturen bemühen. Dabei erscheinen die bestehenden anthropologischen und pädagogischen Ansätze bezüglich kulturellem "brokering" als eine vielversprechende Grundlage für Untersuchungen aus einem literaturwissenschaftlichen Blickwinkel. Die Arbeit plädiert für die Übertragung auf und Anpassung dieser Kulturbroker-Modelle an die Literaturwissenschaft. Hierbei werden zunächst die Konstitutionsmerkmale des Begriffs "Kulturbroker" (culture broker) erhellt. Im Anschluss daran werden die Konturen literarischer Kulturbroker entworfen und deren Arbeit anhand einer Analyse literarischer Texte dargestellt und veranschaulicht. Zur Betrachtung werden Texte von Autorinnen ausgewählt, die durch ihre eigene Biographie mit der Immigrationsgeschichte der USA in Verbindung stehen und ihre Werke zur interkulturellen Vermittlung einsetzen. Die Analyse der Romane und Kurzgeschichten der haitianisch-amerikanischen Autorin Edwidge Danticat (Breath, Eyes, Memory und Krik? Krak!), der koreanisch-amerikanischen Autorin Patti Kim (A Cab Called Reliable), der indisch-amerikanischen Autorin Jhumpa Lahiri (Interpreter of Maladies und The Namesake) und der italo-amerikanischen Autorin Renée Manfredi (Where Love Leaves Us) zeigt, dass die ethnisch-amerikanischen Schriftstellerinnen mit ihren Werken als literarische Kulturbroker fungieren. Ihre Texte dienen als Instrument der kulturellen Vermittlung, das Vorurteile aufbricht und interkulturelle Missverständnisse aufdeckt und ausräumt. Sie stellen eine Begegnungsstätte dar, die es den Lesern ermöglicht, an einer interkulturellen Kommunikation mit den Autoren/Texten teilzunehmen. Die der Arbeit zugrunde gelegten literarischen Texte werden insbesondere im Hinblick auf die Darstellung von Immigration und interkultureller Vermittlung analysiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Aufgabenstellung, welche dieser Dissertation zugrunde liegt, lässt sich kurz als die Untersuchung von komponentenbasierten Konzepten zum Einsatz in der Softwareentwicklung durch Endanwender beschreiben. In den letzten 20 bis 30 Jahren hat sich das technische Umfeld, in dem ein Großteil der Arbeitnehmer seine täglichen Aufgaben verrichtet, grundlegend verändert. Der Computer, früher in Form eines Großrechners ausschließlich die Domäne von Spezialisten, ist nun ein selbstverständlicher Bestandteil der täglichen Arbeit. Der Umgang mit Anwendungsprogrammen, die dem Nutzer erlauben in einem gewissen Rahmen neue, eigene Funktionalität zu definieren, ist in vielen Bereichen so selbstverständlich, dass viele dieser Tätigkeiten nicht bewusst als Programmieren wahrgenommen werden. Da diese Nutzer nicht notwendigerweise in der Entwicklung von Software ausgebildet sind, benötigen sie entsprechende Unterstützung bei diesen Tätigkeiten. Dies macht deutlich, welche praktische Relevanz die Untersuchungen in diesem Bereich haben. Zur Erstellung eines Programmiersystems für Endanwender wird zunächst ein flexibler Anwendungsrahmen entwickelt, welcher sich als Basis zur Erstellung solcher Systeme eignet. In Softwareprojekten sind sich ändernde Anforderungen und daraus resultierende Notwendigkeiten ein wichtiger Aspekt. Dies wird im Entwurf des Frameworks durch Konzepte zur Bereitstellung von wieder verwendbarer Funktionalität durch das Framework und Möglichkeiten zur Anpassung und Erweiterung der vorhandenen Funktionalität berücksichtigt. Hier ist zum einen der Einsatz einer serviceorientierten Architektur innerhalb der Anwendung und zum anderen eine komponentenorientierte Variante des Kommando-Musters zu nennen. Zum anderen wird ein Konzept zur Kapselung von Endnutzerprogrammiermodellen in Komponenten erarbeitet. Dieser Ansatz ermöglicht es, unterschiedliche Modelle als Grundlage der entworfenen Entwicklungsumgebung zu verwenden. Im weiteren Verlauf der Arbeit wird ein Programmiermodell entworfen und unter Verwendung des zuvor genannten Frameworks implementiert. Damit dieses zur Nutzung durch Endanwender geeignet ist, ist eine Anhebung der zur Beschreibung eines Softwaresystems verwendeten Abstraktionsebene notwendig. Dies wird durch die Verwendung von Komponenten und einem nachrichtenbasierten Kompositionsmechanismus erreicht. Die vorgenommene Realisierung ist dabei noch nicht auf konkrete Anwendungsfamilien bezogen, diese Anpassungen erfolgen in einem weiteren Schritt für zwei unterschiedliche Anwendungsbereiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die grundlegenden Prinzipien und Möglichkeiten der Oberflächencharakterisierung mittels ToF-SIMS (Flugzeit-Sekundärionen Massenspektrometrie) werden an ausgewählten Beispielen aus einem aktuell laufenden und vom BMBF geförderten Verbundforschungsprojekt (Fkz: 03N8022A) zum Thema Nanofunktionalisierung von Grenzflächen vorgestellt. Ein Schwerpunkt innerhalb des Projekts stellen die nichtgeschlossenen Schichtsysteme dar, die entweder über Domänenstrukturen oder einer definierten Einzelfunktionalisierung neuartige funktionelle Oberflächen bereitstellen. Mithilfe der sehr oberflächensensitiven ToF-SIMS Methode sowie der Möglichkeit einer graphischen Darstellung lateraler Molekülionenverteilungen auf funktionalisierten Oberflächen können Informationen über Struktur und Belegungsdichte der Funktionsschicht gewonnen werden. Die Kombination des ToF-SIMS Experimentes und eines multivariaten Algorithmus (partial least squares, PLS) liefert eine interessante Möglichkeit zur quantitativen und simultanen Bestimmung von Oberflächeneigenschaften (Element- und molekulare Konzentrationen sowie Kontaktwinkelwerte). Da das ToF-SIMS Spektrum einer plasmafunktionalisierten Oberfläche im Allgemeinen eine Vielzahl unterschiedlicher Fragmentsignale enthält, lässt eine einfache eindimensionale Korrelation (z.B. CF3 - Fragmentintensität ßà CF3-Konzentration) den größten Teil der im Spektrum prinzipiell enthaltenen Information unberücksichtigt. Aufgrund der großen Anzahl von atomaren und molekularen Signalen, die repräsentativ für die chemische Struktur der analysierten Oberflächen sind, ist es sinnvoll, diese Fülle von Informationen zur Quantifizierung der Oberflächeneigenschaften (Elementkonzentrationen, Kontaktwinkel etc.) zu verwenden. Zusätzlich ermöglicht diese Methode eine quantitative Bestimmung der Oberflächeneigenschaften auf nur µm-großen Bereichen. Das ist vorteilhaft für Untersuchungen chemisch strukturierter Oberflächen, da die Größe der Strukturierung für viele Anwendungen in einem Bereich von mehreren µm liegt. Anhand eines Beispieles aus dem biologisch-medizinischen Fachgebiet, soll der erfolgreiche Einsatz multivariater Modelle aufgezeigt werden. In diesem Experiment wurden menschlichen Bindegewebs- (Fibroblasten) und Pankreaszellen auf plasmafunktionalisiserten Oberflächen kultiviert, um die Beeinflussung der Funktionalisierung auf das Zellwachstum zu untersuchen. Die plasmabehandelten Oberflächen wurden durch die Verwendung von TEM-Gittern mit µm-großen Öffnungen chemisch strukturiert und das Wachstumsverhalten der Zellen beobachtet. Jedem dieser µm-großen Bereiche können mithilfe der multivariaten Modelle quantitative Größen zugeordnet werden (Konzentrationen und Kontaktwinkelwerte), die zur Interpretation des Wachstumsverhaltens der Zellen beitragen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Vergleich der deutschen und der schweizerischen Rundfunkordnung unter dem Aspekt des Dualismus 1.Einleitung: Bedeutung und Grundlagen des „Dualismus“ 2.Das „duale System“ in der deutschen Rundfunkordnung 2.1 Die Genese des „dualen Systems“ - Historische und rechtliche Rahmenbedingungen 2.2 Die aktuelle Ausgestaltung des „dualen Systems“ 2.3 Das „duale System“ im europäischen Raum – europarechtliche Einflüsse und Vorgaben 3. Das „duale System“ in der schweizerischen Rundfunkordnung 3.1 Die Genese des „dualen Systems“ - Historische und rechtliche Rahmenbedingungen 3.2 Die aktuelle Ausgestaltung des „dualen Systems“ 3.3 Vergleichende Betrachtung unterschiedlicher Ausprägungen des „dualen Systems“ im Rahmen der Revision des RTVG 4. Vergleichende Betrachtung der „dualen Systeme“ 4.1 Historische und gesetzliche Rahmenbedingungen 4.2 Die spezifischen Besonderheiten des schweizerischen Rundfunkmarktes 4.3 Die einzelnen Elemente der Rundfunkordnung 5. Endergebnis Duale Systeme im Bereich des Rundfunkrechtes bedeuten Koexistenz von privaten und öffentlich-rechtlichen Rundfunkveranstaltern. Die in der Verfassung der Bundesrepublik Deutschland angelegte Rundfunkordnung ist im wesentlichen durch die Rechtsprechung des Bundesverfassungsgerichts geprägt worden. Das aufgrund dieser Vorgaben gewachsene duale System besteht aus einem starken öffentlich-rechtlichen Rundfunk, dessen Position durch die vorrangige Finanzierung aus Gebühren privilegiert wird. Im Gegenzug wird ihm die zentrale Aufgabe zur Sicherung der Grundversorgung zugewiesen. Daneben bestehen die privaten Rundfunkveranstalter, die sich aus Werbeeinnahmen und Nutzungsentgelten finanzieren und insoweit dem Wettbewerb im Markt in höherem Maße ausgeliefert sind. Im europäischen Bereich fällt der Schutz von Pluralismus und Meinungsvielfalt in erster Linie in den Zuständigkeitsbereich der Mitgliedstaaten. Die Medienlandschaften der Mitgliedstaaten sind durch vielfältige Eigenheiten und Traditionen geprägt, die gerade erhalten bleiben sollen. Die Ausgestaltung des dualen Systems im europäischen Rahmen wirft mithin Bedenken allein im Hinblick auf die Finanzierung der öffentlich-rechtlichen Veranstalter aus öffentlichen Ressourcen und die darauf basierende Wettbewerbsverzerrung auf. Mit dem Radio- und Fernsehgesetz von 1991 wurde in der Schweiz ein duales Rundfunksystem eingeführt. Das Treuhandmodell wurde ergänzt durch das Marktmodell. Allerdings galt das duale System für Rundfunk und Fernsehen in der Schweiz nur in der abgeschwächten Form eines staatlich geordneten Wettbewerbs. Es bestand ein Drei-Ebenen-Modell, das eine direkte Konkurrenz zwischen der nationalen Dachorganisation SRG (Schweizerische Rundfunkgesellschaft) und privaten Unternehmen weitestgehend vermied. Die Hauptverpflichtung des Service public oblag der SRG, die auch die Gebühren erhielt. Daneben wurden allerdings alle Veranstalter zu Service-public-Leistungen verpflichtet. Im Gegenzug dazu sah der Gesetzgeber in marktschwachen Regionen ein Gebührensplitting vor. Mit dem neuen RTVG soll dem Service Public eine Bestands- und Entwicklungsgarantie zugesichert werden. Anstelle einer scharfen Trennung zwischen gebühren- und werbefinanzierten Anbietern mit entsprechend unterschiedlichen Funktionen im Mediensystem sollen allerdings die elektronischen Medien in der Schweiz großflächig subventioniert und vermehrt mit Leistungsaufträgen gesteuert werden. Gerade auf lokaler Ebene wird eine Ausweitung des Gebührensplittings vorgesehen. Nicht nur einer, sondern eine Vielzahl von Veranstaltern soll künftig mit der Grundversorgung beauftragt werden. Insbesondere der Service public régional soll von privaten Anbietern und der SRG erbracht werden. Eine Inpflichtnahme sämtlicher privater Rundfunkveranstalter wird indes nicht vorgesehen. Anhand dieser Masterarbeit sollen weiterhin die Unterschiede herausgearbeitet werden, die einzelne nationale Rundfunksysteme aufweisen können und damit auch die rundfunkpolitischen Modelle trotz des gleich bleibenden Grundgedankens, hier des Dualismus. Die Modelle sind stets in ihrem spezifischen politischen und kulturellen Kontext zu sehen, woraus sie historisch gewachsen sind. Durch den Vergleich sollen auf der einen Seite die Probleme der Rundfunkmodelle dargelegt werden, die diesen unabhängig von ihrer Ausgestaltung in mehr oder minder ausgeprägter Form generell innewohnen (Definition der Grundversorgung - des Service public/ Ressourcenknappheit/ Krisen des dualen Systems). Andererseits sollen die spezifischen Probleme der Schweiz aufgrund ihrer mehrsprachigen, kleinstaatlichen Struktur verdeutlicht werden (Hoher Marktanteil an ausländischen, überwiegend deutschsprachigen Programmen an der Fernsehnutzung; Mehrsprachigkeit; Kleinräumigkeit von Zuschauer- und Zuhörermärkten sowie der Werbemärkte).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Seit Frühjahr 2004 wird der Crystal Ball-Detektor am Photonenstrahl des Mainzer Mikrotrons für Koinzidenzexperimente zur Untersuchung der Struktur der Nukleonen genutzt. Aufbau und Inbetriebnahme des Kalorimeters, insbesondere der neuen Detektorelektronik, bilden einen Schwerpunkt dieser Arbeit. Komponenten wurden neu konstruiert oder auf ihre Verwendbarkeit geprüft und nögenfalls modifiziert. Nach erfolgreichem Abschluss der Aufbauphase wurden Experimente zur Produktion von $pi$- und $eta$-Mesonen am Proton mit mehr als 2500 Stunden Strahlbetrieb durchgeführt. Den zweiten Schwerpunkt der Dissertation bildet die erstmalige Messung der Helizitätsasymmetrie I$^odot$ in der Photoproduktion zweier neutraler Pionen. Zum Verstädnis des Anregungsspektrums der Nukleonen müssen Experimente mit polarisierten Photonen und/oder polarisierten Targets durchgeführt werden. Da Modelle trotz unterschiedlicher Annahmen unpolarisiert gemessene Größen vergleichbar gut reproduzieren, ist die Bestimmung der auf Modellunterschiede empfindlichen Polarisationsobservablen unumgäglich. Im Gegensatz zur Einpionproduktion tritt in der Zweipionproduktion eine Einfachpolarisationsobservable auf, die mit zirkular polarisierten Photonen am unpolarisierten Proton gemessen werden kann. Diese wurde in der Reaktion $gamma$ p $rightarrow$ p $pi^0$ $pi^0$ und in $gamma$ p $rightarrow$ p $pi^+$ $pi^-$ energie- und winkelabhägig bestimmt. Die Ergebnisse weichen stark von den Modellvorhersagen ab.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Precision measurements of phenomena related to fermion mixing require the inclusion of higher order corrections in the calculation of corresponding theoretical predictions. For this, a complete renormalization scheme for models that allow for fermion mixing is highly required. The correct treatment of unstable particles makes this task difficult and yet, no satisfactory and general solution can be found in the literature. In the present work, we study the renormalization of the fermion Lagrange density with Dirac and Majorana particles in models that involve mixing. The first part of the thesis provides a general renormalization prescription for the Lagrangian, while the second one is an application to specific models. In a general framework, using the on-shell renormalization scheme, we identify the physical mass and the decay width of a fermion from its full propagator. The so-called wave function renormalization constants are determined such that the subtracted propagator is diagonal on-shell. As a consequence of absorptive parts in the self-energy, the constants that are supposed to renormalize the incoming fermion and the outgoing antifermion are different from the ones that should renormalize the outgoing fermion and the incoming antifermion and not related by hermiticity, as desired. Instead of defining field renormalization constants identical to the wave function renormalization ones, we differentiate the two by a set of finite constants. Using the additional freedom offered by this finite difference, we investigate the possibility of defining field renormalization constants related by hermiticity. We show that for Dirac fermions, unless the model has very special features, the hermiticity condition leads to ill-defined matrix elements due to self-energy corrections of external legs. In the case of Majorana fermions, the constraints for the model are less restrictive. Here one might have a better chance to define field renormalization constants related by hermiticity. After analysing the complete renormalized Lagrangian in a general theory including vector and scalar bosons with arbitrary renormalizable interactions, we consider two specific models: quark mixing in the electroweak Standard Model and mixing of Majorana neutrinos in the seesaw mechanism. A counter term for fermion mixing matrices can not be fixed by only taking into account self-energy corrections or fermion field renormalization constants. The presence of unstable particles in the theory can lead to a non-unitary renormalized mixing matrix or to a gauge parameter dependence in its counter term. Therefore, we propose to determine the mixing matrix counter term by fixing the complete correction terms for a physical process to experimental measurements. As an example, we calculate the decay rate of a top quark and of a heavy neutrino. We provide in each of the chosen models sample calculations that can be easily extended to other theories.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Eine aktuelle Ausprägung der Veranstaltungslandschaft sind die so genannten Motto-Events, die die Inszenierung einer Anderswelt-Konstruktion einsetzen, um emotionale und kommunikatorische Ziele zu erreichen. Dabei werden themengebundene Entwürfe räumlich und inhaltlich in die lebensweltliche Wirklichkeit transportiert und auf diese Weise eine dynamische und integrative Scheinwelt erschaffen. In dieser konstruierten Welt können schließlich Abenteuer erlebt und heroische Taten begangen werden. Durch die reziproke Beeinflussung von Inszenierung und Handlung befinden sich die Akteure außerhalb der gesellschaftlichen Norm, sie erleben innerhalb der "gated community" der Motto-Veranstaltung eine re-definierte Wirklichkeit. Aus einer Kombination von aktiven und passiven Elementen werden homogene Klischees inszeniert, die durch ihren Bekanntheitsgrad eine hohe Anschlussfähigkeit der Teilnehmer garantieren. Die vorliegende Arbeit beschäftigt sich mit den Mechanismen, die diese re-definierte Wirklichkeit in Szene setzen. Dadurch wird es möglich, in einer zusammenfassenden Betrachtung die Rezeption verschiedener Event-Modelle zu beschreiben und Handlungsempfehlungen zu geben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the present thesis, the geochemistry, petrology and geochronology of ophiolite complexes from central northern Greece were studied in detail in order to gain insights on the petrogenetic pathways and geodynamic processes that lead to their formation and evolution. The major- and trace-element content of minerals and whole rocks from all four ophiolite complexes was determined using high-precision analytical equipment. These results were then coupled with Nd and Sr isotopic measurements. In order to precisely place the evolution of these ophiolites in time, U-Pb geochronology on zircons was conducted using a SHRIMP-II. The data obtained suggest that the ophiolites studied invariably show typical characteristics of subduction-zone magmatism (e.g. negative Nb anomalies, Th enrichment). In N-MORB-normalised multielement profiles the high field-strength elements display patterns that vary from depleted to N-MORB-like. Chondrite-normalised rare-earth element (REE) profiles show flat heavy-REE patterns suggesting a shallow regime of source melting for all the ophiolites, well within the stability field of spinel lherzolite. The majority of the samples have light-REE depleted patterns. 87Sr/86Sr isotopic ratios range from 0.703184 to 0.715853 and are in cases influenced by alteration. The εNd values are positive (the majority of the mafic samples is typically 7.1-3.1) but lower than N-MORB and depleted mantle. With the exception of the Thessaloniki ophiolite that has uniform island-arc tholeiitic chemical characteristics, the rest of the ophiolites show dual chemistry consisting of rocks with minor subduction-zone characteristics that resemble chemically back-arc basin basalts (BABB) and rocks with more pronounced subduction-zone characteristics. Tectonomagmatic discrimination schemes classify the samples as island-arc tholeiites and back-arc basin basalts or N-MORB. Melting modelling carried out to evaluate source properties and degree of melting verifies the dual nature of the ophiolites. The samples that resemble back-arc basin basalts require very small degrees of melting (<10%) of fertile sources, whereas the rest of the samples require higher degrees (25-15%) of melting. As deduced from the present geochemical and petrological investigation, the ophiolites from Guevguely, Oraeokastro, Thessaloniki, and Chalkidiki represent relics of supra-subduction zone crust that formed in succeeding stages of island-arc rifting and back-arc spreading as well as in a fore arc setting. The geochronological results have provided precise determination of the timing of formation of these complexes. The age of the Guevguely ophiolite has been determined as 167±1.2 Ma, that of Thessaloniki as 169±1.4 Ma, that of Kassandra as 167±2.2 Ma and that of Sithonia as 160±1.2 Ma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden Quantum-Hydrodynamische (QHD) Modelle betrachtet, die ihren Einsatz besonders in der Modellierung von Halbleiterbauteilen finden. Das QHD Modell besteht aus den Erhaltungsgleichungen für die Teilchendichte, das Momentum und die Energiedichte, inklusive der Quanten-Korrekturen durch das Bohmsche Potential. Zu Beginn wird eine Übersicht über die bekannten Ergebnisse der QHD Modelle unter Vernachlässigung von Kollisionseffekten gegeben, die aus ein­em Schrödinger-System für den gemischten-Zustand oder aus der Wigner-Glei­chung hergeleitet werden können. Nach der Reformulierung der eindimensionalen QHD Gleichungen mit linearem Potential als stationäre Schrö­din­ger-Gleichung werden die semianalytischen Fassungen der QHD Gleichungen für die Gleichspannungs-Kurve betrachtet. Weiterhin werden die viskosen Stabilisierungen des QHD Modells be­rück­sich­tigt, sowie die von Gardner vorgeschlagene numerische Viskosität für das {sf upwind} Finite-Differenzen Schema berechnet. Im Weiteren wird das viskose QHD Modell aus der Wigner-Glei­chung mit Fokker-Planck Kollisions-Ope­ra­tor hergeleitet. Dieses Modell enthält die physikalische Viskosität, die durch den Kollision-Operator eingeführt wird. Die Existenz der Lösungen (mit strikt positiver Teilchendichte) für das isotherme, stationäre, eindimensionale, viskose Modell für allgemeine Daten und nichthomogene Randbedingungen wird gezeigt. Die dafür notwendigen Abschätzungen hängen von der Viskosität ab und erlauben daher den Grenzübergang zum nicht-viskosen Fall nicht. Numerische Simulationen der Resonanz-Tunneldiode modelliert mit dem nichtisothermen, stationären, eindimensionalen, viskosen QHD Modell zeigen den Einfluss der Viskosität auf die Lösung. Unter Verwendung des von Degond und Ringhofer entwickelten Quanten-Entropie-Minimierungs-Verfahren werden die allgemeinen QHD-Gleichungen aus der Wigner-Boltzmann-Gleichung mit dem BGK-Kollisions-Operator hergeleitet. Die Herleitung basiert auf der vorsichtige Entwicklung des Quanten-Max­well­ians in Potenzen der skalierten Plankschen Konstante. Das so erhaltene Modell enthält auch vertex-Terme und dispersive Terme für die Ge­schwin­dig­keit. Dadurch bleibt die Gleichspannungs-Kurve für die Re­so­nanz-Tunnel­diode unter Verwendung des allgemeinen QHD Modells in einer Dimension numerisch erhalten. Die Ergebnisse zeigen, dass der dispersive Ge­schwin­dig­keits-Term die Lösung des Systems stabilisiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Seit der Entdeckung des Golgi-Apparates im Jahre 1898 wurden seine Struktur, seine enzymatische Zusammensetzung und die Dynamik des in ihm stattfindenden Proteintransports intensiv untersucht. Dennoch blieben bis heute wesentliche Fragen zu seiner Funktionsweise unbeantwortet. So existieren nach wie vor mehrer konkurrierende Modelle zur Organisation der hoch komplexen räumlichen Verteilung seiner Enzyme sowie zum grundlegenden Mechanismus des Intra-Golgi Transports. Die Beantwortung dieser und weiterer Fragen ist für das Verständnis des Golgi-Apparates essentiell, aber aus methodischen Gründen höchst schwierig, da es bisher nicht möglich war die Struktur und Dynamik des Golgi-Apparates lebender Zellen mit der hierfür notwendigen Auflösung und Geschwindigkeit zu untersuchen. Bis heute gibt es für die funktionsmorphologischen Untersuchungen des Golgi-Apparates lebender Zellen keine echte Alternative zur Fernfeld- Fluoreszenzmikroskopie. Das MMM-4Pi-Mikroskop ermöglicht als erstes Fluoreszenzmikroskop, aufgrund seiner Auflösung von ~200 nm in der Fokalebene und 100-150 nm entlang der optischen Achse, die Untersuchung der Subkompartimente des Golgi-Apparates und kann, aufgrund seiner hohen Aufnahmegeschwindigkeit von 0.5 Hz, die Dynamik des Intra-Golgi Transports zeitlich auflösen. Ziel dieser Arbeit war es daher, den Golgi-Apparate lebender Zellen in zwei Farben sowie mit einer bisher nicht möglichen räumlichen und zeitlichen Auflösung zu untersuchen. Um die Leistungsfähigkeit der dreidimensionalen Bildgebung dieser Methode zu überprüfen, wurde erstmals der Golgi-Apparat fixierter Säugerzellen korrelativ mit dem Transmissionselektronenmikroskop und dem MMM-4Pi-Mikroskop aufgenommen. Die rekonstruierten Strukturen korrelierten in allen drei Raumrichtungen zu über 80%, was die Validität beider Methoden eindrucksvoll unter Beweis stellt. Zudem konnten mit dem MMM-4Pi-Mikroskop Aussackungen von Golgi-Cisternen aufgelöst werden, was die Eignung dieser Methode zur strukturellen Analyse der Subkompartimente des Golgi-Apparates unterstreicht. Des Weiteren wurde, in einer Reihe zweifarbiger Aufnahmeserien, die Verteilung dreier Golgi-Enzyme in lebenden Säugerzellen untersucht, und ihre mittlere relative Distanz bestimmt. Ihre aus der Literatur bekannten Lokalisationen konnten in zwei Fällen bestätigt (GalT, MannII) und in einem Fall korrigiert werden (2-OST). Im Gegensatz zu der konfokal bestimmten Cis-/Mid-Lokalisation von 2-OST zeigen die Ergebnisse der hoch aufgelösten Distanzanalyse deutlich, dass eine Mid-/Trans-Lokalisation vorliegt. Dieses Ergebnis wurde elektronenmikroskopisch überprüft und bestätigt. Da die räumliche Anordnung der Golgi-Enzyme die Reihenfolge ihrer Akitvität wiederspiegelt, ist eine möglichst präzise Bestimmung ihrer Konzentrationsverteilungen essentiell, um die Funktion des Golgi-Apparates zu verstehen. Insbesondere zeigt dieses Resultat, dass die Bestimmung der Lokalisation von Golgi-Enzymen über konfokale Kolokalisationsstudien zu falschen Ergebnissen führen kann. Die Kombination hoher räumlicher Auflösung mit einer schnellen Datenaufnahme erlaubte die Analyse der Transportdynamik innerhalb des Golgi-Apparates von Säugerzellen. In mehreren Zeitserien zweifarbiger Aufnahmen wurde der Transport des Frachtproteins VSVG relativ zum Trans-Golgi-Marker GalT untersucht. Dabei zeigte sich, dass das Trans-Golgi-Kompartiment in einigen Fällen durch eine deutliche Formänderung auf die Ankunft eines VSVG-Transportpulses reagierte und sich insgesamt wesentlich dynamischer verhielt als der Transportpuls selbst. Diese Beobachtung bestätigt tendenziell Transportmodelle, die den Golgi-Apparat nicht als statisches, sondern als dynamisches, aktiv am Transport beteiligtes Organell beschreiben. Die hier vorgestellten Experimente stellen die ersten Untersuchungen zur Verteilung von Golgi-Enzymen sowie zur Transportdynamik des Golgi-Apparates lebender Zellen mit einer dreidimensionalen Auflösung im Bereich von 100-200 nm dar. Wie am Beispiel von 2 OST gezeigt, ist es mit dem MMM-4Pi-Mikroskop allgemein möglich, die Lokalisation von Golgi-Enzymen wesentlich präziser als bisher zu bestimmen. Bei der Untersuchung dynamischer Prozesse ist in naher Zukunft eine Steigerung der Leistungsfähigkeit der Methode zu erwarten. Zum einen werden CCD-Kameras mit kürzeren Auslesezeiten und einer elektronischen Verstärkung des Signals die Datenaufnahme weiter beschleunigen. Zum anderen könnte durch die Entwicklung eines parallelisierten Mikroskops mit Einphotonen-Anregung das Bleichen konsekutiver Aufnahmen verringert werden, wodurch längere Aufnahmeserien möglich sein werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chimäre Archonta? Vergleichend-morphologische Studien zur Hyolaryngealregion. Mit Brevia zur Dental- und Tarsalmorphologie. Die Dissertation greift aus phylogenetisch-systematischer Perspektive das Problem des Primatenursprungs auf. Traditionell wurde die Überordnung Archonta (= Primates + Scandentia + Dermoptera + Chiroptera) angenommen, die aufgrund molekularer Befunde nicht mehr als valide eingestuft wird. Eine Klassifikation anhand der Superordo Euarchontoglires (= Primates + Scandentia + Dermoptera + Glires) wird derzeit bevorzugt. Beide Verwandtschaftshypothesen werden in den taxonomischen Analysen berücksichtigt, um den potentiellen Einfluss der Außengruppenwahl auf die Konstellation der Euarchonta (= Primates + Dermoptera + Scandentia) zu bestimmen. Der Schwerpunkt der Untersuchung liegt in der 3D-Rekonstruktion ontogenetischer Stadien der Hyolaryngealregion diverser Spezies der Ordnungen Artiodactyla, Chiroptera, Dermoptera, Primates, Rodentia, Scandentia und Soricomorpha. Mit AMIRA® 3.1.1 konnten basierend auf histologischen Schnittserien 18 dreidimensionale Modelle der überwiegend spätfetalen Zungenbein- und Kehlkopfregion dargestellt werden. Durch das Studium der Knorpelmorphologie und der Larynx-Myologie wurden 150 Merkmale definiert und in eine MacClade®-Datenmatrix überführt. Die auf dem Parsimonie-Prinzip basierenden PAUP®-Analysen sprechen für eine Schwestergruppenbeziehung der Primates und der Dermoptera (= Primatomorpha). Die als Chimäre titulierte Überordnung Archonta wurde als Vehikel verwendet, um die Integration der Chiropteren zu ermöglichen und die Hyolaryngealforschung zu intensivieren, da auch Echolot-Peilung verwendende Taxa Bestandteil der Untersuchung waren. Die morphologischen Ähnlichkeiten des Zungenbein- und Kehlkopfapparates zwischen der basalen Form Rousettus (Pteropodidae) und dem Dermoptera-Vertreter Cynocephalus wurden als symplesiomorphe Merkmale gedeutet. Bei der Außengruppenwahl eines Rodentia-Repräsentanten hingegen konnte in Übereinstimmung mit den molekularen Befunden und nach dem Gros der Lehrmeinung die Schwestergruppenbeziehung der Primates und der Sundatheria bestätigt werden. Zwecks eines umfassenderen Ansatzes wurden im Rahmen einer „total evidence“-Methodik dental- und tarsalmorphologische Merkmale integriert. Das Resultat der Clusteranalyse, basierend auf 263 Merkmalen, modifiziert das Zwischenergebnis und befürwortet in Übereinstimmung mit molekularen Daten als Schwestergruppe der Primaten das Taxon Sundatheria (= Dermoptera + Scandentia). Damit konnte erstmals mittels eines konsequenten phylogenetisch-systematischen Ansatzes der Primaten-Grundplan hinsichtlich der Merkmalsausstattung der Hyolaryngealregion mit 27 Merkmalen rekonstruiert werden. Der Primatenursprung kann mit dem Euarchonta-Grundplan rekonstruiert werden. Für die Sundatheria wurden 12 Grundplanmerkmale definiert

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary PhD Thesis Jan Pollmann: This thesis focuses on global scale measurements of light reactive non-methane hydrocarbon (NMHC), in the volatility range from ethane to toluene with a special focus on ethane, propane, isobutane, butane, isopentane and pentane. Even though they only occur at the ppt level (nmol mol-1) in the remote troposphere these species can yield insight into key atmospheric processes. An analytical method was developed and subsequently evaluated to analyze NMHC from the NOAA – ERSL cooperative air sampling network. Potential analytical interferences through other atmospheric trace gases (water vapor and ozone) were carefully examined. The analytical parameters accuracy and precision were analyzed in detail. It was proven that more than 90% of the data points meet the Global Atmospheric Watch (GAW) data quality objective. Trace gas measurements from 28 measurement stations were used to derive the global atmospheric distribution profile for 4 NMHC (ethane, propane, isobutane, butane). A close comparison of the derived ethane data with previously published reports showed that northern hemispheric ethane background mixing ratio declined by approximately 30% since 1990. No such change was observed for southern hemispheric ethane. The NMHC data and trace gas data supplied by NOAA ESRL were used to estimate local diurnal averaged hydroxyl radical (OH) mixing ratios by variability analysis. Comparison of the variability derived OH with directly measured OH and modeled OH mixing ratios were found in good agreement outside the tropics. Tropical OH was on average two times higher than predicted by the model. Variability analysis was used to assess the effect of chlorine radicals on atmospheric oxidation chemistry. It was found that Cl is probably not of significant relevance on a global scale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vor dem Hintergrund sich wandelnder (medialer) Lebenswelten von Schülerinnen und Schülern gewinnen Bestimmungsversuche um medienpädagogische Handlungskompetenzen von Lehrpersonen an Bedeutung. Der Erwerb medienpädagogischer Kompetenz, verstanden als dynamisches Zusammenspiel von domänenspezifischem Wissen und anwendungsorientiertem Können, wird in der vorliegenden Arbeit als wesentliches Lernziel der medienpädagogischen (Aus-)Bildung bestimmt. Als ein Weg zur Förderung medienpädagogischer Handlungskompetenz wird von der Autorin auf der Folie konstruktivistischer Vorstellungen über das Lehren und Lernen die Methode der Problemorientierung vorgeschlagen. Im ersten Teil der Arbeit werden Modelle und Konzepte diskutiert, die Bausteine für ein Modell medienpädagogischer Kompetenz liefern. Im zweiten Teil wird eine empirische Untersuchung zum Erwerb medienpädagogischer Handlungskompetenz auf der Basis eines von der Autorin erarbeiteten Modells vorgestellt und die Ergebnisse diskutiert. Eine kompetenztheoretische Annäherung erfolgt auf der Basis zweier Konzepte. Dies sind die Ausführungen zu einem Konzept kommunikativer Kompetenz nach Jürgen Habermas sowie dessen Überführung in die Medienpädagogik durch Dieter Baacke. Ferner wird die rezente bildungspolitische Kompetenzdebatte in Anbindung an Franz E. Weinert analysiert. Es folgt eine Zusammenschau über die methodischen Konzepte zur Erfassung von Kompetenzen in der Erziehungswissenschaft und deren Anwendbarkeit für die medienpädagogische Kompetenzforschung. Die gegenwärtig vorliegenden Entwürfe zu einer inhaltlichen Bestimmung medienpädagogischer Kompetenzen werden besprochen (Sigrid Blömeke, Werner Sesink, International Society for Technology in Education). Im Rekurs auf konstruktivistische lerntheoretische Überlegungen erfährt das problemorientierte Lernen beim Aufbau von Kompetenzen eine enorme Aufwertung. In der Arbeit wird insbesondere den Arbeiten von David Jonassen zu einer konstruktivistisch-instruktionistischen Herangehensweise bei der Gestaltung problemorientierter Lernumgebungen eine große Bedeutung zugesprochen (vgl. auch Ansätze des Goal-based Scenarios/Roger Schank und des Learning by Design/Janet Kolodner). Im zweiten Teil wird die Interventionsstudie im Kontrollgruppendesign vorgestellt. Anhand eines Modells medienpädagogischer Kompetenz, dass auf den Dimensionen Wissen einerseits und Können andererseits basiert, wurden Studierende (n=59) in einem Pre-Posttestverfahren auf diese Dimensionen getestet. Die Studierenden der Interventionsgruppe (n=30) arbeiteten über ein Semester mit einer problemorientierten Lernanwendung, die Studierenden der Kontrollgruppe (n=29) in einem klassischen Seminarsetting. Hauptergebnis der Untersuchung ist es, das die Intervention zu einem messbaren Lernerfolg beim medienpädagogischen Können führte. In der Diskussion der Ergebnisse werden Empfehlungen zur Gestaltung problemorientierter Lernumgebungen formuliert. Die Chancen einer Orientierung an problemorientierten Lernsettings für das Lernen an Hochschulen werden herausgestellt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Verifikation numerischer Modelle ist für die Verbesserung der Quantitativen Niederschlagsvorhersage (QNV) unverzichtbar. Ziel der vorliegenden Arbeit ist die Entwicklung von neuen Methoden zur Verifikation der Niederschlagsvorhersagen aus dem regionalen Modell der MeteoSchweiz (COSMO-aLMo) und des Globalmodells des Europäischen Zentrums für Mittelfristvorhersage (engl.: ECMWF). Zu diesem Zweck wurde ein neuartiger Beobachtungsdatensatz für Deutschland mit stündlicher Auflösung erzeugt und angewandt. Für die Bewertung der Modellvorhersagen wurde das neue Qualitätsmaß „SAL“ entwickelt. Der neuartige, zeitlich und räumlich hoch-aufgelöste Beobachtungsdatensatz für Deutschland wird mit der während MAP (engl.: Mesoscale Alpine Program) entwickelten Disaggregierungsmethode erstellt. Die Idee dabei ist, die zeitlich hohe Auflösung der Radardaten (stündlich) mit der Genauigkeit der Niederschlagsmenge aus Stationsmessungen (im Rahmen der Messfehler) zu kombinieren. Dieser disaggregierte Datensatz bietet neue Möglichkeiten für die quantitative Verifikation der Niederschlagsvorhersage. Erstmalig wurde eine flächendeckende Analyse des Tagesgangs des Niederschlags durchgeführt. Dabei zeigte sich, dass im Winter kein Tagesgang existiert und dies vom COSMO-aLMo gut wiedergegeben wird. Im Sommer dagegen findet sich sowohl im disaggregierten Datensatz als auch im COSMO-aLMo ein deutlicher Tagesgang, wobei der maximale Niederschlag im COSMO-aLMo zu früh zwischen 11-14 UTC im Vergleich zu 15-20 UTC in den Beobachtungen einsetzt und deutlich um das 1.5-fache überschätzt wird. Ein neues Qualitätsmaß wurde entwickelt, da herkömmliche, gitterpunkt-basierte Fehlermaße nicht mehr der Modellentwicklung Rechnung tragen. SAL besteht aus drei unabhängigen Komponenten und basiert auf der Identifikation von Niederschlagsobjekten (schwellwertabhängig) innerhalb eines Gebietes (z.B. eines Flusseinzugsgebietes). Berechnet werden Unterschiede der Niederschlagsfelder zwischen Modell und Beobachtungen hinsichtlich Struktur (S), Amplitude (A) und Ort (L) im Gebiet. SAL wurde anhand idealisierter und realer Beispiele ausführlich getestet. SAL erkennt und bestätigt bekannte Modelldefizite wie das Tagesgang-Problem oder die Simulation zu vieler relativ schwacher Niederschlagsereignisse. Es bietet zusätzlichen Einblick in die Charakteristiken der Fehler, z.B. ob es sich mehr um Fehler in der Amplitude, der Verschiebung eines Niederschlagsfeldes oder der Struktur (z.B. stratiform oder kleinskalig konvektiv) handelt. Mit SAL wurden Tages- und Stundensummen des COSMO-aLMo und des ECMWF-Modells verifiziert. SAL zeigt im statistischen Sinne speziell für stärkere (und damit für die Gesellschaft relevante Niederschlagsereignisse) eine im Vergleich zu schwachen Niederschlägen gute Qualität der Vorhersagen des COSMO-aLMo. Im Vergleich der beiden Modelle konnte gezeigt werden, dass im Globalmodell flächigere Niederschläge und damit größere Objekte vorhergesagt werden. Das COSMO-aLMo zeigt deutlich realistischere Niederschlagsstrukturen. Diese Tatsache ist aufgrund der Auflösung der Modelle nicht überraschend, konnte allerdings nicht mit herkömmlichen Fehlermaßen gezeigt werden. Die im Rahmen dieser Arbeit entwickelten Methoden sind sehr nützlich für die Verifikation der QNV zeitlich und räumlich hoch-aufgelöster Modelle. Die Verwendung des disaggregierten Datensatzes aus Beobachtungen sowie SAL als Qualitätsmaß liefern neue Einblicke in die QNV und lassen angemessenere Aussagen über die Qualität von Niederschlagsvorhersagen zu. Zukünftige Anwendungsmöglichkeiten für SAL gibt es hinsichtlich der Verifikation der neuen Generation von numerischen Wettervorhersagemodellen, die den Lebenszyklus hochreichender konvektiver Zellen explizit simulieren.