176 resultados para Interne Modelle


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit konnte mit Hilfe von neu synthetisierten Monomeren und Polymeren Kristallisationstemplate für die Kalziumkarbonatkristallisation dargestellt werden. Hierzu wurde zunächst die Phasenseparation des Monomeren und Polymeren mit der nukleationsfördernden Stearinsäure detailliert untersucht und gezeigt, dass die Monomer und Polymer-Mischsysteme auf Ca(HCO3)2-Lsg. perfekt phasenseparieren. Weiter konnte diese entmischte Struktur mit Hilfe von UV-Bestrahlung in der Monoschicht polymerisiert und damit fixiert werden. Des weiteren konnte gezeigt werden, dass die Kristallisation unter den monomeren und polymeren Bereichen vollständig inhibiert wird und ausschließlich unter den Stearinsäuredomänen von statten geht. Das Problem der Kristallisation in die dritte Dimension, also ins Volumen, konnte durch die Zugabe von Polyacrylsäure zur Subphase kontrolliert werden, so dass nun eine Abbildung der strukturierten Monoschicht durch Kalkkristallisation möglich ist. Im zweiten Teil der Arbeit konnte ein amphiphiles Itaconat synthetisiert werden, welches auf Grund seiner Carbonsäurefunktion ebenfalls nukleationsfördernd wirkt. Auch hier war es möglich die Monoschicht zu polymerisieren. Weiter konnte erneut gezeigt werden, dass es möglich ist mit Hilfe von Polyacrylsäurezusatz die interne Struktur der Membran als Templat für die Kristallisation zu nutzen, so dass auch dieses System zur gezielten Kalkkristallisation genutzt werden kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neuronal circuits in the retina analyze images according to qualitative aspects such as color or motion, before the information is transmitted to higher visual areas of the brain. One example, studied for over the last four decades, is the detection of motion direction in ‘direction selective’ neurons. Recently, the starburst amacrine cell, one type of retinal interneuron, has emerged as an essential player in the computation of direction selectivity. In this study the mechanisms underlying the computation of direction selective calcium signals in starburst cell dendrites were investigated using whole-cell electrical recordings and two-photon calcium imaging. Analysis of the somatic electrical responses to visual stimulation and pharmacological agents indicated that the directional signal (i) is not computed presynaptically to starburst cells or by inhibitory network interactions. It is thus computed via a cell-intrinsic mechanism, which (ii) depends upon the differential, i.e. direction selective, activation of voltage-gated channels. Optically measuring dendritic calcium signals as a function of somatic voltage suggests (iii) a difference in resting membrane potential between the starburst cell’s soma and its distal dendrites. In conclusion, it is proposed that the mechanism underlying direction selectivity in starburst cell dendrites relies on intrinsic properties of the cell, particularly on the interaction of spatio-temporally structured synaptic inputs with voltage-gated channels, and their differential activation due to a somato-dendritic difference in membrane potential.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die grundlegenden Prinzipien und Möglichkeiten der Oberflächencharakterisierung mittels ToF-SIMS (Flugzeit-Sekundärionen Massenspektrometrie) werden an ausgewählten Beispielen aus einem aktuell laufenden und vom BMBF geförderten Verbundforschungsprojekt (Fkz: 03N8022A) zum Thema Nanofunktionalisierung von Grenzflächen vorgestellt. Ein Schwerpunkt innerhalb des Projekts stellen die nichtgeschlossenen Schichtsysteme dar, die entweder über Domänenstrukturen oder einer definierten Einzelfunktionalisierung neuartige funktionelle Oberflächen bereitstellen. Mithilfe der sehr oberflächensensitiven ToF-SIMS Methode sowie der Möglichkeit einer graphischen Darstellung lateraler Molekülionenverteilungen auf funktionalisierten Oberflächen können Informationen über Struktur und Belegungsdichte der Funktionsschicht gewonnen werden. Die Kombination des ToF-SIMS Experimentes und eines multivariaten Algorithmus (partial least squares, PLS) liefert eine interessante Möglichkeit zur quantitativen und simultanen Bestimmung von Oberflächeneigenschaften (Element- und molekulare Konzentrationen sowie Kontaktwinkelwerte). Da das ToF-SIMS Spektrum einer plasmafunktionalisierten Oberfläche im Allgemeinen eine Vielzahl unterschiedlicher Fragmentsignale enthält, lässt eine einfache eindimensionale Korrelation (z.B. CF3 - Fragmentintensität ßà CF3-Konzentration) den größten Teil der im Spektrum prinzipiell enthaltenen Information unberücksichtigt. Aufgrund der großen Anzahl von atomaren und molekularen Signalen, die repräsentativ für die chemische Struktur der analysierten Oberflächen sind, ist es sinnvoll, diese Fülle von Informationen zur Quantifizierung der Oberflächeneigenschaften (Elementkonzentrationen, Kontaktwinkel etc.) zu verwenden. Zusätzlich ermöglicht diese Methode eine quantitative Bestimmung der Oberflächeneigenschaften auf nur µm-großen Bereichen. Das ist vorteilhaft für Untersuchungen chemisch strukturierter Oberflächen, da die Größe der Strukturierung für viele Anwendungen in einem Bereich von mehreren µm liegt. Anhand eines Beispieles aus dem biologisch-medizinischen Fachgebiet, soll der erfolgreiche Einsatz multivariater Modelle aufgezeigt werden. In diesem Experiment wurden menschlichen Bindegewebs- (Fibroblasten) und Pankreaszellen auf plasmafunktionalisiserten Oberflächen kultiviert, um die Beeinflussung der Funktionalisierung auf das Zellwachstum zu untersuchen. Die plasmabehandelten Oberflächen wurden durch die Verwendung von TEM-Gittern mit µm-großen Öffnungen chemisch strukturiert und das Wachstumsverhalten der Zellen beobachtet. Jedem dieser µm-großen Bereiche können mithilfe der multivariaten Modelle quantitative Größen zugeordnet werden (Konzentrationen und Kontaktwinkelwerte), die zur Interpretation des Wachstumsverhaltens der Zellen beitragen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Vergleich der deutschen und der schweizerischen Rundfunkordnung unter dem Aspekt des Dualismus 1.Einleitung: Bedeutung und Grundlagen des „Dualismus“ 2.Das „duale System“ in der deutschen Rundfunkordnung 2.1 Die Genese des „dualen Systems“ - Historische und rechtliche Rahmenbedingungen 2.2 Die aktuelle Ausgestaltung des „dualen Systems“ 2.3 Das „duale System“ im europäischen Raum – europarechtliche Einflüsse und Vorgaben 3. Das „duale System“ in der schweizerischen Rundfunkordnung 3.1 Die Genese des „dualen Systems“ - Historische und rechtliche Rahmenbedingungen 3.2 Die aktuelle Ausgestaltung des „dualen Systems“ 3.3 Vergleichende Betrachtung unterschiedlicher Ausprägungen des „dualen Systems“ im Rahmen der Revision des RTVG 4. Vergleichende Betrachtung der „dualen Systeme“ 4.1 Historische und gesetzliche Rahmenbedingungen 4.2 Die spezifischen Besonderheiten des schweizerischen Rundfunkmarktes 4.3 Die einzelnen Elemente der Rundfunkordnung 5. Endergebnis Duale Systeme im Bereich des Rundfunkrechtes bedeuten Koexistenz von privaten und öffentlich-rechtlichen Rundfunkveranstaltern. Die in der Verfassung der Bundesrepublik Deutschland angelegte Rundfunkordnung ist im wesentlichen durch die Rechtsprechung des Bundesverfassungsgerichts geprägt worden. Das aufgrund dieser Vorgaben gewachsene duale System besteht aus einem starken öffentlich-rechtlichen Rundfunk, dessen Position durch die vorrangige Finanzierung aus Gebühren privilegiert wird. Im Gegenzug wird ihm die zentrale Aufgabe zur Sicherung der Grundversorgung zugewiesen. Daneben bestehen die privaten Rundfunkveranstalter, die sich aus Werbeeinnahmen und Nutzungsentgelten finanzieren und insoweit dem Wettbewerb im Markt in höherem Maße ausgeliefert sind. Im europäischen Bereich fällt der Schutz von Pluralismus und Meinungsvielfalt in erster Linie in den Zuständigkeitsbereich der Mitgliedstaaten. Die Medienlandschaften der Mitgliedstaaten sind durch vielfältige Eigenheiten und Traditionen geprägt, die gerade erhalten bleiben sollen. Die Ausgestaltung des dualen Systems im europäischen Rahmen wirft mithin Bedenken allein im Hinblick auf die Finanzierung der öffentlich-rechtlichen Veranstalter aus öffentlichen Ressourcen und die darauf basierende Wettbewerbsverzerrung auf. Mit dem Radio- und Fernsehgesetz von 1991 wurde in der Schweiz ein duales Rundfunksystem eingeführt. Das Treuhandmodell wurde ergänzt durch das Marktmodell. Allerdings galt das duale System für Rundfunk und Fernsehen in der Schweiz nur in der abgeschwächten Form eines staatlich geordneten Wettbewerbs. Es bestand ein Drei-Ebenen-Modell, das eine direkte Konkurrenz zwischen der nationalen Dachorganisation SRG (Schweizerische Rundfunkgesellschaft) und privaten Unternehmen weitestgehend vermied. Die Hauptverpflichtung des Service public oblag der SRG, die auch die Gebühren erhielt. Daneben wurden allerdings alle Veranstalter zu Service-public-Leistungen verpflichtet. Im Gegenzug dazu sah der Gesetzgeber in marktschwachen Regionen ein Gebührensplitting vor. Mit dem neuen RTVG soll dem Service Public eine Bestands- und Entwicklungsgarantie zugesichert werden. Anstelle einer scharfen Trennung zwischen gebühren- und werbefinanzierten Anbietern mit entsprechend unterschiedlichen Funktionen im Mediensystem sollen allerdings die elektronischen Medien in der Schweiz großflächig subventioniert und vermehrt mit Leistungsaufträgen gesteuert werden. Gerade auf lokaler Ebene wird eine Ausweitung des Gebührensplittings vorgesehen. Nicht nur einer, sondern eine Vielzahl von Veranstaltern soll künftig mit der Grundversorgung beauftragt werden. Insbesondere der Service public régional soll von privaten Anbietern und der SRG erbracht werden. Eine Inpflichtnahme sämtlicher privater Rundfunkveranstalter wird indes nicht vorgesehen. Anhand dieser Masterarbeit sollen weiterhin die Unterschiede herausgearbeitet werden, die einzelne nationale Rundfunksysteme aufweisen können und damit auch die rundfunkpolitischen Modelle trotz des gleich bleibenden Grundgedankens, hier des Dualismus. Die Modelle sind stets in ihrem spezifischen politischen und kulturellen Kontext zu sehen, woraus sie historisch gewachsen sind. Durch den Vergleich sollen auf der einen Seite die Probleme der Rundfunkmodelle dargelegt werden, die diesen unabhängig von ihrer Ausgestaltung in mehr oder minder ausgeprägter Form generell innewohnen (Definition der Grundversorgung - des Service public/ Ressourcenknappheit/ Krisen des dualen Systems). Andererseits sollen die spezifischen Probleme der Schweiz aufgrund ihrer mehrsprachigen, kleinstaatlichen Struktur verdeutlicht werden (Hoher Marktanteil an ausländischen, überwiegend deutschsprachigen Programmen an der Fernsehnutzung; Mehrsprachigkeit; Kleinräumigkeit von Zuschauer- und Zuhörermärkten sowie der Werbemärkte).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Seit Frühjahr 2004 wird der Crystal Ball-Detektor am Photonenstrahl des Mainzer Mikrotrons für Koinzidenzexperimente zur Untersuchung der Struktur der Nukleonen genutzt. Aufbau und Inbetriebnahme des Kalorimeters, insbesondere der neuen Detektorelektronik, bilden einen Schwerpunkt dieser Arbeit. Komponenten wurden neu konstruiert oder auf ihre Verwendbarkeit geprüft und nögenfalls modifiziert. Nach erfolgreichem Abschluss der Aufbauphase wurden Experimente zur Produktion von $pi$- und $eta$-Mesonen am Proton mit mehr als 2500 Stunden Strahlbetrieb durchgeführt. Den zweiten Schwerpunkt der Dissertation bildet die erstmalige Messung der Helizitätsasymmetrie I$^odot$ in der Photoproduktion zweier neutraler Pionen. Zum Verstädnis des Anregungsspektrums der Nukleonen müssen Experimente mit polarisierten Photonen und/oder polarisierten Targets durchgeführt werden. Da Modelle trotz unterschiedlicher Annahmen unpolarisiert gemessene Größen vergleichbar gut reproduzieren, ist die Bestimmung der auf Modellunterschiede empfindlichen Polarisationsobservablen unumgäglich. Im Gegensatz zur Einpionproduktion tritt in der Zweipionproduktion eine Einfachpolarisationsobservable auf, die mit zirkular polarisierten Photonen am unpolarisierten Proton gemessen werden kann. Diese wurde in der Reaktion $gamma$ p $rightarrow$ p $pi^0$ $pi^0$ und in $gamma$ p $rightarrow$ p $pi^+$ $pi^-$ energie- und winkelabhägig bestimmt. Die Ergebnisse weichen stark von den Modellvorhersagen ab.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Precision measurements of phenomena related to fermion mixing require the inclusion of higher order corrections in the calculation of corresponding theoretical predictions. For this, a complete renormalization scheme for models that allow for fermion mixing is highly required. The correct treatment of unstable particles makes this task difficult and yet, no satisfactory and general solution can be found in the literature. In the present work, we study the renormalization of the fermion Lagrange density with Dirac and Majorana particles in models that involve mixing. The first part of the thesis provides a general renormalization prescription for the Lagrangian, while the second one is an application to specific models. In a general framework, using the on-shell renormalization scheme, we identify the physical mass and the decay width of a fermion from its full propagator. The so-called wave function renormalization constants are determined such that the subtracted propagator is diagonal on-shell. As a consequence of absorptive parts in the self-energy, the constants that are supposed to renormalize the incoming fermion and the outgoing antifermion are different from the ones that should renormalize the outgoing fermion and the incoming antifermion and not related by hermiticity, as desired. Instead of defining field renormalization constants identical to the wave function renormalization ones, we differentiate the two by a set of finite constants. Using the additional freedom offered by this finite difference, we investigate the possibility of defining field renormalization constants related by hermiticity. We show that for Dirac fermions, unless the model has very special features, the hermiticity condition leads to ill-defined matrix elements due to self-energy corrections of external legs. In the case of Majorana fermions, the constraints for the model are less restrictive. Here one might have a better chance to define field renormalization constants related by hermiticity. After analysing the complete renormalized Lagrangian in a general theory including vector and scalar bosons with arbitrary renormalizable interactions, we consider two specific models: quark mixing in the electroweak Standard Model and mixing of Majorana neutrinos in the seesaw mechanism. A counter term for fermion mixing matrices can not be fixed by only taking into account self-energy corrections or fermion field renormalization constants. The presence of unstable particles in the theory can lead to a non-unitary renormalized mixing matrix or to a gauge parameter dependence in its counter term. Therefore, we propose to determine the mixing matrix counter term by fixing the complete correction terms for a physical process to experimental measurements. As an example, we calculate the decay rate of a top quark and of a heavy neutrino. We provide in each of the chosen models sample calculations that can be easily extended to other theories.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Palynologie und Sedimentologie der Interglazialprofile Döttingen, Bonstorf, Munster und Bilshausen Zusammenfassung In der vorliegenden Dissertation wurden vier dem Holstein-Interglazial zugehörige Bohrkerne sowie ein rhumezeitlicher Bohrkern palynologisch und sedimentologisch bearbeitet. Die holsteinzeitlichen Bohrkerne stammen aus Kieselgurlagerstätten der Lüneburger Heide (Bonstorf und Munster) und aus einem Trockenmaar (Döttingen) in der Eifel. Der rhumezeitliche Kern stammt aus der Typlokalität Bilshausen im Harzvorland. Neben Prozentwertdiagrammen werden Pollendichte- und wenn möglich Polleninfluxwerte vorgestellt, die insbesondere für die Lokalitäten Hetendorf/Bonstorf und Munster/Breloh bisher nicht verfügbar waren. Mit dem Profil Döttingen konnte erstmals eine sowohl vollständige als auch nicht innerhalb des klassischen Aufkommens holsteinzeitlicher Fundstellen im norddeutschen Tiefland positionierte Holsteinsequenz aus dem deutschen Mittelgebirge dokumentiert werden. Das erhaltene Pollendiagramm bestätigt die aus den norddeutschen Profilen bekannte holsteintypische Vegetationsabfolge, durch die das Holstein gegenüber anderen Interglazialen wie Holozän, Eem oder Rhume palynologisch definiert ist. Neben der grundsätzlichen Übereinstimmung der Pollensequenz unterscheidet sich das Profil Döttingen aber deutlich im prozentualen Aufkommen der beteiligten Taxa von den norddeutschen Profilen. So wird eine hohe Alnus-Präsenz als Merkmal deutscher Holsteinprofile bestätigt, jedoch ist die, in den norddeutschen Lokalitäten durchhaltend hohe oder dominante Beteiligung von Pinus im deutschen Mittelgebirge nicht vorhanden und muss daher auf die Standortbedingungen Norddeutschlands zurückgeführt werden. Abies dagegen ist im Holstein der Mittelgebirge wesentlich präsenter als im norddeutschen Flachland. Im Profil Döttingen wurden insgesamt 10 Tephralagen gefunden. Auf eine dieser Tephren folgt ein „Birken-Kiefern-Gräser Vorstoß“, der palynostratigraphisch dem älteren „Birken-Kiefern Vorstoß“ in Munster/Breloh entspricht. Als eine Typologie des Holstein kann das in den Profilen Döttingen und Munster bestätigte intraholsteinzeitliche Carpinus-Minimum verstanden werden. An Hand sedimentologischer und palynologischer Befunde aus dem Bohrkern MU 2 muss die Existenz zweier, in der Literatur postulierter, postholsteinzeitlicher, „Nachschwankungen“ in Munster/Breloh in Frage gestellt, wenn nicht abgelehnt werden. In Kern MU 2 fallen palynostratigraphische Grenzen häufig mit Sandeinschaltungen zusammen. Eine dieser Sandeinschaltungen, nämlich unmittelbar vor dem älteren „Birken-Kiefern-Vorstoß“, korreliert in ihrer stratigraphischen Position mit der den „Birken-Kiefern-Gräser-Vorstoß“ im Profil Döttingen einleitenden Tephralage. Es gelang die Dauer des intraholsteinzeitlichen Carpinus Minimums auf etwa 1500±100 Jahre zu bestimmen und eine interne Zweigliederung zu dokumentieren. Im rhumezeitlichen Kern von Bilshausen (BI 1) konnten zahlreiche Störungen nachgewiesen werden. Insbesondere im Teufenbereich des Bilshausener „Birken-Kiefern-Vorstoßes“ deuten diese auf eine möglicherweise verfälschte Überlieferung. Der palynologisch markante „Lindenfall“ von Bilshausen liegt im Bereich einer isoklinalen Schichtenverfaltung. Die in der Literatur im Horizont des „Lindenfalls“ beschriebene „Bilshausentephra“ wurde nicht gefunden. Warvenzählungen an den Kernen MU 1, MU 2 und BI 1 ermöglichten Pollenzonendauern in Holstein- und Rhume-Interglazial zu bestimmen. Dabei wurde mittels den Warvenzählungen, unter zu Hilfenahme von Literaturdaten und von Schätzwerten eine Dauer für das Holstein-Interglazial sensu stricto (Pollenzonen I-XIV) von 15400-17800 Jahren und für das Rhume-Interglazial von wahrscheinlich 22000 Jahren bis maximal 26000 Jahren ermittelt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Eine aktuelle Ausprägung der Veranstaltungslandschaft sind die so genannten Motto-Events, die die Inszenierung einer Anderswelt-Konstruktion einsetzen, um emotionale und kommunikatorische Ziele zu erreichen. Dabei werden themengebundene Entwürfe räumlich und inhaltlich in die lebensweltliche Wirklichkeit transportiert und auf diese Weise eine dynamische und integrative Scheinwelt erschaffen. In dieser konstruierten Welt können schließlich Abenteuer erlebt und heroische Taten begangen werden. Durch die reziproke Beeinflussung von Inszenierung und Handlung befinden sich die Akteure außerhalb der gesellschaftlichen Norm, sie erleben innerhalb der "gated community" der Motto-Veranstaltung eine re-definierte Wirklichkeit. Aus einer Kombination von aktiven und passiven Elementen werden homogene Klischees inszeniert, die durch ihren Bekanntheitsgrad eine hohe Anschlussfähigkeit der Teilnehmer garantieren. Die vorliegende Arbeit beschäftigt sich mit den Mechanismen, die diese re-definierte Wirklichkeit in Szene setzen. Dadurch wird es möglich, in einer zusammenfassenden Betrachtung die Rezeption verschiedener Event-Modelle zu beschreiben und Handlungsempfehlungen zu geben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the present thesis, the geochemistry, petrology and geochronology of ophiolite complexes from central northern Greece were studied in detail in order to gain insights on the petrogenetic pathways and geodynamic processes that lead to their formation and evolution. The major- and trace-element content of minerals and whole rocks from all four ophiolite complexes was determined using high-precision analytical equipment. These results were then coupled with Nd and Sr isotopic measurements. In order to precisely place the evolution of these ophiolites in time, U-Pb geochronology on zircons was conducted using a SHRIMP-II. The data obtained suggest that the ophiolites studied invariably show typical characteristics of subduction-zone magmatism (e.g. negative Nb anomalies, Th enrichment). In N-MORB-normalised multielement profiles the high field-strength elements display patterns that vary from depleted to N-MORB-like. Chondrite-normalised rare-earth element (REE) profiles show flat heavy-REE patterns suggesting a shallow regime of source melting for all the ophiolites, well within the stability field of spinel lherzolite. The majority of the samples have light-REE depleted patterns. 87Sr/86Sr isotopic ratios range from 0.703184 to 0.715853 and are in cases influenced by alteration. The εNd values are positive (the majority of the mafic samples is typically 7.1-3.1) but lower than N-MORB and depleted mantle. With the exception of the Thessaloniki ophiolite that has uniform island-arc tholeiitic chemical characteristics, the rest of the ophiolites show dual chemistry consisting of rocks with minor subduction-zone characteristics that resemble chemically back-arc basin basalts (BABB) and rocks with more pronounced subduction-zone characteristics. Tectonomagmatic discrimination schemes classify the samples as island-arc tholeiites and back-arc basin basalts or N-MORB. Melting modelling carried out to evaluate source properties and degree of melting verifies the dual nature of the ophiolites. The samples that resemble back-arc basin basalts require very small degrees of melting (<10%) of fertile sources, whereas the rest of the samples require higher degrees (25-15%) of melting. As deduced from the present geochemical and petrological investigation, the ophiolites from Guevguely, Oraeokastro, Thessaloniki, and Chalkidiki represent relics of supra-subduction zone crust that formed in succeeding stages of island-arc rifting and back-arc spreading as well as in a fore arc setting. The geochronological results have provided precise determination of the timing of formation of these complexes. The age of the Guevguely ophiolite has been determined as 167±1.2 Ma, that of Thessaloniki as 169±1.4 Ma, that of Kassandra as 167±2.2 Ma and that of Sithonia as 160±1.2 Ma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden Quantum-Hydrodynamische (QHD) Modelle betrachtet, die ihren Einsatz besonders in der Modellierung von Halbleiterbauteilen finden. Das QHD Modell besteht aus den Erhaltungsgleichungen für die Teilchendichte, das Momentum und die Energiedichte, inklusive der Quanten-Korrekturen durch das Bohmsche Potential. Zu Beginn wird eine Übersicht über die bekannten Ergebnisse der QHD Modelle unter Vernachlässigung von Kollisionseffekten gegeben, die aus ein­em Schrödinger-System für den gemischten-Zustand oder aus der Wigner-Glei­chung hergeleitet werden können. Nach der Reformulierung der eindimensionalen QHD Gleichungen mit linearem Potential als stationäre Schrö­din­ger-Gleichung werden die semianalytischen Fassungen der QHD Gleichungen für die Gleichspannungs-Kurve betrachtet. Weiterhin werden die viskosen Stabilisierungen des QHD Modells be­rück­sich­tigt, sowie die von Gardner vorgeschlagene numerische Viskosität für das {sf upwind} Finite-Differenzen Schema berechnet. Im Weiteren wird das viskose QHD Modell aus der Wigner-Glei­chung mit Fokker-Planck Kollisions-Ope­ra­tor hergeleitet. Dieses Modell enthält die physikalische Viskosität, die durch den Kollision-Operator eingeführt wird. Die Existenz der Lösungen (mit strikt positiver Teilchendichte) für das isotherme, stationäre, eindimensionale, viskose Modell für allgemeine Daten und nichthomogene Randbedingungen wird gezeigt. Die dafür notwendigen Abschätzungen hängen von der Viskosität ab und erlauben daher den Grenzübergang zum nicht-viskosen Fall nicht. Numerische Simulationen der Resonanz-Tunneldiode modelliert mit dem nichtisothermen, stationären, eindimensionalen, viskosen QHD Modell zeigen den Einfluss der Viskosität auf die Lösung. Unter Verwendung des von Degond und Ringhofer entwickelten Quanten-Entropie-Minimierungs-Verfahren werden die allgemeinen QHD-Gleichungen aus der Wigner-Boltzmann-Gleichung mit dem BGK-Kollisions-Operator hergeleitet. Die Herleitung basiert auf der vorsichtige Entwicklung des Quanten-Max­well­ians in Potenzen der skalierten Plankschen Konstante. Das so erhaltene Modell enthält auch vertex-Terme und dispersive Terme für die Ge­schwin­dig­keit. Dadurch bleibt die Gleichspannungs-Kurve für die Re­so­nanz-Tunnel­diode unter Verwendung des allgemeinen QHD Modells in einer Dimension numerisch erhalten. Die Ergebnisse zeigen, dass der dispersive Ge­schwin­dig­keits-Term die Lösung des Systems stabilisiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Seit der Entdeckung des Golgi-Apparates im Jahre 1898 wurden seine Struktur, seine enzymatische Zusammensetzung und die Dynamik des in ihm stattfindenden Proteintransports intensiv untersucht. Dennoch blieben bis heute wesentliche Fragen zu seiner Funktionsweise unbeantwortet. So existieren nach wie vor mehrer konkurrierende Modelle zur Organisation der hoch komplexen räumlichen Verteilung seiner Enzyme sowie zum grundlegenden Mechanismus des Intra-Golgi Transports. Die Beantwortung dieser und weiterer Fragen ist für das Verständnis des Golgi-Apparates essentiell, aber aus methodischen Gründen höchst schwierig, da es bisher nicht möglich war die Struktur und Dynamik des Golgi-Apparates lebender Zellen mit der hierfür notwendigen Auflösung und Geschwindigkeit zu untersuchen. Bis heute gibt es für die funktionsmorphologischen Untersuchungen des Golgi-Apparates lebender Zellen keine echte Alternative zur Fernfeld- Fluoreszenzmikroskopie. Das MMM-4Pi-Mikroskop ermöglicht als erstes Fluoreszenzmikroskop, aufgrund seiner Auflösung von ~200 nm in der Fokalebene und 100-150 nm entlang der optischen Achse, die Untersuchung der Subkompartimente des Golgi-Apparates und kann, aufgrund seiner hohen Aufnahmegeschwindigkeit von 0.5 Hz, die Dynamik des Intra-Golgi Transports zeitlich auflösen. Ziel dieser Arbeit war es daher, den Golgi-Apparate lebender Zellen in zwei Farben sowie mit einer bisher nicht möglichen räumlichen und zeitlichen Auflösung zu untersuchen. Um die Leistungsfähigkeit der dreidimensionalen Bildgebung dieser Methode zu überprüfen, wurde erstmals der Golgi-Apparat fixierter Säugerzellen korrelativ mit dem Transmissionselektronenmikroskop und dem MMM-4Pi-Mikroskop aufgenommen. Die rekonstruierten Strukturen korrelierten in allen drei Raumrichtungen zu über 80%, was die Validität beider Methoden eindrucksvoll unter Beweis stellt. Zudem konnten mit dem MMM-4Pi-Mikroskop Aussackungen von Golgi-Cisternen aufgelöst werden, was die Eignung dieser Methode zur strukturellen Analyse der Subkompartimente des Golgi-Apparates unterstreicht. Des Weiteren wurde, in einer Reihe zweifarbiger Aufnahmeserien, die Verteilung dreier Golgi-Enzyme in lebenden Säugerzellen untersucht, und ihre mittlere relative Distanz bestimmt. Ihre aus der Literatur bekannten Lokalisationen konnten in zwei Fällen bestätigt (GalT, MannII) und in einem Fall korrigiert werden (2-OST). Im Gegensatz zu der konfokal bestimmten Cis-/Mid-Lokalisation von 2-OST zeigen die Ergebnisse der hoch aufgelösten Distanzanalyse deutlich, dass eine Mid-/Trans-Lokalisation vorliegt. Dieses Ergebnis wurde elektronenmikroskopisch überprüft und bestätigt. Da die räumliche Anordnung der Golgi-Enzyme die Reihenfolge ihrer Akitvität wiederspiegelt, ist eine möglichst präzise Bestimmung ihrer Konzentrationsverteilungen essentiell, um die Funktion des Golgi-Apparates zu verstehen. Insbesondere zeigt dieses Resultat, dass die Bestimmung der Lokalisation von Golgi-Enzymen über konfokale Kolokalisationsstudien zu falschen Ergebnissen führen kann. Die Kombination hoher räumlicher Auflösung mit einer schnellen Datenaufnahme erlaubte die Analyse der Transportdynamik innerhalb des Golgi-Apparates von Säugerzellen. In mehreren Zeitserien zweifarbiger Aufnahmen wurde der Transport des Frachtproteins VSVG relativ zum Trans-Golgi-Marker GalT untersucht. Dabei zeigte sich, dass das Trans-Golgi-Kompartiment in einigen Fällen durch eine deutliche Formänderung auf die Ankunft eines VSVG-Transportpulses reagierte und sich insgesamt wesentlich dynamischer verhielt als der Transportpuls selbst. Diese Beobachtung bestätigt tendenziell Transportmodelle, die den Golgi-Apparat nicht als statisches, sondern als dynamisches, aktiv am Transport beteiligtes Organell beschreiben. Die hier vorgestellten Experimente stellen die ersten Untersuchungen zur Verteilung von Golgi-Enzymen sowie zur Transportdynamik des Golgi-Apparates lebender Zellen mit einer dreidimensionalen Auflösung im Bereich von 100-200 nm dar. Wie am Beispiel von 2 OST gezeigt, ist es mit dem MMM-4Pi-Mikroskop allgemein möglich, die Lokalisation von Golgi-Enzymen wesentlich präziser als bisher zu bestimmen. Bei der Untersuchung dynamischer Prozesse ist in naher Zukunft eine Steigerung der Leistungsfähigkeit der Methode zu erwarten. Zum einen werden CCD-Kameras mit kürzeren Auslesezeiten und einer elektronischen Verstärkung des Signals die Datenaufnahme weiter beschleunigen. Zum anderen könnte durch die Entwicklung eines parallelisierten Mikroskops mit Einphotonen-Anregung das Bleichen konsekutiver Aufnahmen verringert werden, wodurch längere Aufnahmeserien möglich sein werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chimäre Archonta? Vergleichend-morphologische Studien zur Hyolaryngealregion. Mit Brevia zur Dental- und Tarsalmorphologie. Die Dissertation greift aus phylogenetisch-systematischer Perspektive das Problem des Primatenursprungs auf. Traditionell wurde die Überordnung Archonta (= Primates + Scandentia + Dermoptera + Chiroptera) angenommen, die aufgrund molekularer Befunde nicht mehr als valide eingestuft wird. Eine Klassifikation anhand der Superordo Euarchontoglires (= Primates + Scandentia + Dermoptera + Glires) wird derzeit bevorzugt. Beide Verwandtschaftshypothesen werden in den taxonomischen Analysen berücksichtigt, um den potentiellen Einfluss der Außengruppenwahl auf die Konstellation der Euarchonta (= Primates + Dermoptera + Scandentia) zu bestimmen. Der Schwerpunkt der Untersuchung liegt in der 3D-Rekonstruktion ontogenetischer Stadien der Hyolaryngealregion diverser Spezies der Ordnungen Artiodactyla, Chiroptera, Dermoptera, Primates, Rodentia, Scandentia und Soricomorpha. Mit AMIRA® 3.1.1 konnten basierend auf histologischen Schnittserien 18 dreidimensionale Modelle der überwiegend spätfetalen Zungenbein- und Kehlkopfregion dargestellt werden. Durch das Studium der Knorpelmorphologie und der Larynx-Myologie wurden 150 Merkmale definiert und in eine MacClade®-Datenmatrix überführt. Die auf dem Parsimonie-Prinzip basierenden PAUP®-Analysen sprechen für eine Schwestergruppenbeziehung der Primates und der Dermoptera (= Primatomorpha). Die als Chimäre titulierte Überordnung Archonta wurde als Vehikel verwendet, um die Integration der Chiropteren zu ermöglichen und die Hyolaryngealforschung zu intensivieren, da auch Echolot-Peilung verwendende Taxa Bestandteil der Untersuchung waren. Die morphologischen Ähnlichkeiten des Zungenbein- und Kehlkopfapparates zwischen der basalen Form Rousettus (Pteropodidae) und dem Dermoptera-Vertreter Cynocephalus wurden als symplesiomorphe Merkmale gedeutet. Bei der Außengruppenwahl eines Rodentia-Repräsentanten hingegen konnte in Übereinstimmung mit den molekularen Befunden und nach dem Gros der Lehrmeinung die Schwestergruppenbeziehung der Primates und der Sundatheria bestätigt werden. Zwecks eines umfassenderen Ansatzes wurden im Rahmen einer „total evidence“-Methodik dental- und tarsalmorphologische Merkmale integriert. Das Resultat der Clusteranalyse, basierend auf 263 Merkmalen, modifiziert das Zwischenergebnis und befürwortet in Übereinstimmung mit molekularen Daten als Schwestergruppe der Primaten das Taxon Sundatheria (= Dermoptera + Scandentia). Damit konnte erstmals mittels eines konsequenten phylogenetisch-systematischen Ansatzes der Primaten-Grundplan hinsichtlich der Merkmalsausstattung der Hyolaryngealregion mit 27 Merkmalen rekonstruiert werden. Der Primatenursprung kann mit dem Euarchonta-Grundplan rekonstruiert werden. Für die Sundatheria wurden 12 Grundplanmerkmale definiert

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary PhD Thesis Jan Pollmann: This thesis focuses on global scale measurements of light reactive non-methane hydrocarbon (NMHC), in the volatility range from ethane to toluene with a special focus on ethane, propane, isobutane, butane, isopentane and pentane. Even though they only occur at the ppt level (nmol mol-1) in the remote troposphere these species can yield insight into key atmospheric processes. An analytical method was developed and subsequently evaluated to analyze NMHC from the NOAA – ERSL cooperative air sampling network. Potential analytical interferences through other atmospheric trace gases (water vapor and ozone) were carefully examined. The analytical parameters accuracy and precision were analyzed in detail. It was proven that more than 90% of the data points meet the Global Atmospheric Watch (GAW) data quality objective. Trace gas measurements from 28 measurement stations were used to derive the global atmospheric distribution profile for 4 NMHC (ethane, propane, isobutane, butane). A close comparison of the derived ethane data with previously published reports showed that northern hemispheric ethane background mixing ratio declined by approximately 30% since 1990. No such change was observed for southern hemispheric ethane. The NMHC data and trace gas data supplied by NOAA ESRL were used to estimate local diurnal averaged hydroxyl radical (OH) mixing ratios by variability analysis. Comparison of the variability derived OH with directly measured OH and modeled OH mixing ratios were found in good agreement outside the tropics. Tropical OH was on average two times higher than predicted by the model. Variability analysis was used to assess the effect of chlorine radicals on atmospheric oxidation chemistry. It was found that Cl is probably not of significant relevance on a global scale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vor dem Hintergrund sich wandelnder (medialer) Lebenswelten von Schülerinnen und Schülern gewinnen Bestimmungsversuche um medienpädagogische Handlungskompetenzen von Lehrpersonen an Bedeutung. Der Erwerb medienpädagogischer Kompetenz, verstanden als dynamisches Zusammenspiel von domänenspezifischem Wissen und anwendungsorientiertem Können, wird in der vorliegenden Arbeit als wesentliches Lernziel der medienpädagogischen (Aus-)Bildung bestimmt. Als ein Weg zur Förderung medienpädagogischer Handlungskompetenz wird von der Autorin auf der Folie konstruktivistischer Vorstellungen über das Lehren und Lernen die Methode der Problemorientierung vorgeschlagen. Im ersten Teil der Arbeit werden Modelle und Konzepte diskutiert, die Bausteine für ein Modell medienpädagogischer Kompetenz liefern. Im zweiten Teil wird eine empirische Untersuchung zum Erwerb medienpädagogischer Handlungskompetenz auf der Basis eines von der Autorin erarbeiteten Modells vorgestellt und die Ergebnisse diskutiert. Eine kompetenztheoretische Annäherung erfolgt auf der Basis zweier Konzepte. Dies sind die Ausführungen zu einem Konzept kommunikativer Kompetenz nach Jürgen Habermas sowie dessen Überführung in die Medienpädagogik durch Dieter Baacke. Ferner wird die rezente bildungspolitische Kompetenzdebatte in Anbindung an Franz E. Weinert analysiert. Es folgt eine Zusammenschau über die methodischen Konzepte zur Erfassung von Kompetenzen in der Erziehungswissenschaft und deren Anwendbarkeit für die medienpädagogische Kompetenzforschung. Die gegenwärtig vorliegenden Entwürfe zu einer inhaltlichen Bestimmung medienpädagogischer Kompetenzen werden besprochen (Sigrid Blömeke, Werner Sesink, International Society for Technology in Education). Im Rekurs auf konstruktivistische lerntheoretische Überlegungen erfährt das problemorientierte Lernen beim Aufbau von Kompetenzen eine enorme Aufwertung. In der Arbeit wird insbesondere den Arbeiten von David Jonassen zu einer konstruktivistisch-instruktionistischen Herangehensweise bei der Gestaltung problemorientierter Lernumgebungen eine große Bedeutung zugesprochen (vgl. auch Ansätze des Goal-based Scenarios/Roger Schank und des Learning by Design/Janet Kolodner). Im zweiten Teil wird die Interventionsstudie im Kontrollgruppendesign vorgestellt. Anhand eines Modells medienpädagogischer Kompetenz, dass auf den Dimensionen Wissen einerseits und Können andererseits basiert, wurden Studierende (n=59) in einem Pre-Posttestverfahren auf diese Dimensionen getestet. Die Studierenden der Interventionsgruppe (n=30) arbeiteten über ein Semester mit einer problemorientierten Lernanwendung, die Studierenden der Kontrollgruppe (n=29) in einem klassischen Seminarsetting. Hauptergebnis der Untersuchung ist es, das die Intervention zu einem messbaren Lernerfolg beim medienpädagogischen Können führte. In der Diskussion der Ergebnisse werden Empfehlungen zur Gestaltung problemorientierter Lernumgebungen formuliert. Die Chancen einer Orientierung an problemorientierten Lernsettings für das Lernen an Hochschulen werden herausgestellt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Verifikation numerischer Modelle ist für die Verbesserung der Quantitativen Niederschlagsvorhersage (QNV) unverzichtbar. Ziel der vorliegenden Arbeit ist die Entwicklung von neuen Methoden zur Verifikation der Niederschlagsvorhersagen aus dem regionalen Modell der MeteoSchweiz (COSMO-aLMo) und des Globalmodells des Europäischen Zentrums für Mittelfristvorhersage (engl.: ECMWF). Zu diesem Zweck wurde ein neuartiger Beobachtungsdatensatz für Deutschland mit stündlicher Auflösung erzeugt und angewandt. Für die Bewertung der Modellvorhersagen wurde das neue Qualitätsmaß „SAL“ entwickelt. Der neuartige, zeitlich und räumlich hoch-aufgelöste Beobachtungsdatensatz für Deutschland wird mit der während MAP (engl.: Mesoscale Alpine Program) entwickelten Disaggregierungsmethode erstellt. Die Idee dabei ist, die zeitlich hohe Auflösung der Radardaten (stündlich) mit der Genauigkeit der Niederschlagsmenge aus Stationsmessungen (im Rahmen der Messfehler) zu kombinieren. Dieser disaggregierte Datensatz bietet neue Möglichkeiten für die quantitative Verifikation der Niederschlagsvorhersage. Erstmalig wurde eine flächendeckende Analyse des Tagesgangs des Niederschlags durchgeführt. Dabei zeigte sich, dass im Winter kein Tagesgang existiert und dies vom COSMO-aLMo gut wiedergegeben wird. Im Sommer dagegen findet sich sowohl im disaggregierten Datensatz als auch im COSMO-aLMo ein deutlicher Tagesgang, wobei der maximale Niederschlag im COSMO-aLMo zu früh zwischen 11-14 UTC im Vergleich zu 15-20 UTC in den Beobachtungen einsetzt und deutlich um das 1.5-fache überschätzt wird. Ein neues Qualitätsmaß wurde entwickelt, da herkömmliche, gitterpunkt-basierte Fehlermaße nicht mehr der Modellentwicklung Rechnung tragen. SAL besteht aus drei unabhängigen Komponenten und basiert auf der Identifikation von Niederschlagsobjekten (schwellwertabhängig) innerhalb eines Gebietes (z.B. eines Flusseinzugsgebietes). Berechnet werden Unterschiede der Niederschlagsfelder zwischen Modell und Beobachtungen hinsichtlich Struktur (S), Amplitude (A) und Ort (L) im Gebiet. SAL wurde anhand idealisierter und realer Beispiele ausführlich getestet. SAL erkennt und bestätigt bekannte Modelldefizite wie das Tagesgang-Problem oder die Simulation zu vieler relativ schwacher Niederschlagsereignisse. Es bietet zusätzlichen Einblick in die Charakteristiken der Fehler, z.B. ob es sich mehr um Fehler in der Amplitude, der Verschiebung eines Niederschlagsfeldes oder der Struktur (z.B. stratiform oder kleinskalig konvektiv) handelt. Mit SAL wurden Tages- und Stundensummen des COSMO-aLMo und des ECMWF-Modells verifiziert. SAL zeigt im statistischen Sinne speziell für stärkere (und damit für die Gesellschaft relevante Niederschlagsereignisse) eine im Vergleich zu schwachen Niederschlägen gute Qualität der Vorhersagen des COSMO-aLMo. Im Vergleich der beiden Modelle konnte gezeigt werden, dass im Globalmodell flächigere Niederschläge und damit größere Objekte vorhergesagt werden. Das COSMO-aLMo zeigt deutlich realistischere Niederschlagsstrukturen. Diese Tatsache ist aufgrund der Auflösung der Modelle nicht überraschend, konnte allerdings nicht mit herkömmlichen Fehlermaßen gezeigt werden. Die im Rahmen dieser Arbeit entwickelten Methoden sind sehr nützlich für die Verifikation der QNV zeitlich und räumlich hoch-aufgelöster Modelle. Die Verwendung des disaggregierten Datensatzes aus Beobachtungen sowie SAL als Qualitätsmaß liefern neue Einblicke in die QNV und lassen angemessenere Aussagen über die Qualität von Niederschlagsvorhersagen zu. Zukünftige Anwendungsmöglichkeiten für SAL gibt es hinsichtlich der Verifikation der neuen Generation von numerischen Wettervorhersagemodellen, die den Lebenszyklus hochreichender konvektiver Zellen explizit simulieren.