69 resultados para Einheitliche Beschreibung der Dialekte uralischer Sprachen
Resumo:
In dieser Arbeit geht es um die Schätzung von Parametern in zeitdiskreten ergodischen Markov-Prozessen im allgemeinen und im CIR-Modell im besonderen. Beim CIR-Modell handelt es sich um eine stochastische Differentialgleichung, die von Cox, Ingersoll und Ross (1985) zur Beschreibung der Dynamik von Zinsraten vorgeschlagen wurde. Problemstellung ist die Schätzung der Parameter des Drift- und des Diffusionskoeffizienten aufgrund von äquidistanten diskreten Beobachtungen des CIR-Prozesses. Nach einer kurzen Einführung in das CIR-Modell verwenden wir die insbesondere von Bibby und Sørensen untersuchte Methode der Martingal-Schätzfunktionen und -Schätzgleichungen, um das Problem der Parameterschätzung in ergodischen Markov-Prozessen zunächst ganz allgemein zu untersuchen. Im Anschluss an Untersuchungen von Sørensen (1999) werden hinreichende Bedingungen (im Sinne von Regularitätsvoraussetzungen an die Schätzfunktion) für die Existenz, starke Konsistenz und asymptotische Normalität von Lösungen einer Martingal-Schätzgleichung angegeben. Angewandt auf den Spezialfall der Likelihood-Schätzung stellen diese Bedingungen zugleich lokal-asymptotische Normalität des Modells sicher. Ferner wird ein einfaches Kriterium für Godambe-Heyde-Optimalität von Schätzfunktionen angegeben und skizziert, wie dies in wichtigen Spezialfällen zur expliziten Konstruktion optimaler Schätzfunktionen verwendet werden kann. Die allgemeinen Resultate werden anschließend auf das diskretisierte CIR-Modell angewendet. Wir analysieren einige von Overbeck und Rydén (1997) vorgeschlagene Schätzer für den Drift- und den Diffusionskoeffizienten, welche als Lösungen quadratischer Martingal-Schätzfunktionen definiert sind, und berechnen das optimale Element in dieser Klasse. Abschließend verallgemeinern wir Ergebnisse von Overbeck und Rydén (1997), indem wir die Existenz einer stark konsistenten und asymptotisch normalen Lösung der Likelihood-Gleichung zeigen und lokal-asymptotische Normalität für das CIR-Modell ohne Einschränkungen an den Parameterraum beweisen.
Resumo:
Es gibt kaum eine präzisere Beschreibung der Natur als die durch das Standardmodell der Elementarteilchen (SM). Es ist in der Lage bis auf wenige Ausnahmen, die Physik der Materie- und Austauschfelder zu beschreiben. Dennoch ist man interessiert an einer umfassenderen Theorie, die beispielsweise auch die Gravitation mit einbezieht, Neutrinooszillationen beschreibt, und die darüber hinaus auch weitere offene Fragen klärt. Um dieser Theorie ein Stück näher zu kommen, befasst sich die vorliegende Arbeit mit einem effektiven Potenzreihenansatz zur Beschreibung der Physik des Standardmodells und neuer Phänomene. Mit Hilfe eines Massenparameters und einem Satz neuer Kopplungskonstanten wird die Neue Physik parametrisiert. In niedrigster Ordnung erhält man das bekannte SM, Terme höherer Ordnung in der Kopplungskonstanten beschreiben die Effekte jenseits des SMs. Aus gewissen Symmetrie-Anforderungen heraus ergibt sich eine definierte Anzahl von effektiven Operatoren mit Massendimension sechs, die den hier vorgestellten Rechnungen zugrunde liegen. Wir berechnen zunächst für eine bestimmte Auswahl von Prozessen zugehörige Zerfallsbreiten bzw. Wirkungsquerschnitte in einem Modell, welches das SM um einen einzigen neuen effektiven Operator erweitertet. Unter der Annahme, dass der zusätzliche Beitrag zur Observablen innerhalb des experimentellen Messfehlers ist, geben wir anhand von vorliegenden experimentellen Ergebnissen aus leptonischen und semileptonischen Präzisionsmessungen Ausschlussgrenzen der neuen Kopplungen in Abhängigkeit von dem Massenparameter an. Die hier angeführten Resultate versetzen Physiker zum Einen in die Lage zu beurteilen, bei welchen gemessenen Observablen eine Erhöhung der Präzision sinnvoll ist, um bessere Ausschlussgrenzen angeben zu können. Zum anderen erhält man einen Anhaltspunkt, welche Prozesse im Hinblick auf Entdeckungen Neuer Physik interessant sind.
Resumo:
In the present study, the quaternary structures of Drosophila melanogaster hexamerin LSP-2 and Limulus polyphemus hemocyanin, both proteins from the hemocyanin superfamily, were elucidated to a 10 Å resolution with the technique of cryo-EM 3D-reconstruction. Furthermore, molecular modelling and rigid-body fitting allowed a detailed insight into the cryo-EM structures at atomic level. The results are summarised as follows: Hexamerin 1. The cryo-EM structure of Drosophila melanogaster hexamerin LSP-2 is the first quaternary structure of a protein from the group of the insect storage proteins. 2. The hexamerin LSP-2 is a hexamer of six bean-shaped subunits that occupy the corners of a trigonal antiprism, yielding a D3 (32) point-group symmetry. 3. Molecular modelling and rigid-body fitting of the hexamerin LSP-2 sequence showed a significant correlation between amino acid inserts in the primary structure and additional masses of the cryo-EM structure that are not present in the published quaternary structures of chelicerate and crustacean hemocyanins. 4. The cryo-EM structure of Drosophila melanogaster hexamerin LSP-2 confirms that the arthropod hexameric structure is applicable to insect storage proteins. Hemocyanin 1. The cryo-EM structure of the 8×6mer Limulus polyphemus hemocyanin is the highest resolved quaternary structure of an oligo-hexameric arthropod hemocyanin so far. 2. The hemocyanin is build of 48 bean-shaped subunits which are arranged in eight hexamers, yielding an 8×6mer with a D2 (222) point-group symmetry. The 'basic building blocks' are four 2×6mers that form two 4×6mers in an anti-parallel manner, latter aggregate 'face-to-face' to the 8×6mer. 3. The morphology of the 8×6mer was gauged and described very precisely on the basis of the cryo-EM structure. 4. Based on earlier topology studies of the eight different subunit types of Limulus polyphemus hemocyanin, eleven types of interhexamer interfaces have been identified that in the native 8×6mer sum up to 46 inter-hexamer bridges - 24 within the four 2×6mers, 10 to establish the two 4×6mers, and 12 to assemble the two 4×6mers into an 8×6mer. 5. Molecular modelling and rigid-body fitting of Limulus polyphemus and orthologous Erypelma californicum sequences allowed to assign very few amino acids to each of these interfaces. These amino acids now serve as candidates for the chemical bonds between the eight hexamers. 6. Most of the inter-hexamer contacts are conspicuously histidine-rich and evince constellations of amino acids that could constitute the basis for the allosteric interactions between the hexamers. 7. The cryo-EM structure of Limulus polyphemus hemocyanin opens the door to a fundamental understanding of the function of this highly cooperative protein.
Resumo:
The present thesis is concerned with certain aspects of differential and pseudodifferential operators on infinite dimensional spaces. We aim to generalize classical operator theoretical concepts of pseudodifferential operators on finite dimensional spaces to the infinite dimensional case. At first we summarize some facts about the canonical Gaussian measures on infinite dimensional Hilbert space riggings. Considering the naturally unitary group actions in $L^2(H_-,gamma)$ given by weighted shifts and multiplication with $e^{iSkp{t}{cdot}_0}$ we obtain an unitary equivalence $F$ between them. In this sense $F$ can be considered as an abstract Fourier transform. We show that $F$ coincides with the Fourier-Wiener transform. Using the Fourier-Wiener transform we define pseudodifferential operators in Weyl- and Kohn-Nirenberg form on our Hilbert space rigging. In the case of this Gaussian measure $gamma$ we discuss several possible Laplacians, at first the Ornstein-Uhlenbeck operator and then pseudo-differential operators with negative definite symbol. In the second case, these operators are generators of $L^2_gamma$-sub-Markovian semi-groups and $L^2_gamma$-Dirichlet-forms. In 1992 Gramsch, Ueberberg and Wagner described a construction of generalized Hörmander classes by commutator methods. Following this concept and the classical finite dimensional description of $Psi_{ro,delta}^0$ ($0leqdeltaleqroleq 1$, $delta< 1$) in the $C^*$-algebra $L(L^2)$ by Beals and Cordes we construct in both cases generalized Hörmander classes, which are $Psi^*$-algebras. These classes act on a scale of Sobolev spaces, generated by our Laplacian. In the case of the Ornstein-Uhlenbeck operator, we prove that a large class of continuous pseudodifferential operators considered by Albeverio and Dalecky in 1998 is contained in our generalized Hörmander class. Furthermore, in the case of a Laplacian with negative definite symbol, we develop a symbolic calculus for our operators. We show some Fredholm-criteria for them and prove that these Fredholm-operators are hypoelliptic. Moreover, in the finite dimensional case, using the Gaussian-measure instead of the Lebesgue-measure the index of these Fredholm operators is still given by Fedosov's formula. Considering an infinite dimensional Heisenberg group rigging we discuss the connection of some representations of the Heisenberg group to pseudo-differential operators on infinite dimensional spaces. We use this connections to calculate the spectrum of pseudodifferential operators and to construct generalized Hörmander classes given by smooth elements which are spectrally invariant in $L^2(H_-,gamma)$. Finally, given a topological space $X$ with Borel measure $mu$, a locally compact group $G$ and a representation $B$ of $G$ in the group of all homeomorphisms of $X$, we construct a Borel measure $mu_s$ on $X$ which is invariant under $B(G)$.
Resumo:
In dieser Arbeit wurde die elektromagnetische Pionproduktion unter der Annahme der Isospinsymmetrie der starken Wechselwirkung im Rahmen der manifest Lorentz-invarianten chiralen Störungstheorie in einer Einschleifenrechnung bis zur Ordnung vier untersucht. Dazu wurden auf der Grundlage des Mathematica-Pakets FeynCalc Algorithmen zur Berechnung der Pionproduktionsamplitude entwickelt. Bis einschließlich der Ordnung vier tragen insgesamt 105 Feynmandiagramme bei, die sich in 20 Baumdiagramme und 85 Schleifendiagramme unterteilen lassen. Von den 20 Baumdiagrammen wiederum sind 16 als Polterme und vier als Kontaktgraphen zu klassifizieren; bei den Schleifendiagrammen tragen 50 Diagramme ab der dritten Ordnung und 35 Diagramme ab der vierten Ordnung bei. In der Einphotonaustauschnäherung lässt sich die Pionproduktionsamplitude als ein Produkt des Polarisationsvektors des (virtuellen) Photons und des Übergangsstrommatrixelements parametrisieren, wobei letzteres alle Abhängigkeiten der starken Wechselwirkung beinhaltet und wo somit die chirale Störungstheorie ihren Eingang findet. Der Polarisationsvektor hingegen hängt von dem leptonischen Vertex und dem Photonpropagator ab und ist aus der QED bekannt. Weiterhin lässt sich das Übergangsstrommatrixelement in sechs eichinvariante Amplituden zerlegen, die sich im Rahmen der Isospinsymmetrie jeweils wiederum in drei Isospinamplituden zerlegen lassen. Linearkombinationen dieser Isospinamplituden erlauben letztlich die Beschreibung der physikalischen Amplituden. Die in dieser Rechnung auftretenden Einschleifenintegrale wurden numerisch mittels des Programms LoopTools berechnet. Im Fall tensorieller Integrale erfolgte zunächst eine Zerlegung gemäß der Methode von Passarino und Veltman. Da die somit erhaltenen Ergebnisse jedoch i.a. noch nicht das chirale Zählschema erfüllen, wurde die entsprechende Renormierung mittels der reformulierten Infrarotregularisierung vorgenommen. Zu diesem Zweck wurde ein Verfahren entwickelt, welches die Abzugsterme automatisiert bestimmt. Die schließlich erhaltenen Isospinamplituden wurden in das Programm MAID eingebaut. In diesem Programm wurden als Test (Ergebnisse bis Ordnung drei) die s-Wellenmultipole E_{0+} und L_{0+} in der Schwellenregion berechnet. Die Ergebnisse wurden sowohl mit Messdaten als auch mit den Resultaten des "klassischen" MAID verglichen, wobei sich i. a. gute Übereinstimmungen im Rahmen der Fehler ergaben.
Resumo:
In den letzten drei Jahrzehnten sind Fernerkundung und GIS in den Geowissenschaften zunehmend wichtiger geworden, um die konventionellen Methoden von Datensammlung und zur Herstellung von Landkarten zu verbessern. Die vorliegende Arbeit befasst sich mit der Anwendung von Fernerkundung und geographischen Informationssystemen (GIS) für geomorphologische Untersuchungen. Durch die Kombination beider Techniken ist es vor allem möglich geworden, geomorphologische Formen im Überblick und dennoch detailliert zu erfassen. Als Grundlagen werden in dieser Arbeit topographische und geologische Karten, Satellitenbilder und Klimadaten benutzt. Die Arbeit besteht aus 6 Kapiteln. Das erste Kapitel gibt einen allgemeinen Überblick über den Untersuchungsraum. Dieser umfasst folgende morphologische Einheiten, klimatischen Verhältnisse, insbesondere die Ariditätsindizes der Küsten- und Gebirgslandschaft sowie das Siedlungsmuster beschrieben. Kapitel 2 befasst sich mit der regionalen Geologie und Stratigraphie des Untersuchungsraumes. Es wird versucht, die Hauptformationen mit Hilfe von ETM-Satellitenbildern zu identifizieren. Angewandt werden hierzu folgende Methoden: Colour Band Composite, Image Rationing und die sog. überwachte Klassifikation. Kapitel 3 enthält eine Beschreibung der strukturell bedingten Oberflächenformen, um die Wechselwirkung zwischen Tektonik und geomorphologischen Prozessen aufzuklären. Es geht es um die vielfältigen Methoden, zum Beispiel das sog. Image Processing, um die im Gebirgskörper vorhandenen Lineamente einwandfrei zu deuten. Spezielle Filtermethoden werden angewandt, um die wichtigsten Lineamente zu kartieren. Kapitel 4 stellt den Versuch dar, mit Hilfe von aufbereiteten SRTM-Satellitenbildern eine automatisierte Erfassung des Gewässernetzes. Es wird ausführlich diskutiert, inwieweit bei diesen Arbeitsschritten die Qualität kleinmaßstäbiger SRTM-Satellitenbilder mit großmaßstäbigen topographischen Karten vergleichbar ist. Weiterhin werden hydrologische Parameter über eine qualitative und quantitative Analyse des Abflussregimes einzelner Wadis erfasst. Der Ursprung von Entwässerungssystemen wird auf der Basis geomorphologischer und geologischer Befunde interpretiert. Kapitel 5 befasst sich mit der Abschätzung der Gefahr episodischer Wadifluten. Die Wahrscheinlichkeit ihres jährlichen Auftretens bzw. des Auftretens starker Fluten im Abstand mehrerer Jahre wird in einer historischen Betrachtung bis 1921 zurückverfolgt. Die Bedeutung von Regentiefs, die sich über dem Roten Meer entwickeln, und die für eine Abflussbildung in Frage kommen, wird mit Hilfe der IDW-Methode (Inverse Distance Weighted) untersucht. Betrachtet werden außerdem weitere, regenbringende Wetterlagen mit Hilfe von Meteosat Infrarotbildern. Genauer betrachtet wird die Periode 1990-1997, in der kräftige, Wadifluten auslösende Regenfälle auftraten. Flutereignisse und Fluthöhe werden anhand von hydrographischen Daten (Pegelmessungen) ermittelt. Auch die Landnutzung und Siedlungsstruktur im Einzugsgebiet eines Wadis wird berücksichtigt. In Kapitel 6 geht es um die unterschiedlichen Küstenformen auf der Westseite des Roten Meeres zum Beispiel die Erosionsformen, Aufbauformen, untergetauchte Formen. Im abschließenden Teil geht es um die Stratigraphie und zeitliche Zuordnung von submarinen Terrassen auf Korallenriffen sowie den Vergleich mit anderen solcher Terrassen an der ägyptischen Rotmeerküste westlich und östlich der Sinai-Halbinsel.
Resumo:
The arid regions are dominated to a much larger degree than humid regions by major catastrophic events. Although most of Egypt lies within the great hot desert belt; it experiences especially in the north some torrential rainfall, which causes flash floods all over Sinai Peninsula. Flash floods in hot deserts are characterized by high velocity and low duration with a sharp discharge peak. Large sediment loads may be carried by floods threatening fields and settlements in the wadis and even people who are living there. The extreme spottiness of rare heavy rainfall, well known to desert people everywhere, precludes any efficient forecasting. Thus, although the limitation of data still reflects pre-satellite methods, chances of developing a warning system for floods in the desert seem remote. The relatively short flood-to-peak interval, a characteristic of desert floods, presents an additional impediment to the efficient use of warning systems. The present thesis contains introduction and five chapters, chapter one points out the physical settings of the study area. There are the geological settings such as outcrop lithology of the study area and the deposits. The alluvial deposits of Wadi Moreikh had been analyzed using OSL dating to know deposits and palaeoclimatic conditions. The chapter points out as well the stratigraphy and the structure geology containing main faults and folds. In addition, it manifests the pesent climate conditions such as temperature, humidity, wind and evaporation. Besides, it presents type of soils and natural vegetation cover of the study area using unsupervised classification for ETM+ images. Chapter two points out the morphometric analysis of the main basins and their drainage network in the study area. It is divided into three parts: The first part manifests the morphometric analysis of the drainage networks which had been extracted from two main sources, topographic maps and DEM images. Basins and drainage networks are considered as major influencing factors on the flash floods; Most of elements were studied which affect the network such as stream order, bifurcation ratio, stream lengths, stream frequency, drainage density, and drainage patterns. The second part of this chapter shows the morphometric analysis of basins such as area, dimensions, shape and surface. Whereas, the third part points the morphometric analysis of alluvial fans which form most of El-Qaá plain. Chapter three manifests the surface runoff through rainfall and losses analysis. The main subject in this chapter is rainfall which has been studied in detail; it is the main reason for runoff. Therefore, all rainfall characteristics are regarded here such as rainfall types, distribution, rainfall intensity, duration, frequency, and the relationship between rainfall and runoff. While the second part of this chapter concerns with water losses estimation by evaporation and infiltration which are together the main losses with direct effect on the high of runoff. Finally, chapter three points out the factors influencing desert runoff and runoff generation mechanism. Chapter four is concerned with assessment of flood hazard, it is important to estimate runoff and tocreate a map of affected areas. Therefore, the chapter consists of four main parts; first part manifests the runoff estimation, the different methods to estimate runoff and its variables such as runoff coefficient lag time, time of concentration, runoff volume, and frequency analysis of flash flood. While the second part points out the extreme event analysis. The third part shows the map of affected areas for every basin and the flash floods degrees. In this point, it has been depending on the DEM to extract the drainage networks and to determine the main streams which are normally more dangerous than others. Finally, part four presets the risk zone map of total study area which is of high inerest for planning activities. Chapter five as the last chapter concerns with flash flood Hazard mitigation. It consists of three main parts. First flood prediction and the method which can be used to predict and forecast the flood. The second part aims to determine the best methods which can be helpful to mitigate flood hazard in the arid zone and especially the study area. Whereas, the third part points out the development perspective for the study area indicating the suitable places in El-Qaá plain for using in economic activities.
Resumo:
The proton-nucleus elastic scattering at intermediate energies is a well-established method for the investigation of the nuclear matter distribution in stable nuclei and was recently applied also for the investigation of radioactive nuclei using the method of inverse kinematics. In the current experiment, the differential cross sections for proton elastic scattering on the isotopes $^{7,9,10,11,12,14}$Be and $^8$B were measured. The experiment was performed using the fragment separator at GSI, Darmstadt to produce the radioactive beams. The main part of the experimental setup was the time projection ionization chamber IKAR which was simultaneously used as hydrogen target and a detector for the recoil protons. Auxiliary detectors for projectile tracking and isotope identification were also installed. As results from the experiment, the absolute differential cross sections d$sigma$/d$t$ as a function of the four momentum transfer $t$ were obtained. In this work the differential cross sections for elastic p-$^{12}$Be, p-$^{14}$Be and p-$^{8}$B scattering at low $t$ ($t leq$~0.05~(GeV/c)$^2$) are presented. The measured cross sections were analyzed within the Glauber multiple-scattering theory using different density parameterizations, and the nuclear matter density distributions and radii of the investigated isotopes were determined. The analysis of the differential cross section for the isotope $^{14}$Be shows that a good description of the experimental data is obtained when density distributions consisting of separate core and halo components are used. The determined {it rms} matter radius is $3.11 pm 0.04 pm 0.13$~fm. In the case of the $^{12}$Be nucleus the results showed an extended matter distribution as well. For this nucleus a matter radius of $2.82 pm 0.03 pm 0.12$~fm was determined. An interesting result is that the free $^{12}$Be nucleus behaves differently from the core of $^{14}$Be and is much more extended than it. The data were also compared with theoretical densities calculated within the FMD and the few-body models. In the case of $^{14}$Be, the calculated cross sections describe the experimental data well while, in the case of $^{12}$Be there are discrepancies in the region of high momentum transfer. Preliminary experimental results for the isotope $^8$B are also presented. An extended matter distribution was obtained (though much more compact as compared to the neutron halos). A proton halo structure was observed for the first time with the proton elastic scattering method. The deduced matter radius is $2.60pm 0.02pm 0.26$~fm. The data were compared with microscopic calculations in the frame of the FMD model and reasonable agreement was observed. The results obtained in the present analysis are in most cases consistent with the previous experimental studies of the same isotopes with different experimental methods (total interaction and reaction cross section measurements, momentum distribution measurements). For future investigation of the structure of exotic nuclei a universal detector system EXL is being developed. It will be installed at the NESR at the future FAIR facility where higher intensity beams of radioactive ions are expected. The usage of storage ring techniques provides high luminosity and low background experimental conditions. Results from the feasibility studies of the EXL detector setup, performed at the present ESR storage ring, are presented.
Resumo:
Unter aktionalen Operatoren versteht diese Untersuchung grammatikalisierte Verbalkonstruktionen zur Bezeichnung von Aktionsarten und Aktionalität. In Türksprachen - und damit auch im Türkeitürkischen - dienen typischerweise Postverbien diesem Zweck. Diese Formen bestehen aus einem lexikalischen Verb, welches Konverbform haben oder finit sein kann sowie einem darauffolgenden Auxiliarverb mit stark verallgemeinerter, grammatikalisierter Bedeutung. Auxiliarverb und Konverbsuffix modifizieren das vorangehende lexikalische Verb in Bezug auf aktionale Eigenschaften. Weniger typisch für Türksprachen sind hingegen Präverbien, d.h. Konstruktionen, in denen das Auxiliarverb dem lexikalischen Verb vorangeht. Auch dieser Art der Kennzeichnung von Aktionsarten und Aktionalität widmet sich diese Dissertation. Das erste, einleitende Kapitel stellt das untersuchte Material sowie die theoretischen Grundlagen vor. Das zweite Kapitel beinhaltet türkische Postverbien mit ihren jeweiligen Funktionen und Bedeutungen, die anhand von zahlreichen Beispielen aus verschiedenen Türksprachen ausser dem Türkeitürkischen illustriert werden. Das Kapitel 3 befasst sich mit dem Inventar an Postverbien, das das Türkeitürkische zu bieten hat. Es beginnt mit dem Versuch einer Beschreibung der Funktion eines bisher nicht als solches beschriebenen Postverbs, welches auf der Grundlage eines türkischen Verbs für deutsch "vorbei-, hindurch-, vorübergehen" gebildet wird. Dieses Postverb befindet sich noch in einem recht jungen Grammatikalisierungsstadium und kann entsprechend zu semantischen Ambiguitäten führen, welche die Autorin mittels geeigneter Tests aufdeckt. Andere, weiter grammatikalisierte Postverbien des Türkeitürkischen basieren auf den Auxiliaren kal- 'bleiben', gel- 'kommen', git- 'gehen', gör- 'sehen' und dur- 'stehenbleiben, stehen'. Diese Postverbien werden einer differenzierten Klassifikation bezüglich ihrer Kombinierbarkeit mit verschiedenen Verbtypen, ihrer phasenspezifizierenden Funktionen und weiterer sekundärer Implikationen, die auch, aber nicht ausschließlich von ihrer eigenen lexikalischen Bedeutung herrühren, unterzogen. Das Postverb -(y)Iver- hat zahlreiche Eigenschaften, die es von anderen aktional verwendeten Postverbien unterscheidet. Es unterliegt keiner der Restriktionen, die für die anderen türkischen Postverbien gelten und weist ein weiter fortgeschrittenes Grammatikalisierungsstadium auf. Darüber hinaus zeigt -(y)Iver- große Parallelen mit dem Marker für Possibilität -(y)Abil-. Hierzu gehört nicht zuletzt die Möglichkeit, -(y)Iver- mit anderen Postverbien zu kombinieren - was für die anderen Postverbien des Türkeitürkischen ausgeschlossen ist. Die Autorin argumentiert dafür, in -(y)Iver- ein Postverb zu sehen, welches zum Ausdruck nicht mehr nur aktionaler, sonder modaler Inhalte dient. Im vierten Kapitel werden Konverb- und finite Formen der türkeitürkischen Verben kalk- 'aufstehen', tut- 'ergreifen, festhalten', gel- 'kommen', git- 'gehen', var- 'ankommen', al- 'nehmen' und cik- 'heraus-, hervorgehen, -kommen' mit ihren Funktionen als Präverbien vorgestellt. Eine grammatikalisierte präverbiale Bedeutung dieser Verben ist stark kontextabhängig, so dass immer mit semantischen Ambiguitäten zu rechnen ist. Dennoch bilden Präverbien eine geschlossene Gruppe von Formen, die eine gemeinsame Bedeutung haben. Das Kapitel 5 bezieht moderne irantürkische Varietäten, insbesondere das Chaladschische, in die Untersuchung ein. Die Autorin nimmt die Diskussion über chaladschische Imperativformen, die auf Postverbien zurückgehen, wieder auf und bietet ein vereinfachtes Beschreibungsmodell dieses vermeintlich komplexen Paradigmas an. Dieses Kapitel schließt auch die Fülle von parataktisch gebildeten Verkonstruktionen ein, welche in ihren Funktionen und Bedeutungen auffällig große Ähnlichkeiten mit türkeitürkischen Präverbien, aber auch mit Postverbien aufweisen. Die Arbeit schließt mit einer Zusammenfassung (6) und einem Literaturverzeichnis ab.
Resumo:
In der vorliegenden Arbeit wurden AFM-Kraft-Abstands-Kurven benutzt, um die mechanischen Eigenschaften dünner Polymerfilme verschiedener Schichtdicken (2 - 400 nm) auf einem sehr viel steiferen Substrat (mechanische Doppelschichten) zu untersuchen. Die mechanischen Eigenschaften einer solchen Probe setzen sich aus den mechanischen Eigenschaften der Bestandteile, d.h. Polymer und Substrat, zusammen. Der Beitrag der Bestandteile hängt von der Schichtdicke und von der Auflagekraft ab. Es wurden existierende Modelle für die Auswertung von an Doppelschichten gemessenen Deformationskurven überprüft und festgestellt, dass kein Modell befriedigende Ergebnisse erzielt. Dies zeigte die Notwendigkeit einer neuen semiempirischen Theorie zur Beschreibung der Deformationskurven von mechanischen Doppelschichten. In dieser Arbeit wird der hyperbolische Fit zu diesem Zweck eingeführt. Die Validität des hyperbolischen Fit wurde anhand von drei Experimenten gezeigt. Alle experimentellen Kurven konnten sehr gut durch den hyperbolischen Fit beschrieben werden. Die Elastizitätsmoduln der Bestandteile konnten in Übereinstimmung mit den Literaturwerten berechnet werden. Die Schichtdicken der Proben konnten in allen Fällen mit großer Exaktheit bestimmt werden. Es wurde zudem die Möglichkeit der Auswertung einzelner Kraft-Abstands-Kurven untersucht. Damit konnte die Schichtdicke der untersuchten Doppelschichten ortsaufgelöst im Submikrometerbereich bestimmt werden und ein verstecktes Substrat detektiert werden. Die Adhäsion an der Grenzfläche Polymer/Substrat hat einen fundamentalen Einfluss auf die mechanischen Eigenschaften der Doppelschicht, der qualitativ im letzten Teil der Doktorarbeit gezeigt werden konnte.
Resumo:
Stylolites are rough paired surfaces, indicative of localized stress-induced dissolution under a non-hydrostatic state of stress, separated by a clay parting which is believed to be the residuum of the dissolved rock. These structures are the most frequent deformation pattern in monomineralic rocks and thus provide important information about low temperature deformation and mass transfer. The intriguing roughness of stylolites can be used to assess amount of volume loss and paleo-stress directions, and to infer the destabilizing processes during pressure solution. But there is little agreement on how stylolites form and why these localized pressure solution patterns develop their characteristic roughness.rnNatural bedding parallel and vertical stylolites were studied in this work to obtain a quantitative description of the stylolite roughness and understand the governing processes during their formation. Adapting scaling approaches based on fractal principles it is demonstrated that stylolites show two self affine scaling regimes with roughness exponents of 1.1 and 0.5 for small and large length scales separated by a crossover length at the millimeter scale. Analysis of stylolites from various depths proved that this crossover length is a function of the stress field during formation, as analytically predicted. For bedding parallel stylolites the crossover length is a function of the normal stress on the interface, but vertical stylolites show a clear in-plane anisotropy of the crossover length owing to the fact that the in-plane stresses (σ2 and σ3) are dissimilar. Therefore stylolite roughness contains a signature of the stress field during formation.rnTo address the origin of stylolite roughness a combined microstructural (SEM/EBSD) and numerical approach is employed. Microstructural investigations of natural stylolites in limestones reveal that heterogeneities initially present in the host rock (clay particles, quartz grains) are responsible for the formation of the distinctive stylolite roughness. A two-dimensional numerical model, i.e. a discrete linear elastic lattice spring model, is used to investigate the roughness evolving from an initially flat fluid filled interface induced by heterogeneities in the matrix. This model generates rough interfaces with the same scaling properties as natural stylolites. Furthermore two coinciding crossover phenomena in space and in time exist that separate length and timescales for which the roughening is either balanced by surface or elastic energies. The roughness and growth exponents are independent of the size, amount and the dissolution rate of the heterogeneities. This allows to conclude that the location of asperities is determined by a polimict multi-scale quenched noise, while the roughening process is governed by inherent processes i.e. the transition from a surface to an elastic energy dominated regime.rn
Resumo:
Hochreichende Konvektion über Waldbränden ist eine der intensivsten Formen von atmosphärischer Konvektion. Die extreme Wolkendynamik mit hohen vertikalen Windgeschwindigkeiten (bis 20 m/s) bereits an der Wolkenbasis, hohen Wasserdampfübersättigungen (bis 1%) und die durch das Feuer hohen Anzahlkonzentration von Aerosolpartikeln (bis 100000 cm^-3) bilden einen besonderen Rahmen für Aerosol-Wolken Wechselwirkungen.Ein entscheidender Schritt in der mikrophysikalischen Entwicklung einer konvektiven Wolke ist die Aktivierung von Aerosolpartikeln zu Wolkentropfen. Dieser Aktivierungsprozess bestimmt die anfängliche Anzahl und Größe der Wolkentropfen und kann daher die Entwicklung einer konvektiven Wolke und deren Niederschlagsbildung beeinflussen. Die wichtigsten Faktoren, welche die anfängliche Anzahl und Größe der Wolkentropfen bestimmen, sind die Größe und Hygroskopizität der an der Wolkenbasis verfügbaren Aerosolpartikel sowie die vertikale Windgeschwindigkeit. Um den Einfluss dieser Faktoren unter pyro-konvektiven Bedingungen zu untersuchen, wurden numerische Simulationen mit Hilfe eines Wolkenpaketmodells mit detaillierter spektraler Beschreibung der Wolkenmikrophysik durchgeführt. Diese Ergebnisse können in drei unterschiedliche Bereiche abhängig vom Verhältnis zwischen vertikaler Windgeschwindigkeit und Aerosolanzahlkonzentration (w/NCN) eingeteilt werden: (1) ein durch die Aerosolkonzentration limitierter Bereich (hohes w/NCN), (2) ein durch die vertikale Windgeschwindigkeit limitierter Bereich (niedriges w/NCN) und (3) ein Übergangsbereich (mittleres w/NCN). Die Ergebnisse zeigen, dass die Variabilität der anfänglichen Anzahlkonzentration der Wolkentropfen in (pyro-) konvektiven Wolken hauptsächlich durch die Variabilität der vertikalen Windgeschwindigkeit und der Aerosolkonzentration bestimmt wird. rnUm die mikrophysikalischen Prozesse innerhalb der rauchigen Aufwindregion einer pyrokonvektiven Wolke mit einer detaillierten spektralen Mikrophysik zu untersuchen, wurde das Paketmodel entlang einer Trajektorie innerhalb der Aufwindregion initialisiert. Diese Trajektore wurde durch dreidimensionale Simulationen eines pyro-konvektiven Ereignisses durch das Model ATHAM berechnet. Es zeigt sich, dass die Anzahlkonzentration der Wolkentropfen mit steigender Aerosolkonzentration ansteigt. Auf der anderen Seite verringert sich die Größe der Wolkentropfen mit steigender Aerosolkonzentration. Die Reduzierung der Verbreiterung des Tropfenspektrums stimmt mit den Ergebnissen aus Messungen überein und unterstützt das Konzept der Unterdrückung von Niederschlag in stark verschmutzen Wolken.Mit Hilfe des Models ATHAM wurden die dynamischen und mikrophysikalischen Prozesse von pyro-konvektiven Wolken, aufbauend auf einer realistischen Parametrisierung der Aktivierung von Aerosolpartikeln durch die Ergebnisse der Aktivierungsstudie, mit zwei- und dreidimensionalen Simulationen untersucht. Ein modernes zweimomenten mikrophysikalisches Schema wurde in ATHAM implementiert, um den Einfluss der Anzahlkonzentration von Aerosolpartikeln auf die Entwicklung von idealisierten pyro-konvektiven Wolken in US Standardamtosphären für die mittleren Breiten und den Tropen zu untersuchen. Die Ergebnisse zeigen, dass die Anzahlkonzentration der Aerosolpartikel die Bildung von Regen beeinflusst. Für geringe Aerosolkonzentrationen findet die rasche Regenbildung hauptsächlich durch warme mikrophysikalische Prozesse statt. Für höhere Aerosolkonzentrationen ist die Eisphase wichtiger für die Bildung von Regen. Dies führt zu einem verspäteten Einsetzen von Niederschlag für verunreinigtere Atmosphären. Außerdem wird gezeigt, dass die Zusammensetzung der Eisnukleationspartikel (IN) einen starken Einfluss auf die dynamische und mikrophysikalische Struktur solcher Wolken hat. Bei sehr effizienten IN bildet sich Regen früher. Die Untersuchung zum Einfluss des atmosphärischen Hintergrundprofils zeigt eine geringe Auswirkung der Meteorologie auf die Sensitivität der pyro-konvektiven Wolken auf diernAerosolkonzentration. Zum Abschluss wird gezeigt, dass die durch das Feuer emittierte Hitze einen deutlichen Einfluss auf die Entwicklung und die Wolkenobergrenze von pyro-konvektive Wolken hat. Zusammenfassend kann gesagt werden, dass in dieser Dissertation die Mikrophysik von pyrokonvektiven Wolken mit Hilfe von idealisierten Simulation eines Wolkenpaketmodell mit detaillierte spektraler Mikrophysik und eines 3D Modells mit einem zweimomenten Schema im Detail untersucht wurde. Es wird gezeigt, dass die extremen Bedingungen im Bezug auf die vertikale Windgeschwindigkeiten und Aerosolkonzentrationen einen deutlichen Einfluss auf die Entwicklung von pyro-konvektiven Wolken haben.
Resumo:
Die vorliegende Handreichung versteht sich als Hilfestellung bei der Vermittlung von Kompetenzen und deren Bewertung in der Hochschullehre – sowohl auf der Ebene von Veranstaltungstypen als auch von Prüfungen – mit dem Ziel, Lehrende bei der Planung von Studiengängen und einzelnen Veranstaltungen zu unterstützen. Sie gliedert sich in drei Teile: Im ersten Teil werden die verschiedenen universitären Veranstaltungsformen dargestellt. Einer Beschreibung der jeweiligen Veranstaltungsform folgt eine grafische Aufschlüsselung der primär vermittelten Kompetenzarten. Zusätzlich werden veranstaltungsspezifische Beispiele für hochschuldidaktische Methoden zur Optimierung des Lehr-/Lernprozesses und des Learning Outcome aufgeführt, die zur Planung und Durchführung herangezogen werden können. Abschließend werden mögliche geeignete Prüfungsformen vorgeschlagen. Der zweite Teil widmet sich dem Zusammenspiel von Prüfungen und Kompetenzen. Ziel ist es darzustellen, welche Prüfungsformen sich besonders für die Bewertung von Kenntnissen im Hinblick auf einzelne Kompetenzen eignen. Die vorgestellten hochschuldidaktischen Methoden werden im dritten Teil der Handreichung näher beschrieben, wobei besonders auf deren Potenzial für die Vermittlung der einzelnen Kompetenzen eingegangen wird.
Resumo:
Beständig werden Spurenstoffe in die Atmosphäre emittiert, die ihren Ursprung in biogenen oder anthropogenen Quellen haben. Daß es dennoch im allgemeinen nicht zu einer Anreicherung bis hin zu toxischen Konzentrationen kommt, liegt an dem Vermögen der Atmosphäre sich durch Oxidationsprozesse selbst zu reinigen. Eine wichtige Aufgabe kommt dabei dem Hydroxylradikal OH zu, welches tagsüber die Oxidationskapazität der Atmosphäre bestimmt. Hierbei spielen die tropischen Regionen mit einer der höchsten OH-Produktionsraten eine zentrale Rolle. Gleichzeitig sind die tropischen Regenwälder eine bedeutende globale Quelle für Kohlenwasserstoffe, die durch Reaktion mit OH-Radikalen dessen Konzentration und damit die Oxidationskapazität der Atmosphäre herabsetzen. Während der GABRIEL-Meßkampagne 2005 im äquatorialen Südamerika wurde der Einfluß der Regenwaldemissionen auf das HOx-Budget (HOx = OH+HO2) untersucht. Zu diesem Zweck wurde das Radikalmeßinstrument HORUS entwickelt. Im Rahmen dieser Arbeit wurden unterschiedliche Komponenten des Gerätes optimiert, der Meßaufbau ins Flugzeug integriert und Methoden zur Kalibrierung entwickelt. Bei der internationalen Vergleichskampagne HOxComp2005 zeigte HORUS seine Eignung zur Messung von troposphärischen OH- und HO2-Radikalen.rnrnDie durchgeführten HOx-Messungen während der GABRIEL-Meßkampagne sind die ersten ihrer Art, die über einem tropischen Regenwald stattgefunden haben. Im Gegensatz zu den Vorhersagen globaler Modelle wurden unerwartet hohe OH- und HO2-Konzentrationen in der planetaren Grenzschicht des tropischen Regenwalds beobachtet. Der Vergleich der berechneten OH-Produktions- und Verlustraten, die aus dem umfangreichen Datensatz von GABRIEL ermittelt wurden, zeigte, daß hierbei eine wichtige OH-Quelle unberücksichtigt blieb. Mit Hilfe des Boxmodells MECCA, in welchem die gemessenen Daten als Randbedingungen in die Simulationen eingingen, wurden die modellierten OH- und HO2- Konzentrationen im Gleichgewichtszustand den beobachteten Konzentrationen gegenübergestellt. Luftmassen der freien Troposphäre und der maritimen Grenzschicht zeigten eine gute Übereinstimmung zwischen Messung und Modell. Über dem tropischen Regenwald jedoch wurden die beobachteten HOx-Konzentrationen in der planetaren Grenzschicht durch das Modell, vor allem am Nachmittag, signifikant unterschätzt. Dabei lag die Diskrepanz zwischen den beobachteten und simulierten Konzentrationen bei einem mittleren Wert von OHobs/OHmod = 12.2 ± 3.5 und HO2obs/HO2mod = 4.1 ± 1.4. Die Abweichung zwischen Messung und Modell korrelieren hierbei mit der Isoprenkonzentration. Während für niedrige Isoprenmischungsverhältnisse, wie sie über dem Ozean oder in Höhen > 3 km vorherrschten, die Beobachtungen mit den Simulationen innerhalb eines Faktors 1.6±0.7 übereinstimmten, nahm die Unterschätzung durch das Modell für steigende Isoprenmischungsverhältnisse > 200 pptV über dem tropischen Regenwald zu.rnrnDer kondensierte chemische Mechanismus von MECCA wurde mit der ausführlichen Isoprenchemie des ”Master Chemical Mechanism“ überprüft, welches vergleichbare HOx-Konzentrationen lieferte. OH-Simulationen, durchgeführt mit der gemessenen HO2-Konzentration als zusätzliche Randbedingung, zeigten, daß die Konversion zwischen HO2 und OH innerhalb des Modells nicht ausreichend ist. Durch Vernachlässigung der gesamten Isoprenchemie konnte dagegen eine Übereinstimmung zwischen Modell und Messung erreicht werden. Eine OH-Quelle in der gleichen Größenordnung wie die OH-Senke durch Isopren, ist somit zur Beschreibung der beobachteten OH-Konzentration notwendig. Reaktionsmechanismen, die innerhalb der Isoprenchemie die gleiche Anzahl an OH-Radikalen erzeugen wie sie verbrauchen, könnten eine mögliche Ursache sein. Unterschiedliche zusätzliche Reaktionen wurden in die Isoprenabbaumechanismen des Modells implementiert, die zur Erhöhung der OH-Quellstärke führen sollten. Diese bewirkten eine Zunahme der simulierten HO2-Konzentrationen um einen maximalen Faktor von 5 für OH und 2 für HO2. Es wird eine OH-Zyklierungswahrscheinlichkeit r von bis zu 94% gefordert, wie sie für die GABRIEL-Messungen erreicht wurde. Die geringe OH-Zyklierungswahrscheinlichkeit von 38% des Modells zeigte, daß wichtige Zyklierungsvorgänge im chemischen Mechanismus bislang nicht berücksichtigt werden. Zusätzliche Zyklierungsreaktionen innerhalb des Isoprenmechanismus, die auch unter niedrigen NO-Konzentrationen zur Rückbildung von OHRadikalen führen, könnten eine Erklärung für die über dem Regenwald beobachteten hohen OH-Konzentration liefern.rn
Resumo:
Atmospheric aerosol particles serving as cloud condensation nuclei (CCN) are key elements of the hydrological cycle and climate. Knowledge of the spatial and temporal distribution of CCN in the atmosphere is essential to understand and describe the effects of aerosols in meteorological models. In this study, CCN properties were measured in polluted and pristine air of different continental regions, and the results were parameterized for efficient prediction of CCN concentrations.The continuous-flow CCN counter used for size-resolved measurements of CCN efficiency spectra (activation curves) was calibrated with ammonium sulfate and sodium chloride aerosols for a wide range of water vapor supersaturations (S=0.068% to 1.27%). A comprehensive uncertainty analysis showed that the instrument calibration depends strongly on the applied particle generation techniques, Köhler model calculations, and water activity parameterizations (relative deviations in S up to 25%). Laboratory experiments and a comparison with other CCN instruments confirmed the high accuracy and precision of the calibration and measurement procedures developed and applied in this study.The mean CCN number concentrations (NCCN,S) observed in polluted mega-city air and biomass burning smoke (Beijing and Pearl River Delta, China) ranged from 1000 cm−3 at S=0.068% to 16 000 cm−3 at S=1.27%, which is about two orders of magnitude higher than in pristine air at remote continental sites (Swiss Alps, Amazonian rainforest). Effective average hygroscopicity parameters, κ, describing the influence of chemical composition on the CCN activity of aerosol particles were derived from the measurement data. They varied in the range of 0.3±0.2, were size-dependent, and could be parameterized as a function of organic and inorganic aerosol mass fraction. At low S (≤0.27%), substantial portions of externally mixed CCN-inactive particles with much lower hygroscopicity were observed in polluted air (fresh soot particles with κ≈0.01). Thus, the aerosol particle mixing state needs to be known for highly accurate predictions of NCCN,S. Nevertheless, the observed CCN number concentrations could be efficiently approximated using measured aerosol particle number size distributions and a simple κ-Köhler model with a single proxy for the effective average particle hygroscopicity. The relative deviations between observations and model predictions were on average less than 20% when a constant average value of κ=0.3 was used in conjunction with variable size distribution data. With a constant average size distribution, however, the deviations increased up to 100% and more. The measurement and model results demonstrate that the aerosol particle number and size are the major predictors for the variability of the CCN concentration in continental boundary layer air, followed by particle composition and hygroscopicity as relatively minor modulators. Depending on the required and applicable level of detail, the measurement results and parameterizations presented in this study can be directly implemented in detailed process models as well as in large-scale atmospheric and climate models for efficient description of the CCN activity of atmospheric aerosols.