33 resultados para Kriterien
Resumo:
Der Begriff "Bannerwolke" bezeichnet ein eindrucksvolles Phänomen aus dem Bereich der Gebirgsmeteorologie. Bannerwolken können gelegentlich im Hochgebirge im Bereich steiler Bergspitzen oder langgezogener Bergrücken, wie z.B. dem Matterhorn in den Schweizer Alpen oder dem Zugspitzgrat in den Bayrischen Alpen beobachtet werden. Der Begriff bezeichnet eine Banner- oder Fahnen-ähnliche Wolkenstruktur, welche an der windabgewandten Seite des Berges befestigt zu sein scheint, während die windzugewandte Seite vollkommen wolkenfrei ist. Bannerwolken fanden bislang, trotz ihres relativ häufigen Auftretens in der wissenschaftlichen Literatur kaum Beachtung. Entsprechend wenig ist über ihren Entstehungsmechanismus und insbesondere die relative Bedeutung dynamischer gegenüber thermodynamischer Prozesse bekannt. In der wissenschaftlichen Literatur wurden bislang 3 unterschiedliche Mechanismen postuliert, um die Entstehung von Bannerwolken zu erklären. Demnach entstehen Bannerwolken durch (a) den Bernoulli-Effekt, insbesondere durch die lokale adiabatische Kühlung hervorgerufen durch eine Druckabnahme entlang quasi-horizontal verlaufender, auf der windzugewandten Seite startender Trajektorien, (b) durch isobare Mischung bodennaher kälterer Luft mit wärmerer Luft aus höheren Schichten, oder (c) durch erzwungene Hebung im aufsteigenden Ast eines Leerotors. Ziel dieser Arbeit ist es, ein besseres physikalisches Verständnis für das Phänomen der Bannerwolke zu entwickeln. Das Hauptaugenmerk liegt auf dem dominierenden Entstehungsmechanismus, der relativen Bedeutung dynamischer und thermodynamischer Prozesse, sowie der Frage nach geeigneten meteorologischen Bedingungen. Zu diesem Zweck wurde ein neues Grobstruktursimulations (LES)-Modell entwickelt, welches geeignet ist turbulente, feuchte Strömungen in komplexem Terrain zu untersuchen. Das Modell baut auf einem bereits existierenden mesoskaligen (RANS) Modell auf. Im Rahmen dieser Arbeit wurde das neue Modell ausführlich gegen numerische Referenzlösungen und Windkanal-Daten verglichen. Die wesentlichen Ergebnisse werden diskutiert, um die Anwendbarkeit des Modells auf die vorliegende wissenschaftliche Fragestellung zu überprüfen und zu verdeutlichen. Die Strömung über eine idealisierte pyramidenförmige Bergspitze wurde für Froude-Zahlen Fr >> 1 sowohl auf Labor- als auch atmosphärischer Skala mit und ohne Berücksichtigung der Feuchtephysik untersucht. Die Simulationen zeigen, dass Bannerwolken ein primär dynamisches Phänomen darstellen. Sie entstehen im Lee steiler Bergspitzen durch dynamisch erzwungene Hebung. Die Simulationen bestätigen somit die Leerotor-Theorie. Aufgrund des stark asymmetrischen, Hindernis-induzierten Strömungsfeldes können Bannerwolken sogar im Falle horizontal homogener Anfangsbedingungen hinsichtlich Feuchte und Temperatur entstehen. Dies führte zu der neuen Erkenntnis, dass zusätzliche leeseitige Feuchtequellen, unterschiedliche Luftmassen in Luv und Lee, oder Strahlungseffekte keine notwendige Voraussetzung für die Entstehung einer Bannerwolke darstellen. Die Wahrscheinlichkeit der Bannerwolkenbildung steigt mit zunehmender Höhe und Steilheit des pyramidenförmigen Hindernisses und ist in erster Näherung unabhängig von dessen Orientierung zur Anströmung. Simulationen mit und ohne Berücksichtigung der Feuchtephysik machen deutlich, dass thermodynamische Prozesse (insbes. die Umsetzung latenter Wärme) für die Dynamik prototypischer (nicht-konvektiver) Bannerwolken zweitrangig ist. Die Verstärkung des aufsteigenden Astes im Lee und die resultierende Wolkenbildung, hervorgerufen durch die Freisetzung latenter Wärme, sind nahezu vernachlässigbar. Die Feuchtephysik induziert jedoch eine Dipol-ähnliche Struktur im Vertikalprofil der Brunt-Väisälä Frequenz, was zu einem moderaten Anstieg der leeseitigen Turbulenz führt. Es wird gezeigt, dass Gebirgswellen kein entscheidendes Ingredienz darstellen, um die Dynamik von Bannerwolken zu verstehen. Durch eine Verstärkung der Absinkbewegung im Lee, haben Gebirgswellen lediglich die Tendenz die horizontale Ausdehnung von Bannerwolken zu reduzieren. Bezüglich geeigneter meteorologischer Bedingungen zeigen die Simulationen, dass unter horizontal homogenen Anfangsbedingungen die äquivalentpotentielle Temperatur in der Anströmung mit der Höhe abnehmen muss. Es werden 3 notwendige und hinreichende Kriterien, basierend auf dynamischen und thermodynamischen Variablen vorgestellt, welche einen weiteren Einblick in geeignete meteorologische Bedingungen geben.
Resumo:
During the last years great effort has been devoted to the fabrication of superhydrophobic surfaces because of their self-cleaning properties. A water drop on a superhydrophobic surface rolls off even at inclinations of only a few degrees while taking up contaminants encountered on its way. rnSuperhydrophobic, self-cleaning coatings are desirable for convenient and cost-effective maintenance of a variety of surfaces. Ideally, such coatings should be easy to make and apply, mechanically resistant, and long-term stable. None of the existing methods have yet mastered the challenge of meeting all of these criteria.rnSuperhydrophobicity is associated with surface roughness. The lotus leave, with its dual scale roughness, is one of the most efficient examples of superhydrophobic surface. This thesis work proposes a novel technique to prepare superhydrophobic surfaces that introduces the two length scale roughness by growing silica particles (~100 nm in diameter) onto micrometer-sized polystyrene particles using the well-established Stöber synthesis. Mechanical resistance is conferred to the resulting “raspberries” by the synthesis of a thin silica shell on their surface. Besides of being easy to make and handle, these particles offer the possibility for improving suitability or technical applications: since they disperse in water, multi-layers can be prepared on substrates by simple drop casting even on surfaces with grooves and slots. The solution of the main problem – stabilizing the multilayer – also lies in the design of the particles: the shells – although mechanically stable – are porous enough to allow for leakage of polystyrene from the core. Under tetrahydrofuran vapor polystyrene bridges form between the particles that render the multilayer-film stable. rnMulti-layers are good candidate to design surfaces whose roughness is preserved after scratch. If the top-most layer is removed, the roughness can still be ensured by the underlying layer.rnAfter hydrophobization by chemical vapor deposition (CVD) of a semi-fluorinated silane, the surfaces are superhydrophobic with a tilting angle of a few degrees. rnrnrn
Resumo:
This thesis concerns artificially intelligent natural language processing systems that are capable of learning the properties of lexical items (properties like verbal valency or inflectional class membership) autonomously while they are fulfilling their tasks for which they have been deployed in the first place. Many of these tasks require a deep analysis of language input, which can be characterized as a mapping of utterances in a given input C to a set S of linguistically motivated structures with the help of linguistic information encoded in a grammar G and a lexicon L: G + L + C → S (1) The idea that underlies intelligent lexical acquisition systems is to modify this schematic formula in such a way that the system is able to exploit the information encoded in S to create a new, improved version of the lexicon: G + L + S → L' (2) Moreover, the thesis claims that a system can only be considered intelligent if it does not just make maximum usage of the learning opportunities in C, but if it is also able to revise falsely acquired lexical knowledge. So, one of the central elements in this work is the formulation of a couple of criteria for intelligent lexical acquisition systems subsumed under one paradigm: the Learn-Alpha design rule. The thesis describes the design and quality of a prototype for such a system, whose acquisition components have been developed from scratch and built on top of one of the state-of-the-art Head-driven Phrase Structure Grammar (HPSG) processing systems. The quality of this prototype is investigated in a series of experiments, in which the system is fed with extracts of a large English corpus. While the idea of using machine-readable language input to automatically acquire lexical knowledge is not new, we are not aware of a system that fulfills Learn-Alpha and is able to deal with large corpora. To instance four major challenges of constructing such a system, it should be mentioned that a) the high number of possible structural descriptions caused by highly underspeci ed lexical entries demands for a parser with a very effective ambiguity management system, b) the automatic construction of concise lexical entries out of a bulk of observed lexical facts requires a special technique of data alignment, c) the reliability of these entries depends on the system's decision on whether it has seen 'enough' input and d) general properties of language might render some lexical features indeterminable if the system tries to acquire them with a too high precision. The cornerstone of this dissertation is the motivation and development of a general theory of automatic lexical acquisition that is applicable to every language and independent of any particular theory of grammar or lexicon. This work is divided into five chapters. The introductory chapter first contrasts three different and mutually incompatible approaches to (artificial) lexical acquisition: cue-based queries, head-lexicalized probabilistic context free grammars and learning by unification. Then the postulation of the Learn-Alpha design rule is presented. The second chapter outlines the theory that underlies Learn-Alpha and exposes all the related notions and concepts required for a proper understanding of artificial lexical acquisition. Chapter 3 develops the prototyped acquisition method, called ANALYZE-LEARN-REDUCE, a framework which implements Learn-Alpha. The fourth chapter presents the design and results of a bootstrapping experiment conducted on this prototype: lexeme detection, learning of verbal valency, categorization into nominal count/mass classes, selection of prepositions and sentential complements, among others. The thesis concludes with a review of the conclusions and motivation for further improvements as well as proposals for future research on the automatic induction of lexical features.
Resumo:
Die vorliegende Arbeit ist ein Beitrag zur Neologismenforschung und Neologismenlexikografie (Neografie). Wiewohl letztere eine Entwicklung der 2. Hälfte des 20. Jh. ist, erlebt sie in den slavischen Sprachen vor allem nach den politischen Veränderungen der Jahre 1989/90 einen enormen Auftrieb, der in der Herausgabe neuer Neologismenwörterbücher mündet. Mit der Entwicklung der lexikografischen Praxis hat die Wörterbuchtheorie bislang nicht Schritt halten können. Anliegen dieser Arbeit ist es, zur Schließung dieser Lücke im Bereich der Makro- und Mediostruktur beizutragen. Grundlage der Untersuchung bilden knapp 60 einsprachige und 11 zweisprachige Neologismenwörterbücher und -listen des Polnischen, Russischen, Tschechischen, Deutschen und punktuell des Bulgarischen.rnDie im ersten Schritt durchgeführte Analyse der lexikologischen und lexikografischen Charakteristika der Erscheinung 'Neologismus' zeigt, dass in der Linguistik weitestgehend Konsens über den Begriff 'Neologismus' herrscht und dass die lexikologische Diskussion des Neologismusbegriffs zahlreiche Impulse durch die praktische Neologismenlexikografie erhalten hat.rnIm Rahmen der lexikografischen Bestandsaufnahme und Bestimmung der Erscheinung 'Neologismenlexikografie' bzw. 'Neografie' wird ein Modell entwickelt, das erlaubt, von einer Neografie im weiten und einer im engen Sinne, also von einem Zentrum und einer Peripherie der Neografie, zu sprechen. Die Zielsetzungen von Neologismenwörterbüchern sind primär, den neuen Wortschatz schnell und ausführlich zu registrieren und lexikografisch zu beschreiben, um so der Allgemeinlexikografie, der Forschung sowie der interessierten Öffentlichkeit entsprechende Informationen über die neue Lexik zeitnah zur Verfügung zu stellen.rnDie Untersuchung der Neologismenforschung und Neologismenlexikografie des Polnischen ergibt, dass der Neologismusbegriff in der polnischen Linguistik ähnlich wie in den übrigen untersuchten Sprachen betrachtet wird. Im Bereich der Neografie weist das Polnische zwar wichtige lexikografische Vorarbeiten auf, doch erst die Form der Bearbeitung von Neologismen im gerade entstehenden elektronischen Großwörterbuch des Polnischen und im geplanten einsprachigen Neologismenwörterbuch wird zeigen, ob es zu einer "Emanzipation" der polnischen Neografie gegenüber der Allgemeinlexikografie gekommen ist.rnDie Diskussion der makro- und mediostrukturellen Fragen zeigt, dass Aspekte wie Zusammenstellung der Wörterbuchbasis und die Kriterien für die Stichwortauswahl sowohl für gedruckte wie elektronische Neologismenwörterbücher dieselbe Geltung haben. Als wesentlich erweist sich in der Neografie das Aufzeigen der komplexen lexikalisch-semantischen Verflechtungen der neuen Wörter untereinander und mit etablierten Lexemen. Hier ergeben sich für die Neografie durch das elektronische Medium beträchtliche Möglichkeiten. Ein großes Potential stellen auch die einfachere Verknüpfbarkeit von Neologismen mit anderen lexikografischen und nicht-lexikografischen Ressourcen sowie die Entwicklung von individuellen Abfragemöglichkeiten über Drop-down-Menüs dar. Das elektronische Medium eröffnet auch die Option, auf die Herausgabe von Neologismenwörterbüchern zu verzichten und den neuen Wortschatz ausschließlich im Rahmen von elektronischen Allgemeinwörterbüchern zeitnah zu präsentieren – Voraussetzung hierfür ist allerdings eine durchgehende chronologische Markierung des Wortschatzes.
Resumo:
Nach einer hämatopoetischen Stammzelltransplantation spielt die Zuordnung hämatopoetischer Zellen zum Spender oder Empfänger für viele transplantationsbezogene Fragestellungen eine wichtige Rolle. Unter anderem ist das Persistieren von dendritischen Zellen des Empfängers, welche allogene T-Zellen des Spenders stimulieren, ein wichtiger Schritt bei der Entstehung der akuten GVHD. Aus diesem Grund wurde in dieser Arbeit die Weiterentwicklung einer Methode angestrebt, die es uns erlaubt, die Zugehörigkeit isolierter hämatopoetischer Zellen dem Spender oder dem Empfänger zuzuordnen (Chimärismusbestimmung) und gleichzeitig Aussagen über das Ursprungsgewebe und den Aktivierungszustand der Zellen machen zu können. Hierfür nutzten wir Einzelbasenpolymorphismen (SNPs). Ziel dieser Arbeit war es, einen Pool von cDNA-kodierten SNPs zu definieren, mit dem auch HLA-identische Geschwister eindeutig unteschieden werden können. rnHierfür wurden zunächst aus publizierten Datenbanken solche SNPs ausgewählt, die in kodierenden Genabschnitten konstitutiv und gewebeunabhängig auf expremierten Genen lagen und zugleich eine hohe Heterozygotenfrequenz in der europäischen Population aufwiesen. Anhand dieser Kriterien wurden mittels der NCBI-Datenbank insgesamt eine Anzahl von 208 Polymorphismen auf 150 Genen identifiziert. Anschließend erfolgte die Gestaltung von Primerpaaren zur Amplifikation der SNP-kodierenden cDNA-Abschnitte. Diese mussten mindestens eine Intron/Exon-Grenze überspannen, um genomische DNA in der PCR ausschließen zu können. Mit Hilfe der etablierten PCR-Reaktion wurden die Gene in unterschiedlichen Geweben auf ihre Expression hin überprüft. Für 45 Gene ließ sich sowohl eine entsprechende PCR etablieren als auch deren konstitutive Expression in verschiedenen hämatopoetischen Zellen nachweisen. Zur Detektion der einzelnen SNPs in der Minisequenzierung wurden Minisequenzierungs-Sonden generiert und geprüft. Im Folgenden wurden für PCR und Minisequezierung Multiplex-Reaktionen aus vier bis sechs Reaktionen zusammengestellt. Zu diesem Zweck wurden die jeweiligen Primerinteraktionen und die unterschiedlichen Basenlängen des PCR-Produktes berücksichtigt.rnVon den 45 etablierten Einzelreaktionen waren 30 für den Multiplexansatz geeignet. Unter Anwendung dieser Multiplex-Reaktionen wurden 24 HLA-identische Geschwisterpaare (Spender und Empfänger) getestet. Zur Kontrolle erfolgte zusätzlich eine konventionelle Sequenzierung der SNP-kodierenden Bereiche auf der cDNA der jeweiligen Proben. Mit Hilfe der SNP-Kombinationen und der etablierten Methodik waren wir in der Lage alle 24 untersuchten Geschwisterpaare in zwischen sechs und 18 SNP-Systemen zu unterscheiden. rnDie Möglichkeiten, die die Analysen des Chimärismus mittels SNPs auf kodierenden Bereichen der DNA mit sich bringen, liegen nicht nur in der gleichzeitigen Bestimmung der Gewebszugehörigkeit und der Detektion des bestehenden Chimärismus sowie dessen Quantifizierung unter Anwendung einer Real-time-PCR. Vielmehr ermöglicht sie auch eine Aussage über die Genexpression der untersuchten Zelle zu machen. Dies ist insbesondere dann von Interesse, wenn geringe Zellzahlen von aus Gewebe isolierten Zellen zur Verfügung stehen. Die in dieser Arbeit etablierten Ansätze werden derzeit für eine Quantifizierung mittels real-time RCR weiterentwickelt und sollen mittelfristig insbesondere für Untersuchungen des Chimärismus von dermalen und epidermalen dendritischen Zellen der Haut und anderer Zielgewebe der GvHD verwendet werden.rn
Resumo:
Seit Jahren werden Diskussionen über Erfolgskontrolle in der kommunalen Wirtschaftsförderung geführt. Im Vordergrund steht dabei die Suche nach Indikatoren und Verfahren, die es den kommunalen Wirtschaftsförderungen ermöglichen sollen, Erfolge zu messen. rnDa die Wirtschaftsförderung zu den freiwilligen Leistungen einer Gemeinde zählt, erhöht sich der Druck der Rechtfertigung gegenüber der Öffentlichkeit oder der Politik, das gilt insbesondere in Zeiten knapper öffentlicher Haushalte. Firmenansiedlungen, eine positive wirtschaftliche Entwicklung oder eine geringe Arbeitslosenquote sind sowohl im öffentlichen Bewusstsein als auch in der Politik wesentliche Kriterien einer erfolgreichen Wirtschaftsförderung. Sich ständig ändernde Rahmenbedingungen im wirtschaftsstrukturellen Gefüge haben dazu geführt, dass diese klassischen Nachweise von Erfolg immer seltener als solche präsentiert werden können. Erfolge sollten dennoch gemessen werden, um Maßnahmen und Instrumente einer kommunalen Wirtschaftsförderung zu überprüfen und gegebenenfalls an die geänderten Bedingungen anzupassen. rnEs ist schon mehr als 30 Jahre her, als in den 1970er Jahren die Suche nach Methoden und Verfahren der Erfolgskontrolle in der öffentlichen Verwaltung begann. Erfolge von kommunaler Wirtschaftsförderung können nicht einfach und ausschließlich an den markantesten wirtschaftlichen Ziffern der Kommune gemessen werden, z. B. der Zahl der sozialversicherungspflichtigen Arbeitsplätze. Seit Jahren wird um einen Lösungsweg bei der Durchführung von Erfolgskontrolle in der kommunalen Wirtschaftsförderung gerungen, abschließend wurde jedoch noch kein vollends befriedigend praktikabler Weg gefunden. Zu hinterfragen ist vor dem Hintergrund, inwiefern die vier Elemente einer Erfolgskontrolle, nämlich die Zielerreichungs-, Vollzugs-, Bedingungs- und Wirkungskontrolle, tatsächlich und hinreichend zum Einsatz kommen können.rnDie vorliegenden empirischen Untersuchungen beleuchten nun das Thema aus Sicht der kommunalen Wirtschaftsförderer und liefern Ergebnisse, die zu einem veränderten Bewusstsein gegenüber der Durchführung von Erfolgskontrolle in der kommunalen Wirtschaftsförderung führen müssten. Unabhängig von der Organisationsform und der Größe einer kommunalen Wirtschaftsförderung lässt sich empirisch nachweisen, dass der Anspruch, den der Begriff der Erfolgskontrolle in seiner gängigen Beschreibung erhebt, nicht hinreichend von einer kommunalen Wirtschaftsförderung erfüllt werden kann. rnMit Hilfe des neu entwickelten Prozesses einer modifizierten Erfolgskontrolle wird in vorliegender Arbeit ein idealtypischer Ablauf für eine kommunale Wirtschaftsförderung dargestellt. Der neue Ansatz einer modifizierten Erfolgskontrolle ist eine konsequente Reduzierung der Anforderungen auf das Praktikable und führt dazu, dass Erfolge der kommunalen Wirtschaftsförderung dargestellt werden können, ohne dass das Verfahren mehr Fragen offen lässt, als es beantwortet. Durch die modifizierte Erfolgskontrolle können die spezifischen Erfolge einer kommunalen Wirtschaftsförderung dargestellt und dokumentiert werden. rnEine modifizierte Erfolgskontrolle kann zweierlei: Sie ist eine Hilfestellung für die politisch Verantwortlichen bei der Erkenntnis, dass eine Notwendigkeit nach konkreten und der Ist-Situation sowie den Randbedingungen angepassten Zielformulierungen besteht. Sie bietet aber auch eine Möglichkeit, dass die kommunalen Wirtschaftsförderungseinrichtungen dem in der öffentlichen Diskussion formulierten Anspruch nach Erfolgskontrolle mit einem hohen Grad an Praktikabilität gerecht werden können. rnBevor also viele kommunale Wirtschaftsförderungen durch die fragwürdige Forderung an eine Erfolgskontrolle aufgrund der zu hohen Anforderungen an Methodik, Zeit und Personal aufgeben, sollte ihnen die Konzentration auf das Praktikable wieder Anreiz sein, eine modifizierte Erfolgskontrolle nach dem neuen Prozessschema in Angriff zu nehmen. rnrn
Resumo:
From a physical-chemical point of view, it is challenging to form complexes with polyelectrolytes, consisting of only molecule of the largest component, i.e. the component with the highest number of charges. In this study, complexes are formed with DNA because of its potential applications as an artificial vector for gene delivery. The aim of this work is to prepare complexes in aqueous solutions as well as in organic solvents containing only one DNA molecule. For this purpose, the topology, equilibrium and conformation of complexes between a supercoiled DNA pUC19 (2686 base pairs) and spermine containing hydrophilic and/or hydrophobic moieties or a polylysine with a hydrophilic block are determined by means of dynamic (DLS) and static light scattering (SLS), atomic force microscopy (AFM), and circular dichroism (CD) spectroscopy. It is demonstrated that all of these complexes consisted of only one molecule of the polyanion. Only the polylysine-b-polyethylene glycol copolymer satisfied the conditions: 1) 100% neutralization of DNA charges and with a small excess of the cation (lower than 30%) and 2) form stable complexes at every charge ratio. rnDNA complex formation is also investigated in organic solvents. Precipitation is induced by neutralizing the charge of the supercoiled DNA pUC19 with the surfactants dodecyltrimethylammonium bromide (DTAB) and tetradecyltrimethylammonium bromide (TTAB). After isolation and drying of the solids, the complexes are dissolved in organic solvents. DNA-TTA complexes are only soluble in methanol and DNA-DTA in DMF. The complexes again consisted of only one DNA molecule. The final topology of the complexes is different in methanol than in DMF. In the former case, DNA seems to be compacted whereas in the latter case, the DNA-DTA complexes seem to have an expanded conformation. Upon complex formation with polycations in organic solvents (with polyvilylpyridine brush (b-PVP) in methanol and with a protected polylysine in DMF), DNA aggregates and precipitates. rnDNA is linearized with an enzyme (SmaI) to investigate the influence of the initial topology of the polyanion on the final conformation of the complexes in organic solvents. Two main differences are evidenced: 1. Complexes in organic solvents formed with linear DNA have in general a more expanded conformation and a higher tendency to aggregate. 2. If a polycation, i.e. the b-PVP, is added to the linear DNA-TTA complexes in methanol, complexes with the polycation are formed at a higher charge ratio. In DMF, the addition of the same b-PVP and of b-PLL did not lead to the formation of complexes.rn
Resumo:
Die Arbeit befasst sich mit der Frage, ob Art. 33 II GG die Verwaltung verpflichtet, bei Per-sonalauswahlverfahren nach dem State of the Art der Personaldiagnostik vorzugehen.rnIn Kapitel 1 wird zunächst dieser State of the Art ermittelt. Zu diesem Zweck werden die verschieden personaldiagnostischen Instrumente (Interview, Assessment Center, Intelligenztest usw.) vorgestellt. Danach wird erarbeitet, wie diese Instrumente mit Hilfe der Testanalyse bewertet werden können, also wie sich ein geeignetes personaldiagnostisches Instrument von einem weniger geeigneten unterscheidet. Dazu werden die Qualitätskriterien Validität (Gültigkeit), Objektivität, Reliabilität (Zuverlässigkeit) und Effizienz betrachtet. Schließlich werden die vorgestellten personaldiagnostischen Instrumente an Hand dieser Kriterien beurteilt. Dabei stellt sich unter anderem die hohe Eignung von Intelligenztests für die Personalauswahl heraus.rnIn Kapitel 2 wird der Regelungsgehalt des Art. 33 II GG dargelegt, also zunächst die Ge-schichte seiner Vorgängernormen und die seiner Aufnahme in das Grundgesetz. Anschließend werden seine systematische Stellung, sein Tatbestand und sein Regelungsgehalt näher unter-sucht. Dabei werden auch ergänzende Normen, etwa aus dem Europarecht in den Blick ge-nommen. rnIn Kapitel 3 wird erkundet, durch welche rechtlichen Argumente die Verwaltung verpflichtet sein könnte, den State of the Art der Eignungsdiagnostik bei der Personalauswahl zu beach-ten. Dabei wird vorrangig die Rechtsfigur des Grundrechtsschutzes durch Verfahren in den Blick genommen. In diesem Zusammenhang wird deutlich gemacht, dass Art. 33 II GG ohne ein seiner Verwirklichung dienendes Auswahlverfahren bedeutungslos bleiben muss. Aber auch mit dem Art. 19 IV GG wird argumentiert, weil ein die Erkenntnisse der Eignungsdiag-nostik berücksichtigendes Personalauswahlverfahren vor Gericht besser überprüft werden kann als ein freies Personalauswahlverfahren.rnIn Kapitel 4 werden die Konsequenzen der vorhergehenden Erkenntnisse für die konkrete Gestaltung von Personalauswahlverfahren dargelegt, insbesondere die Verpflichtung für die Verwaltung, einige besonders geeignete Instrumente anzuwenden und einige nicht geeignete Instrumente nicht anzuwenden und bei der Anwendung bestimmte Standards einzuhalten. Schließlich wird auch empfohlen, dass der Gesetzgeber die Personalauswahlverfahren regelt, weil das Auswahlverfahren für das Grundrecht aus Art. 33 II GG von entscheidender Bedeu-tung ist. rn
Resumo:
Atmosphärische Aerosolpartikel wirken in vielerlei Hinsicht auf die Menschen und die Umwelt ein. Eine genaue Charakterisierung der Partikel hilft deren Wirken zu verstehen und dessen Folgen einzuschätzen. Partikel können hinsichtlich ihrer Größe, ihrer Form und ihrer chemischen Zusammensetzung charakterisiert werden. Mit der Laserablationsmassenspektrometrie ist es möglich die Größe und die chemische Zusammensetzung einzelner Aerosolpartikel zu bestimmen. Im Rahmen dieser Arbeit wurde das SPLAT (Single Particle Laser Ablation Time-of-flight mass spectrometer) zur besseren Analyse insbesondere von atmosphärischen Aerosolpartikeln weiterentwickelt. Der Aerosoleinlass wurde dahingehend optimiert, einen möglichst weiten Partikelgrößenbereich (80 nm - 3 µm) in das SPLAT zu transferieren und zu einem feinen Strahl zu bündeln. Eine neue Beschreibung für die Beziehung der Partikelgröße zu ihrer Geschwindigkeit im Vakuum wurde gefunden. Die Justage des Einlasses wurde mithilfe von Schrittmotoren automatisiert. Die optische Detektion der Partikel wurde so verbessert, dass Partikel mit einer Größe < 100 nm erfasst werden können. Aufbauend auf der optischen Detektion und der automatischen Verkippung des Einlasses wurde eine neue Methode zur Charakterisierung des Partikelstrahls entwickelt. Die Steuerelektronik des SPLAT wurde verbessert, so dass die maximale Analysefrequenz nur durch den Ablationslaser begrenzt wird, der höchsten mit etwa 10 Hz ablatieren kann. Durch eine Optimierung des Vakuumsystems wurde der Ionenverlust im Massenspektrometer um den Faktor 4 verringert.rnrnNeben den hardwareseitigen Weiterentwicklungen des SPLAT bestand ein Großteil dieser Arbeit in der Konzipierung und Implementierung einer Softwarelösung zur Analyse der mit dem SPLAT gewonnenen Rohdaten. CRISP (Concise Retrieval of Information from Single Particles) ist ein auf IGOR PRO (Wavemetrics, USA) aufbauendes Softwarepaket, das die effiziente Auswertung der Einzelpartikel Rohdaten erlaubt. CRISP enthält einen neu entwickelten Algorithmus zur automatischen Massenkalibration jedes einzelnen Massenspektrums, inklusive der Unterdrückung von Rauschen und von Problemen mit Signalen die ein intensives Tailing aufweisen. CRISP stellt Methoden zur automatischen Klassifizierung der Partikel zur Verfügung. Implementiert sind k-means, fuzzy-c-means und eine Form der hierarchischen Einteilung auf Basis eines minimal aufspannenden Baumes. CRISP bietet die Möglichkeit die Daten vorzubehandeln, damit die automatische Einteilung der Partikel schneller abläuft und die Ergebnisse eine höhere Qualität aufweisen. Daneben kann CRISP auf einfache Art und Weise Partikel anhand vorgebener Kriterien sortieren. Die CRISP zugrundeliegende Daten- und Infrastruktur wurde in Hinblick auf Wartung und Erweiterbarkeit erstellt. rnrnIm Rahmen der Arbeit wurde das SPLAT in mehreren Kampagnen erfolgreich eingesetzt und die Fähigkeiten von CRISP konnten anhand der gewonnen Datensätze gezeigt werden.rnrnDas SPLAT ist nun in der Lage effizient im Feldeinsatz zur Charakterisierung des atmosphärischen Aerosols betrieben zu werden, während CRISP eine schnelle und gezielte Auswertung der Daten ermöglicht.
Resumo:
Untersucht werden Prozess-Ergebnis-Zusammenhänge einer kognitiv-verhaltenstherapeutischen Gruppentherapie für Diabetes und Depression im Rahmen der DAD-Studie. rnAufgrund des Mangels an geeigneten Erhebungsinstrumenten der validen, ökonomischen und komplementären Sitzungsbewertung von Gruppenpatienten und -therapeuten wurden angelehnt an einen Patienten- (GTS-P) zwei Therapeutenstundenbögen entwickelt: der GTS-T zur Bewertung der Gesamtgruppe und der GTS-TP zur Bewertung einzelner Patienten. Die GTS-Bögen zeigen bei der Überprüfung der Testgüte insgesamt gute Itemparameter und Reliabilitäten. Das in den exploratorischen Faktorenanaylsen des GTS-P identifizierte zweifaktorielle Modell (1. wahrgenommene Zuversicht hinsichtlich der Gruppentherapie, 2. wahrgenommene persönliche Beteiligung) kann in den konfirmatorischen Faktorenanalysen bestätigt werden. Dazu wurden GTS-P-Daten aus einer Untersuchung mit Patienten mit somatoformen Störungen (Schulte, 2001) einbezogen. Den Ergebnissen der Item- und Faktorenanalysen folgend, wurden zwei Items des GTS-P und zwei weitere Items des GTS-T aus den Instrumenten ausgeschlossen. Für den GTS-T zeigt sich eine einfaktorielle, für den GTS-TP eine zum GTS-P parallele zweifaktorielle Struktur. rnIn den Mehrebenenanalysen zur Vorhersage des Therapieergebnisses (Post-Depressionssymptomatik) zeigt sich die Skala Zuversicht des GTS-P zu Therapiebeginn (1.-4. Sitzung) kontrolliert an der Skala Beteiligung und der Prä-Symptomatik, als valider Prädiktor. Das Item 5 „Anregungen“ (Skala Zuversicht) und Item 2 „Aktive Mitwirkung“ (Skala Beteiligung) sind am stärksten an diesem Effekt beteiligt, da diese Itemkombination das Therapieergebnis ebenfalls valide vorhersagen kann. Die Prognose ist schon durch die Werte der ersten Gruppentherapiesitzungen in der Remoralisierungsphase (Howard et al., 1993) möglich und verbessert sich nicht bei Berücksichtigung aller 10 Gruppensitzungen. Die Therapeutenbögen zeigen keine prädiktive Validität. Bedeutsame Zusammenhänge der Patienten- und Therapeutenbewertungen finden sich lediglich für den GTS-P und GTS-TP. Weitere Prädiktoren, wie der Diabetestyp, Diabeteskomplikationen und die Adhärenz, konnten nicht zur Verbesserung der Vorhersage beitragen. Für sekundär überprüfte Kriterien gelang die Prognose lediglich für ein weiteres Maß der Depressionssymptomatik und für eine Gesamtbewertung der Gruppentherapie durch die Patienten zu Therapieende. Bei der deskriptiven Betrachtung der Prozessqualität der DAD-Gruppentherapien zeigen sich positive, über den Verlauf der Gruppe zunehmende und nach Therapiephasen differenzierbare Bewertungsverläufe. rnDie Ergebnisse der Studie sprechen für die Relevanz von unspezifischen Wirkfaktoren für das Therapieergebnis von kognitiv-behavioralen Gruppentherapien. Die von den Gruppenpatienten wahrgenommene Zuversicht und Beteiligung als Zeichen der Ansprechbarkeit auf die Therapie sollte mit Hilfe von Stundenbögen, wie den GTS-Bögen, von Gruppentherapeuten zur Prozessoptimierung und Prävention von Therapieabbrüchen und Misserfolgen beachtet werden. rn
Resumo:
Ein Tag ohne Internet ist für viele kaum vorstellbar. Das Spektrum der Internetnutzer ist breiter geworden und damit sind die Ansprüche an die Websites massiv angestiegen. Die Entscheidung auf einer Website zu bleiben oder auf einer anderen zu suchen fällt innerhalb von wenigen Sekunden. Diese Entscheidung ist sowohl vom Website-Design als auch von dem dargestellten Inhalt abhängig. Die Auswertung, wie schnell der Benutzer Online-Informationen finden und wie einfach er sie verstehen kann, ist die Aufgabe von Web-Usability-Testing. Für das Finden und Verstehen von Informationen sind die computertechnischen zusammen mit den linguistischen Aspekten zuständig. In der Usability-Forschung liegt jedoch der Fokus bislang weitgehend auf der Bewertung der computer¬linguistischen und ästhetischen Aspekte der Websites. In den Hintergrund gedrängt wurden dabei die linguistischen Aspekte. Im Vergleich sind diese weniger systematisch erforscht und in Usability-Richtlinien kaum zu finden. Stattdessen stößt man überwiegend auf allgemeine Empfehlungen. Motiviert davon hat die vorliegende Arbeit das Ziel, Die Web-Usability systematisch sowohl aus linguistischer als auch aus formaler Sicht zu erforschen. Auf linguistischer Ebene wurde in Anlehnung an die Zeichentheorie von Morris die Web-Usability analysiert und der Begriff Linguistische Web-Usability eingeführt. Auf Basis dieser Analyse sowie einer literaturstudie ‘literature review’ mehrerer Usability-Richtlinien wurde ein Kriterienkatalog entwickelt. Bei der Umsetzung dieses Kriterienkatalogs im Rahmen einer Usability-Studie wurde die Website der Universität Johannes Gutenberg-Universität Mainz (JGU) im Usability-Labor unter Anwendung der Methode Eye-Tracking zusammen mit der Think-Aloud-Methode und der Retrospective-Think-Aloud-Methode getestet. Die empirischen Ergebnisse zeigen, dass die linguistischen Usability-Probleme genau wie die formalen die Benutzer hindern, die gesuchten Informationen zu finden, oder zumindest ihre Suche verlangsamen. Dementsprechend sollten die linguistischen Perspektiven in die Usability-Richtlinien miteinbezogen werden.
Resumo:
I investigated the systematics, phylogeny and biogeographical history of Juncaginaceae, a small family of the early-diverging monocot order Alismatales which comprises about 30 species of annual and perennial herbs. A wide range of methods from classical taxonomy to molecular systematic and biogeographic approaches was used. rnrnIn Chapter 1, a phylogenetic analysis of the family and members of Alismatales was conducted to clarify the circumscription of Juncaginaceae and intrafamilial relationships. For the first time, all accepted genera and those associated with the family in the past were analysed together. Phylogenetic analysis of three molecular markers (rbcL, matK, and atpA) showed that Juncaginaceae are not monophyletic. As a consequence the family is re-circumscribed to exclude Maundia which is pro-posed to belong to a separate family Maundiaceae, reducing Juncaginaceae to include Tetroncium, Cycnogeton and Triglochin. Tetroncium is weakly supported as sister to the rest of the family. The reinstated Cycnogeton (formerly included in Triglochin) is highly supported as sister to Triglochin s.str. Lilaea is nested within Triglochin s. str. and highly supported as sister to the T. bulbosa complex. The results of the molecular analysis are discussed in combination with morphological characters, a key to the genera of the family is given, and several new combinations are made.rnrnIn Chapter 2, phylogenetic relationships in Triglochin were investigated. A species-level phylogeny was constructed based on molecular data obtained from nuclear (ITS, internal transcribed spacer) and chloroplast sequence data (psbA-trnH, matK). Based on the phylogeny of the group, divergence times were estimated and ancestral distribution areas reconstructed. The monophyly of Triglochin is confirmed and relationships between the major lineages of the genus were resolved. A clade comprising the Mediterranean/African T. bulbosa complex and the American T. scilloides (= Lilaea s.) is sister to the rest of the genus which contains two main clades. In the first, the widespread T. striata is sister to a clade comprising annual Triglochin species from Australia. The second clade comprises T. palustris as sister to the T. maritima complex, of which the latter is further divided into a Eurasian and an American subclade. Diversification in Triglochin began in the Miocene or Oligocene, and most disjunctions in Triglochin were dated to the Miocene. Taxonomic diversity in some clades is strongly linked to habitat shifts and can not be observed in old but ecologically invariable lineages such as the non-monophyletic T. maritima.rnrnChapter 3 is a collaborative revision of the Triglochin bulbosa complex, a monophyletic group from the Mediterranean region and Africa. One new species, Triglochin buchenaui, and two new subspecies, T. bulbosa subsp. calcicola and subsp. quarcicola, from South Africa were described. Furthermore, two taxa were elevated to species rank and two reinstated. Altogether, seven species and four subspecies are recognised. An identification key, detailed descriptions and accounts of the ecology and distribution of the taxa are provided. An IUCN conservation status is proposed for each taxon.rnrnChapter 4 deals with the monotypic Tetroncium from southern South America. Tetroncium magellanicum is the only dioecious species in the family. The taxonomic history of the species is described, type material is traced, and a lectotype for the name is designated. Based on an extensive study of herbarium specimens and literature, a detailed description of the species and notes on its ecology and conservation status are provided. A detailed map showing the known distribution area of T. magellanicum is presented. rnrnIn Chapter 5, the flower structure of the rare Australian endemic Maundia triglochinoides (Maundiaceae, see Chapter 1) was studied in a collaborative project. As the morphology of Maundia is poorly known and some characters were described differently in the literature, inflorescences, flowers and fruits were studied using serial mictrotome sections and scanning electron microscopy. The phylogenetic placement, affinities to other taxa, and the evolution of certain characters are discussed. As Maundia exhibits a mosaic of characters of other families of tepaloid core Alismatales, its segregation as a separate family seems plausible.
Resumo:
Performanzunterschiede zwischen verschiedenen Autokratietypen wie Monarchien, Militär-, Ein-Parteien- und begrenzten Mehr-Parteien-Regimen sind bis auf wenige Ausnahmen bisher relativ unerforscht. Deshalb widmet sich diese Arbeit folgenden Forschungsfragen: Gibt es Performanzunterschiede zwischen verschiedenen Autokratietypen? Wenn ja, wie gestalten sich diese und wie lassen sie sich erklären? Auf Grundlage der Selektoratstheorie von Bueno de Mesquite et al. wird die Hypothese aufgestellt, dass die Performanz politischer Regime mit der Größe der Winning Coalition steigt. Da verschiedene Autokratietypen unterschiedlich große Winning Coalitions haben, wird angenommen, dass es deutliche Performanzunterschiede zwischen diesen Typen gibt. Als Performanzkriterien dienen in dieser Arbeit wirtschaftlicher Wohlstand, soziale Sicherheit und ökologische Nachhaltigkeit. Aus diesen drei Kriterien wird zusätzlich ein Indikator allgemeiner Performanz gebildet. Die empirische Untersuchung erfolgt mit den Daten des Quality-of-Governement-Datensatzes und erstreckt sich über 140 autokratische Länder im Zeitraum von 1972 bis 2010. Die Daten werden mittels Time-Series-Cross-Section-Regressionen analysiert. Die Ergebnisse der Analysen entsprechen nur teilweise den Erwartungen. Die Größe der Winning Coalition wirkt positiv auf die wirtschaftliche Wohlfahrt und die soziale Sicherheit und damit auch auf die allgemeine Performanz aus. Entgegen den Erwartungen sinkt die ökologische Performanz jedoch mit steigender Größe der Winning Coalition. Auch die Befunde bezüglich der Performanz verschiedener Autokratietypen entsprechen nicht den Erwartungen. So sind Ein-Parteien-Regime insgesamt leistungsfähiger als Mehr-Parteien-Regime, Militär-Regime und Monarchien. Militär-Regime sind leistungsfähiger als Monarchien und tendenziell auch als Mehr-Parteien-Regime.
Resumo:
The conversion of dissipated heat into electricity is the basic principle of thermoelectricity. In this context, half-Heusler (HH) compounds are promising thermoelectric (TE) materials for waste heat recovery. They meet all the requirements for commercial TE applications, ranging from good efficiencies via environmentally friendliness to being low cost materials. This work focused on the TE properties of Ti0.3Zr0.35Hf0.35NiSn-based HH materials. This compound undergoes an intrinsic phase separation into a Ti-poor and Ti-rich HH phase during a rapid solidification process. The resulting dendritic microstructure causes a drastic reduction of the thermal conductivity, leading to higher TE efficiencies in these materials. The TE properties and temperature dependence of the phase-separated Ti0.3Zr0.35Hf0.35NiSn compound were investigated. The TE properties can be adjusted depending on the annealing treatment. The extension of annealing time for 21 days at 1000 °C revealed a reduction of the thermal conductivity and thus an enhancement of the TE performance in this sample. An increase of annealing temperature caused a change of the phase fraction ratio in favor of the Ti-rich phase, leading to an improvement of the electronic properties. rnInspired by the TE properties of the Ti0.3Zr0.35Hf0.35NiSn HH compound, the performance of different n- and p-type materials, realized via site substitution with donor and acceptor elements was examined. The fabrication of a TE n- and p-type material pair based on one starting compound can guarantee similar TE and mechanical properties and is enormous beneficial for device engineering. As donor dopants V, Nb and Sb were tested. Depending on the lattice position small doping levels were sufficient to attain distinct improvement in their TE efficiency. Acceptor-induced doping with Sc, Y and Co caused a change in the transport behavior from n- to p- type conduction, revealing the highest Seebeck coefficients obtained in the MNiSn system. rnThen, the long-term stability of an exemplary n- and p-type HH compound was proven. Surprisingly, the dendritic microstructure can be maintained even after 500 cycles (1700 h) from 373 to 873 K. The TE performance of both n- and p-type materials showed no significant change under the long-term treatment, indicating the extraordinary temperature stability of these compounds. Furthermore both HH materials revealed similar temperature-dependence of their mechanical properties. This work demonstrates the excellent suitability of phase-separated HH materials for future TE applications in the moderate temperature range.rn
Resumo:
Diese Arbeit stellt eine ausführliche Studie fundamentaler Eigenschaften der Kalzit CaCO3(10.4) und verwandter Mineraloberflächen dar, welche nicht nur durch die Verwendung von Nichtkontakt Rasterkraftmikroskopie, sondern hauptsächlich durch die Messung von Kraftfeldern ermöglicht wurde. Die absolute Oberflächenorientierung sowie der hierfür zugrundeliegende Prozess auf atomarer Skala konnten erfolgreich für die Kalzit (10.4) Oberfläche identifiziert werden.rnDie Adsorption chiraler Moleküle auf Kalzit ist relevant im Bereich der Biomineralisation, was ein Verständnis der Oberflächensymmetrie unumgänglich macht. Die Messung des Oberflächenkraftfeldes auf atomarer Ebene ist hierfür ein zentraler Aspekt. Eine solche Kraftkarte beleuchtet nicht nur die für die Biomineralisation wichtige Wechselwirkung der Oberfläche mit Molekülen, sondern enthält auch die Möglichkeit, Prozesse auf atomarer Skala und damit Oberflächeneigenschaften zu identifizieren.rnDie Einführung eines höchst flexiblen Messprotokolls gewährleistet die zuverlässige und kommerziell nicht erhältliche Messung des Oberflächenkraftfeldes. Die Konversion der rohen ∆f Daten in die vertikale Kraft Fz ist jedoch kein trivialer Vorgang, insbesondere wenn Glätten der Daten in Frage kommt. Diese Arbeit beschreibt detailreich, wie Fz korrekt für die experimentellen Bedingungen dieser Arbeit berechnet werden können. Weiterhin ist beschrieben, wie Lateralkräfte Fy und Dissipation Γ erhalten wurden, um das volle Potential dieser Messmethode auszureizen.rnUm Prozesse auf atomarer Skala auf Oberflächen zu verstehen sind die kurzreichweitigen, chemischen Kräfte Fz,SR von größter Wichtigkeit. Langreichweitige Beiträge müssen hierzu an Fz angefittet und davon abgezogen werden. Dies ist jedoch eine fehleranfällige Aufgabe, die in dieser Arbeit dadurch gemeistert werden konnte, dass drei unabhängige Kriterien gefunden wurden, die den Beginn zcut von Fz,SR bestimmen, was für diese Aufgabe von zentraler Bedeutung ist. Eine ausführliche Fehleranalyse zeigt, dass als Kriterium die Abweichung der lateralen Kräfte voneinander vertrauenswürdige Fz,SR liefert. Dies ist das erste Mal, dass in einer Studie ein Kriterium für die Bestimmung von zcut gegeben werden konnte, vervollständigt mit einer detailreichen Fehleranalyse.rnMit der Kenntniss von Fz,SR und Fy war es möglich, eine der fundamentalen Eigenschaften der CaCO3(10.4) Oberfläche zu identifizieren: die absolute Oberflächenorientierung. Eine starke Verkippung der abgebildeten Objekte