145 resultados para Hilfe
Resumo:
To study the behaviour of beam-to-column composite connection more sophisticated finite element models is required, since component model has some severe limitations. In this research a generic finite element model for composite beam-to-column joint with welded connections is developed using current state of the art local modelling. Applying mechanically consistent scaling method, it can provide the constitutive relationship for a plane rectangular macro element with beam-type boundaries. Then, this defined macro element, which preserves local behaviour and allows for the transfer of five independent states between local and global models, can be implemented in high-accuracy frame analysis with the possibility of limit state checks. In order that macro element for scaling method can be used in practical manner, a generic geometry program as a new idea proposed in this study is also developed for this finite element model. With generic programming a set of global geometric variables can be input to generate a specific instance of the connection without much effort. The proposed finite element model generated by this generic programming is validated against testing results from University of Kaiserslautern. Finally, two illustrative examples for applying this macro element approach are presented. In the first example how to obtain the constitutive relationships of macro element is demonstrated. With certain assumptions for typical composite frame the constitutive relationships can be represented by bilinear laws for the macro bending and shear states that are then coupled by a two-dimensional surface law with yield and failure surfaces. In second example a scaling concept that combines sophisticated local models with a frame analysis using a macro element approach is presented as a practical application of this numerical model.
Resumo:
Die thermische Verarbeitung von Lebensmitteln beeinflusst deren Qualität und ernährungsphysiologischen Eigenschaften. Im Haushalt ist die Überwachung der Temperatur innerhalb des Lebensmittels sehr schwierig. Zudem ist das Wissen über optimale Temperatur- und Zeitparameter für die verschiedenen Speisen oft unzureichend. Die optimale Steuerung der thermischen Zubereitung ist maßgeblich abhängig von der Art des Lebensmittels und der äußeren und inneren Temperatureinwirkung während des Garvorgangs. Das Ziel der Arbeiten war die Entwicklung eines automatischen Backofens, der in der Lage ist, die Art des Lebensmittels zu erkennen und die Temperatur im Inneren des Lebensmittels während des Backens zu errechnen. Die für die Temperaturberechnung benötigten Daten wurden mit mehreren Sensoren erfasst. Hierzu kam ein Infrarotthermometer, ein Infrarotabstandssensor, eine Kamera, ein Temperatursensor und ein Lambdasonde innerhalb des Ofens zum Einsatz. Ferner wurden eine Wägezelle, ein Strom- sowie Spannungs-Sensor und ein Temperatursensor außerhalb des Ofens genutzt. Die während der Aufheizphase aufgenommen Datensätze ermöglichten das Training mehrerer künstlicher neuronaler Netze, die die verschiedenen Lebensmittel in die entsprechenden Kategorien einordnen konnten, um so das optimale Backprogram auszuwählen. Zur Abschätzung der thermische Diffusivität der Nahrung, die von der Zusammensetzung (Kohlenhydrate, Fett, Protein, Wasser) abhängt, wurden mehrere künstliche neuronale Netze trainiert. Mit Ausnahme des Fettanteils der Lebensmittel konnten alle Komponenten durch verschiedene KNNs mit einem Maximum von 8 versteckten Neuronen ausreichend genau abgeschätzt werden um auf deren Grundlage die Temperatur im inneren des Lebensmittels zu berechnen. Die durchgeführte Arbeit zeigt, dass mit Hilfe verschiedenster Sensoren zur direkten beziehungsweise indirekten Messung der äußeren Eigenschaften der Lebensmittel sowie KNNs für die Kategorisierung und Abschätzung der Lebensmittelzusammensetzung die automatische Erkennung und Berechnung der inneren Temperatur von verschiedensten Lebensmitteln möglich ist.
Resumo:
Gegenstand der vorliegenden Arbeit ist die Analyse verschiedener Formalismen zur Berechnung binärer Wortrelationen. Dabei ist die Grundlage aller hier ausgeführten Betrachtungen das Modell der Restart-Automaten, welches 1995 von Jancar et. al. eingeführt wurde. Zum einen wird das bereits für Restart-Automaten bekannte Konzept der input/output- und proper-Relationen weiterführend untersucht, sowie auf Systeme von zwei parallel arbeitenden und miteinander kommunizierenden Restart-Automaten (PC-Systeme) erweitert. Zum anderen wird eine Variante der Restart-Automaten eingeführt, die sich an klassischen Automatenmodellen zur Berechnung von Relationen orientiert. Mit Hilfe dieser Mechanismen kann gezeigt werden, dass einige Klassen, die durch input/output- und proper-Relationen von Restart Automaten definiert werden, mit den traditionellen Relationsklassen der Rationalen Relationen und der Pushdown-Relationen übereinstimmen. Weiterhin stellt sich heraus, dass das Konzept der parallel kommunizierenden Automaten äußerst mächtig ist, da bereits die Klasse der proper-Relationen von monotonen PC-Systemen alle berechenbaren Relationen umfasst. Der Haupteil der Arbeit beschäftigt sich mit den so genannten Restart-Transducern, welche um eine Ausgabefunktion erweiterte Restart-Automaten sind. Es zeigt sich, dass sich insbesondere dieses Modell mit seinen verschiedenen Erweiterungen und Einschränkungen dazu eignet, eine umfassende Hierarchie von Relationsklassen zu etablieren. In erster Linie seien hier die verschiedenen Typen von monotonen Restart-Transducern erwähnt, mit deren Hilfe viele interessante neue und bekannte Relationsklassen innerhalb der längenbeschränkten Pushdown-Relationen charakterisiert werden. Abschließend wird, im Kontrast zu den vorhergehenden Modellen, das nicht auf Restart-Automaten basierende Konzept des Übersetzens durch Beobachtung ("Transducing by Observing") zur Relationsberechnung eingeführt. Dieser, den Restart-Transducern nicht unähnliche Mechanismus, wird im weitesten Sinne dazu genutzt, einen anderen Blickwinkel auf die von Restart-Transducern definierten Relationen einzunehmen, sowie eine obere Schranke für die Berechnungskraft der Restart-Transducer zu gewinnen.
Resumo:
Livestock production contributes substantially to the livelihoods of poor rural farmers in Pakistan; strengthening pastoral communities plays an imperative role in the country’s thrive for poverty alleviation. Intestinal helminths constitute a major threat for pastoral livestock keepers in the whole country because chronic infestation leads to distinct losses in livestock productivity, particularly the growth of young animals. Synthetic anthelmintics have long been considered the only effective way of controlling this problem but high prices, side effects and chemical residues/toxicity problems, or development of resistance, lead to their very limited use in many pastoral systems. Additionally, poor pastoralists in remote areas of Pakistan hardly have access to appropriate anthelmintic drugs, which are also relatively expensive due to the long routes of transportation. The search for new and more sustainable ways of supporting livestock keepers in remote areas has given rise to studies of ethno-botanicals or traditional plant-based remedies to be used in livestock health care. Plant-based remedies are cheap or free of cost, environmentally safe and generally create no problem of drug resistance; they thus might substitute allopathic drugs. Furthermore, these remedies are easily available in remote areas and simple to prepare and/or administer. Cholistan desert is a quite poor region of Pakistan and the majority of its inhabitants are practicing a nomadic life. The region’s total livestock population (1.29 million heads) is almost twice that of the human population. Livestock husbandry is the primordial occupation of the communities and traditionally wealth assessment was based on the number of animals, especially goats and sheep, owned by an individual. Fortunately, about 60% of this desert region is richly endowed with highly adapted grasses, shrubs and trees. This natural flora has a rich heritage of scientifically unexplored botanical pharmacopoeia. Against this background, the present research project that was conducted under the umbrella of the International Center for Development and Decent Work at Kassel University, focused on a development aspect: in the Cholistan desert region it was firstly examined how pastoralists manage their livestock, which major health problems they face for the different animal species, and which of the naturally occurring plants they use for the treatment of animal diseases (Chapter 2). For this purpose, a baseline survey was carried out across five locations in Cholistan, using a structured questionnaire to collect data from 100 livestock farmers (LF) and 20 local healers (LH). Most of LF and LH were illiterate (66%; 70%). On average, LH had larger herds (109 animals) than LF (85 animals) and were more experienced in livestock husbandry and management. On average LF spent about 163 Euro per year on the treatment of their livestock, with a huge variability in expenditures. Eighty-six traditional remedies based on 64 plants belonging to 43 families were used. Capparaceae was the botanical family with the largest number of species used (4), followed by Chenopodiaceae, Poaceae, Solanaceae and Zygophyllaceae (3). The plants Capparis decidua (n=55 mentions), Salsola foetida (n=52), Suaeda fruticosa (n=46), Haloxylon salicornicum (n=42) and Haloxylon recurvum (n=39) were said to be most effective against the infestations with gastrointestinal parasites. Aerial parts (43%), leaves (26%), fruits (9%), seeds and seed oils (9%) were the plant parts frequently used for preparation of remedies, while flowers, roots, bulbs and pods were less frequently used (<5%). Common preparations were decoction, jaggery and ball drench; oral drug administration was very common. There was some variation in the doses used for different animal species depending on age, size and physical condition of the animal and severity of the disease. In a second step the regionally most prevalent gastrointestinal parasites of sheep and goats were determined (Chapter 3) in 500 animals per species randomly chosen from pastoral herds across the previously studied five localities. Standard parasitological techniques were applied to identify the parasites in faecal samples manually collected at the rectum. Overall helminth prevalence was 78.1% across the 1000 animals; pure nematode infestations were most prevalent (37.5%), followed by pure trematode (7.9%), pure cestode (2.6%) and pure protozoa infestations (0.8%). Mixed infestations with nematodes and trematodes occurred in 6.4% of all animals, mixed nematode-cestode infestations in 3.8%, and all three groups were found in 19.1% of the sheep and goats. In goats more males (81.1%) than females (77.0%) were infested, the opposite was found in sheep (73.6% males, 79.5% females). Parasites were especially prevalent in suckling goats (85.2%) and sheep (88.5%) and to a lesser extent in young (goats 80.6%, sheep 79.3%) and adult animals (goats 72.8%, sheep 73.8%). Haemonchus contortus, Trichuris ovis and Paramphistomum cervi were the most prevalent helminths. In a third step the in vitro anthelmintic activity of C. decidua, S. foetida, S. fruticosa, H. salicornicum and H. recurvum (Chapter 2) was investigated against adult worms of H. contortus, T. ovis and P. cervi (Chapter 3) via adult motility assay (Chapter 4). Various concentrations ranging from 7.8 to 500 mg dry matter/ml of three types of extracts of each plant, i.e. aqueous, methanol, and aqueous-methanol (30:70), were used at different time intervals to access their anthelmintic activity. Levamisol (0.55 mg/ml) and oxyclozanide (30 mg/ml) served as positive and phosphate-buffered saline as negative control. All extracts exhibited minimum and maximum activity at 2 h and 12 h after parasite exposure; the 500 mg/ml extract concentrations were most effective. Plant species (P<0.05), extract type (P<0.01), parasite species (P<0.01), extract concentration (P<0.01), time of exposure (P<0.01) and their interactions (P<0.01) had significant effects on the number of immobile/dead helminths. From the comparison of LC50 values it appeared that the aqueous extract of C. decidua was more potent against H. contortus and T. ovis, while the aqueous extract of S. foetida was effective against P. cervi. The methanol extracts of H. recurvum were most potent against all three types of parasites, and its aqueous-methanol extract was also very effective against T. ovis and P. cervi. Based on these result it is concluded that the aqueous extract of C. decidua, as well as the methanol and aqueous-methanol extract of H. recurvum have the potential to be developed into plant-based drugs for treatment against H. contortus, T. ovis and P. cervi infestations. Further studies are now needed to investigate the in vivo anthelmintic activity of these plants and plant extracts, respectively, in order to develop effective, cheap and locally available anthelmintics for pastoralists in Cholistan and neighboring desert regions. This will allow developing tangible recommendations for plant-based anthelminthic treatment of sheep and goat herds, and by this enable pastoralists to maintain healthy and productive flocks at low costs and probably even manufacture herbal drugs for marketing on a regional scale.
Resumo:
Since its beginning in 1999, the Bologna Process has influenced various aspects of higher education in its member countries, e.g., degree structures, mobility, lifelong learning, social dimension and quality assurance. The social dimension creates the focus of this research. The social dimension entered the Bologna Process agenda in 2001. Despite a decade of reforms, it somehow remained as a vague element and received low scholarly attention. This research addresses to this gap. Firstly, different meanings of the social dimension according to the major European policy actors are analysed. Unfolding the understandings of the actors revealed that the social dimension is mostly understood in terms reflecting the diversity of population on the student body accessing to, progressing in and completing higher education, with a special concern on the underrepresented groups. However, it is not possible to observe a similar commonality concerning the actual policy measures to achieve this goal. Divergence occurs with respect to the addressed underrepresented groups, i.e., all underrepresented groups or people without formal qualifications and mature learners, and the values and institutional interests traditionally promoted by these actors. Secondly, the dissertation discusses the reflection of this social dimension understanding at the national level by looking at cases of Finland, Germany and Turkey. The in-depth analyses show an awareness of the social dimension among most of the national Bologna Process actors and a common understanding of the social dimension goals. However, this understanding has not triggered action in any of the countries. The countries acted on areas which they defined problematic before the Bologna Process. Finally, based on these findings the dissertation discusses the social dimension as a policy item that managed to get into the Bologna Process agenda, but neither grew into an implementable policy, nor drop out of it. To this aim, it makes use of the multiple streams framework and explains the low agenda status social dimension with: i. the lack of a pressing problem definition: the lack of clearly defined indicators and a comprehensive monitoring system, ii. the lack of a viable solution alternative: the proposal of developing national strategies and action plans closed the way to develop generic guidelines for the social dimension to be translated into national policy processes, iii. low political perceptivity: the recent trends opt for increasing efficiency, excellence and exclusiveness discourses rather than ensuring equality and inclusiveness iv. high constraints: the social dimension by definition requires more public funding which is less appreciated and strategic constraints of the actors in allocating their resources v. the type of policy entrepreneur: the social dimension is promoted by an international stakeholder, the European Students’ Union, instead of the ministers responsible for higher education The social dimension remains a policy item in the Bologna Process which is noble enough to agree but not urgent enough to act on.
Resumo:
Das Beurteilen von Schülerleistungen, das Erfassen ihrer unterschiedlichen Lernvoraussetzungen und das Beobachten und Beurteilen von Schülerlernprozessen stellen wichtige Handlungsroutinen im Alltag von Lehrkräften dar. Dem gegenüber steht die Tatsache, dass sich noch bis vor einigen Jahren nur wenige Arbeiten und Projekte explizit mit der Diagnosekompetenz von angehenden und praktizierenden Lehrkräften beschäftigt haben. Die vorliegende Arbeit, die ein Teilprojekt innerhalb eines größeren interdisziplinären Projektes zur Diagnosekompetenz von Lehramtsstudierenden darstellt, möchte einen Beitrag leisten zur Debatte um die diagnostische Kompetenz. Ihr Hauptaugenmerk richtet sie dabei auf die diagnostische Kompetenz von Biologie-Lehramtsstudierenden im Bereich der naturwissenschaftlichen Erkenntnisgewinnung. Im Zuge der notwenigen theoretischen Konzeptionierung präsentiert die Arbeit einen im Gesamtprojekt erarbeiteten Vorschlag für eine Modellierung der (fachbezogenen) Diagnosekompetenz von Lehramtsstudierenden. Ergänzend dazu findet im Rahmen der Arbeit eine Klärung der in der Forschungsliteratur oftmals uneinheitlich benutzten Begrifflichkeiten zur diagnostischen Kompetenz statt. Weiterhin wird ein Vergleich von verschiedenen in der Literatur verwendeten Konzeptualisierungsansätzen vorgenommen. Da in der Forschungsliteratur keine geeigneten Instrumente zum Erfassen der hier im Speziellen betrachteten diagnostischen Kompetenz vorlagen, mussten diese im Rahmen der Arbeit neu entwickelt werden. Ein wesentlicher Ansatz dabei war eine Unterscheidung von status- und prozessdiagnostischen Kompetenzen und die Entwicklung entsprechend geeigneter Erhebungsinstrumente. Die neu entwickelten Testinstrumente wurden bei zwei Studierenden-Jahrgängen an verschiedenen Zeitpunkten im Verlauf ihres Studiums eingesetzt. Im Test zur Messung ihrer statusdiagnostischen Kompetenzen hatten die Studierenden Schülerlösungen aus dem Bereich der naturwissenschaftlichen Erkenntnisgewinnung zu analysieren und zu beurteilen. Dabei zeigte sich als ein zentraler Befund, dass die Probanden das Leistungsniveau der Schülerlösungen umso schlechter korrekt beurteilen konnten, je höher es war. Weiterhin wurde deutlich, dass die diagnostische Kompetenz der Lehramtsstudierenden für die typischen Teilschritte im Rahmen der Erkenntnisgewinnung unterschiedlich hoch ausgeprägt ist. So fiel es ihnen am leichtesten, die Schülerlösungen zum Teilschritt „Datenanalyse“ zu beurteilen, wohingegen sie deutlich größere Schwierigkeiten hatten, das Leistungsniveau der Schülerlösungen zum Teilschritt „Planen einer Untersuchung“ korrekt einzuschätzen. Im Test zum Erfassen der prozessdiagnostischen Fähigkeiten der Studierenden wurde ihnen ein Experimentierprozess zweier Schüler vorgelegt. Auffällig in Bezug auf ihre diagnostische Kompetenz waren die massiven Schwierigkeiten beim Beurteilen des Schülerumgangs mit den Variablen. Im Vergleich der status- und prozessdiagnostischen Fähigkeiten erwies sich die Prozessdiagnostik als die für die Studierenden schwierigere Tätigkeit. Ein wesentliches Plus in Bezug auf das Gewinnen von Informationen über die diagnostische Kompetenz brachte der Einsatz von Videoanalysen zusätzlich zu den beschriebenen paper-pencil basierten Testinstrumenten. Über eine Analyse der Testbearbeitungsprozesse der Studierenden wurde untersucht, aus welchen Beweggründen und auf Basis welcher Annahmen diese zu ihren diagnostischen Urteilen gekommen waren. Mit Hilfe der auf diese Weise gewonnenen prozessbezogenen Informationen war es möglich, die spezifischen Schwierigkeiten der Studierenden beim Diagnostizieren genauer herauszuarbeiten. Neben den genannten Untersuchungen zu den Ausprägungen von diagnostischer Kompetenz im Bereich Erkenntnisgewinnung wurden im Rahmen der Arbeit auch ihre postulierten Bedingungsfaktoren untersucht: das fachmethodische Vorwissen der Studierenden und ihr Wissenschaftsverständnis. Nur für ersteres konnte ein wenngleich geringer, aber doch signifikanter Zusammenhang festgestellt werden. Ergänzend zum Blick auf die möglichen Bedingungsfaktoren wurden auch Zusammenhänge zwischen der diagnostischen Kompetenz und verschiedenen ausgewählten Personen- und Kontextvariablen untersucht (z.B. die von den Studierenden gewählte Lehramtsform, ihre Fächerkombination, ihr Geschlecht und ihre Abiturnote). Von allen untersuchten Variablen erwies sich die von den Studierenden gewählte Lehramtsform als derjenige Faktor, der den wenngleich ebenfalls nur schwachen, aber doch durchgängig vorhandensten Zusammenhang aufwies. Zusätzlich zu der (objektiven) Erfassung der diagnostischen Kompetenzen mit Hilfe der Messinstrumente präsentiert die Arbeit Ergebnisse zum Verlauf der subjektiven Selbsteinschätzungen der Studierenden hinsichtlich ihres diagnostischen Wissens. Es zeigte sich, dass die Studierenden das Studium für die Ausbildung ihrer diagnostischen Kompetenz als weniger hilfreich empfinden als für den Aufbau der anderen Bereiche ihres Professionswissens. Die Arbeit endet mit einem Fazit zu den Testinstrument-Entwicklungen und den in den verschiedenen Untersuchungen gewonnenen Befunden, verbunden mit einem Ausblick auf mögliche Implikationen für die Lehrerausbildung und sich anschließende Forschungsvorhaben.
Resumo:
Mit Hilfe der Vorhersage von Kontexten können z. B. Dienste innerhalb einer ubiquitären Umgebung proaktiv an die Bedürfnisse der Nutzer angepasst werden. Aus diesem Grund hat die Kontextvorhersage einen signifikanten Stellenwert innerhalb des ’ubiquitous computing’. Nach unserem besten Wissen, verwenden gängige Ansätze in der Kontextvorhersage ausschließlich die Kontexthistorie des Nutzers als Datenbasis, dessen Kontexte vorhersagt werden sollen. Im Falle, dass ein Nutzer unerwartet seine gewohnte Verhaltensweise ändert, enthält die Kontexthistorie des Nutzers keine geeigneten Informationen, um eine zuverlässige Kontextvorhersage zu gewährleisten. Daraus folgt, dass Vorhersageansätze, die ausschließlich die Kontexthistorie des Nutzers verwenden, dessen Kontexte vorhergesagt werden sollen, fehlschlagen könnten. Um die Lücke der fehlenden Kontextinformationen in der Kontexthistorie des Nutzers zu schließen, führen wir den Ansatz zur kollaborativen Kontextvorhersage (CCP) ein. Dabei nutzt CCP bestehende direkte und indirekte Relationen, die zwischen den Kontexthistorien der verschiedenen Nutzer existieren können, aus. CCP basiert auf der Singulärwertzerlegung höherer Ordnung, die bereits erfolgreich in bestehenden Empfehlungssystemen eingesetzt wurde. Um Aussagen über die Vorhersagegenauigkeit des CCP Ansatzes treffen zu können, wird dieser in drei verschiedenen Experimenten evaluiert. Die erzielten Vorhersagegenauigkeiten werden mit denen von drei bekannten Kontextvorhersageansätzen, dem ’Alignment’ Ansatz, dem ’StatePredictor’ und dem ’ActiveLeZi’ Vorhersageansatz, verglichen. In allen drei Experimenten werden als Evaluationsbasis kollaborative Datensätze verwendet. Anschließend wird der CCP Ansatz auf einen realen kollaborativen Anwendungsfall, den proaktiven Schutz von Fußgängern, angewendet. Dabei werden durch die Verwendung der kollaborativen Kontextvorhersage Fußgänger frühzeitig erkannt, die potentiell Gefahr laufen, mit einem sich nähernden Auto zu kollidieren. Als kollaborative Datenbasis werden reale Bewegungskontexte der Fußgänger verwendet. Die Bewegungskontexte werden mittels Smartphones, welche die Fußgänger in ihrer Hosentasche tragen, gesammelt. Aus dem Grund, dass Kontextvorhersageansätze in erster Linie personenbezogene Kontexte wie z.B. Standortdaten oder Verhaltensmuster der Nutzer als Datenbasis zur Vorhersage verwenden, werden rechtliche Evaluationskriterien aus dem Recht des Nutzers auf informationelle Selbstbestimmung abgeleitet. Basierend auf den abgeleiteten Evaluationskriterien, werden der CCP Ansatz und weitere bekannte kontextvorhersagende Ansätze bezüglich ihrer Rechtsverträglichkeit untersucht. Die Evaluationsergebnisse zeigen die rechtliche Kompatibilität der untersuchten Vorhersageansätze bezüglich des Rechtes des Nutzers auf informationelle Selbstbestimmung auf. Zum Schluss wird in der Dissertation ein Ansatz für die verteilte und kollaborative Vorhersage von Kontexten vorgestellt. Mit Hilfe des Ansatzes wird eine Möglichkeit aufgezeigt, um den identifizierten rechtlichen Probleme, die bei der Vorhersage von Kontexten und besonders bei der kollaborativen Vorhersage von Kontexten, entgegenzuwirken.
Resumo:
Hyperpolarisations-aktivierte zyklonukleotid-gesteuerte (HCN) Kanäle übernehmen wichtige Funktionen in der Regulation der Herz- und Neuronalaktivität und können über einen dualen Mechanismus aus Membranhyperpolarisation und der Bindung von zyklischen Nukleotiden aktiviert werden. Ein großes Ziel der aktuellen Forschung ist die Entwicklung neuartiger Inhibitoren, die einer Fehlregulation der Kanäle entgegenwirken. In der vorliegenden Arbeit wurde die Regulation von HCN Kanälen durch zyklische Nukleotide im Detail analysiert, indem erstmals ein umfassender Screen mit 48 unterschiedlichen Zyklonukleotid-Analoga am C-terminalen Bereich (bestehend aus C-Linker und Zyklonukleotid-Bindedomäne) der drei Isoformen HCN1, HCN2 und HCN4 durchgeführt wurde. Mit Hilfe eines Fluoreszenzpolarisations-Assays wurde der Einfluss von Modifikationen in der Base, der Ribose und dem zyklischen Phosphat auf die Bindungsaffinitäten innerhalb der Zyklonukleotid-Bindedomäne untersucht. Zyklonukleotid-Analoga mit Modifikationen an der Position 7 und 8 der Base verschoben die apparenten Affinitäten im Vergleich zu den beiden natürlich vorkommenden Zyklonukleotiden cAMP und cGMP vom mikromolaren in den nanomolaren Bereich. Selektiv für die HCN4 Isoform erwiesen sich Zyklonukleotid-Analoga mit Modifikationen an der Position 6 der Base, während Modifikationen an der Position 8 der Base zu einer höheren Affinität für die HCN2 Isoform führten. Im Gegensatz zu HCN2 und HCN4 zeigte die HCN1 Isoform besonders hohe Affinitäten für Zyklonukleotid-Analoga mit Modifikationen an der Position 8 von cGMP. Eine Substitution der 2’-Hydroxylgruppe erlaubte keine Bindung an die HCN Kanäle. Mit 7-CH-cAMP konnte ein hochaffines Bindemolekül für HCN Kanäle identifiziert werden, denn der Austausch eines Stickstoffs gegen eine CH-Einheit an Position 7 der Base führte zu einer 100-fachen Steigerung der Affinität im Vergleich zu cAMP. In Übereinstimmung mit der hochaffinen Bindung konnte in kinetischen Analysen eine langsamere Dissoziationsrate für 7-CH-cAMP gemessen werden. Anhand thermodynamischer Messungen konnte ein entropisch favorisierter Bindungsmodus für 7-CH-cAMP im Vergleich zu cAMP identifiziert werden. Basierend auf einer Kristallstruktur des HCN4 CNBD:7-CH-cAMP Komplexes (2,5 Å) lässt sich erklären, dass 7-CH-cAMP durch seine höhere Lipohilie im Vergleich zu cAMP eine stärkere Präferenz für das hydrophobe Netzwerk zwischen Protein und Base besitzt. In detaillierten, vergleichenden Analysen mit den zyklonukleotidbindenden Proteinen PKA Typ I und II, hPKGIβ und Epac 1 und 2 konnte gezeigt werden, dass 7-CH-cAMP die höchsten Affinitäten für die drei Isoformen der HCN Kanäle aufwies. Somit könnte sich 7-CH-cAMP als vielversprechender Kandidat für die selektive Regulation von HCN Kanälen in vitro und in lebenden Zellen eignen und möglicherweise einen wichtigen Beitrag als krankheitsrelevanter Effektor leisten.
Resumo:
Albert Einstein gilt wohl als einer der genialsten Menschen und größten Physiker aller Zeiten. Das Zitat „Es ist schwieriger, eine vorgefasste Meinung zu zertrümmern als ein Atom.“ stammte ebenfalls von ihm und verweist auf eine schier unmögliche Aufgabe. Doch bedenkt man, dass zu Einsteins Zeiten der griechische Begriff „atomos“, der dem „Atom“ seinen Namen verlieh, noch „unteilbar“ meinte, konnte (vermutlich einige Zeit nach diesem Zitat) das Unmögliche doch möglich gemacht werden. Heute, im Zeitalter der Atomenergie ist Einsteins Zitat wohl nur noch zu belächeln. Wie aber verhält es sich nun mit den vorgefassten Meinungen, mit den Stereotypen und Vorurteilen? Ist es auch heute, trotz fokussierter Anti-Diskriminierungs-Arbeit, noch nicht möglich, diese zu überwinden? Zunächst möchte ich die Begrifflichkeiten „Stereotyp“ und „Vorurteil“ in Abhängigkeit voneinander definieren. Danach soll erörtert werden, ob Stereotypen komplett erfunden sind, oder vielleicht doch einen wahren Kern besitzen. In Anlehnung an die hier dargestellten Ergebnisse, möchte ich schließlich zeigen, wie aus einem kulturellen Unterschied ein Vorurteil werden kann. Dabei stehen psychologische und soziologische Erscheinungen wie Ethnozentrismus, Wahrnehmungskonstruktion, kognitive Vereinfachung, Kategorisierung, Sozialisation und das Phänomen der selbsterfüllenden Prophezeiung im Zentrum meiner Aufmerksamkeit und sollen durch die Schilderung verschiedener Experimente ergänzt und bewiesen werden. Das vierte Kapitel soll der Relevanz von Stereotypen und Vorurteilen gelten. Dabei werde ich zuerst auf ihre allgemeinen Wirkungen und Folgen eingehen, da Vorurteile gesellschaftlich oft verpönt sind, kaum aber jemand weiß, warum. Danach möchte ich auch die Bedeutsamkeit von vorgefassten Meinungen auf Seite der Lehrer betrachten und gleichzeitig zeigen, dass niemand frei von Vorurteilen zu sein scheint. Schließlich soll auch die bildungspolitische Wichtigkeit der Abschaffung von Intoleranzen beleuchtet werden. Dazu werde ich beispielhaft die fächerübergreifenden Kompetenzen sowie den Lehrplan Französisch untersuchen. Nachdem nun die Entstehung von Vorurteilen sowie deren Bedeutung erläutert wurde, soll im darauffolgenden Kapitel gezeigt werden, wie diese abgeschafft werden können und wo die Gestaltpädagogik ansetzt. Dazu werde ich die zwölf gestaltpädagogischen Prinzipien nach Burow (1988) theoretisch auf ihre Möglichkeiten und Grenzen in der Vorurteilsüberwindung untersuchen. Diese Theorie soll schließlich auch in die Praxis umgesetzt werden. Demzufolge möchte ich in Kapitel 6 meine Erfahrungen mit Gestaltpädagogik, angewendet auf die Vorurteile französischer Schüler über Deutsche, darstellen und herausfinden, ob es tatsächlich möglich ist, Stereotypen mit Hilfe dieser Erziehungswissenschaft zu verhindern.
Resumo:
In the process of urbanization, natural and semi-natural landscapes are increasingly cherished as open space and recreational resource. Urban rivers are part of this kind of resource and thus play an important role in managing urban resilience and health. Employing the example of Tianjin, this doctoral dissertation research aims at learning to understand how to plan and design for the interface zones between urban water courses and for the land areas adjacent to such water courses. This research also aims at learning how to link waterfront space with other urban space in order to make a recreational space system for the benefit of people. Five questions of this dissertation are: 1) what is the role of rivers in spatial and open space planning? 2) What are the human needs regarding outdoor open space? 3) How do river and water front spatial structures affect people's recreational activities? 4) How to define the recreational service of urban river and waterfront open space? 5) How might answering these question change planning and design of urban open space? Quantitative and qualitative empirical approaches were combined in this study for which literature review and theoretical explorations provide the basis. Empirical investigations were conducted in the city of Tianjin. The quantitative approach includes conducting 267 quantitative interviews, and the qualitative approach includes carrying out field observations and mappings. GIS served to support analysis and visualization of empirical information that was generated through this study. By responding to the five research questions, findings and lessons include the following: 1) In the course of time rivers have gained importance in all levels and scales of spatial planning and decision making. Regarding the development of ecological networks, mainly at national scale, rivers are considered significant linear elements. Regarding regional and comprehensive development, river basins and watersheds are often considered as the structural link for strategic ecological, economic, social and recreational planning. For purposes of urban planning, particularly regarding recreational services in cities, the distribution of urban open spaces often follows the structure of river systems. 2) For the purpose of classifying human recreational needs that relate to outdoor open space Maslow's hierarchy of human needs serves as theoretical basis. The classes include geographical, safety, physiological, social and aesthetic need. These classes serve as references while analyzing river and waterfront open space and other kinds of open space. 3) Regarding the question how river and waterfront spatial structures might affect people's recreational activities, eight different landscape units were identified and compared in the case study area. Considering the thermal conditions of Tianjin, one of these landscape units was identified as affording the optimal spatial arrangement which mostly meets recreational needs. The size and the shape of open space, and the plants present in an open space have been observed as being most relevant regarding recreational activities. 4) Regarding the recreational service of urban river and waterfront open space the results of this research suggest that the recreational service is felt less intensively as the distances between water 183 front and open space user’s places of residence are increasing. As a method for estimating this ‘Service Distance Effect’ the following formula may be used: Y = a*ebx. In this equation Y means the ‘Service Distance’ between homes and open space, and X means the percentage of the people who live within this service distance. Coefficient "a" represents the distance of the residential area nearest to the water front. The coefficient "b" is a comprehensive capability index that refers to the size of the available and suitable recreational area. 5) Answers found to the questions above have implications for the planning and design of urban open space. The results from the quantitative study of recreational services of waterfront open space were applied to the assessment of river-based open space systems. It is recommended that such assessments might be done employing the network analysis function available with any GIS. In addition, several practical planning and designing suggestions are made that would help remedy any insufficient base for satisfying recreational needs. The understanding of recreational need is considered helpful for the proposing planning and designing ideas and for the changing of urban landscapes. In the course of time Tianjin's urban water system has shrunk considerably. At the same time rivers and water courses have shaped Tianjin's urban structure in noticeable ways. In the process of urbanization water has become increasingly important to the citizens and their everyday recreations. Much needs to be changed in order to improve recreational opportunities and to better provide for a livable city, most importantly when considering the increasing number of old people. Suggestions made that are based on results of this study, might be implemented in Tianjin. They are 1) to promote the quality of the waterfront open space and to make all linear waterfront area accessible recreational spaces. Then, 2), it is advisable to advocate the concept of green streets and to combine green streets with river open space in order to form an everyday recreational network. And 3) any sound urban everyday recreational service made cannot rely on only urban rivers; the whole urban structure needs to be improved, including adding small open space and optimize the form of urban communities, finally producing a multi-functional urban recreational network.
Resumo:
Das Dissertationsprojekt befasst sich mit dem synthetischen Potential acyclischer Diaminocarbene (aDACs; Verbindungen des Typs (R2N)2C:) und prüft dabei insbesondere deren Reaktivität gegenüber Kohlenmonoxid (CO). Grundlage des Vorhabens ist eine Aufsehen erregende Beobachtung von SIEMELING et al. (Chem. Sci., 2010, 1, 697): Der Prototyp der aDACs, das Bis(diisopropylamino)carben, ist in der Lage CO zu aktivieren. Dabei wird zunächst ein intermediäres Keten des Typs (R2N)2C=C=O generiert, das in Folge einer intramolekularen Reaktion ein stabiles β-Lactamderivat ausbildet. Eine Sensation, schließlich ging man in der Fachwelt bis dato davon aus, dass cyclische und acyclische Diaminocarbene für derartige Reaktionen nicht elektrophil genug seien. Ziel der vorliegenden Arbeit war eine systematische Auslotung der aDAC-Reaktivität gegenüber CO. Im Rahmen der durchgeführten Untersuchungen ist es gelungen, das Feld der literaturbekannten aDACs von 12 auf 19 zu erweitern. Die Carbene, ihre Formamidiniumsalz-Vorstufen, sowie die korrespondierenden Carben–Metallkomplexe konnten in den meisten Fällen vollständig charakterisiert werden. Es konnte gezeigt werden, dass manche Isopropyl-substituierten aDACs in inertem Lösemittel einer β-Umlagerung unterliegen sowie, dass eine solche intramolekulare Reaktivität innerhalb dieser Substanzklasse nicht trivial ist: Zum Teil ganz ähnlich substituierte aDACs sind in Lösung unbegrenzt haltbar. Die Reaktivität gegenüber CO konnte an etwa einem Dutzend aDACs studiert werden. Lediglich in einem Fall zeigte sich das Carben inert. In einem sterisch überfrachteten Fall entstand in einer regio- und stereoselektiven Folgereaktion ein biologisch aktives bicyclisches β-Lactamderivat. In den meisten Fällen ergaben sich betainische Oxyallylspezies des Typs [(R2N)2C]2CO als intermolekulare Folgeprodukte. Die mechanistische Scheidelinie zwischen intra- und intermolekularer Keten-Folgereaktion konnte anhand der Carbonylierung sterisch ganz ähnlich substituierter aDACs aufgezeigt werden. Die gewonnenen Erkenntnisse liefern deutliche Hinweise darauf, dass das chemische Verhalten der aDACs gegenüber CO eher durch feinste elektronische Unterschiede als durch den sterischen Anspruch der Carben-Substituenten beeinflusst wird. Mit Hilfe von In-Situ-IR-Spektroskopie gelang es in manchen Fällen, bei denen eine Isolierung der Carbonylierungsprodukte nicht glückte, die Generierung hochreaktiver Oxyallylspezies zu belegen. Weiterhin konnte im Zuge der In-Situ-IR-Studien das zuvor nur postulierte Diaminoketen als primäres Carbonylierungsprodukt dingfest gemacht werden (ν(C=C=O) = 2085 1/cm): Es handelt sich hierbei um den ersten experimentellen Nachweis eines Diaminoketens überhaupt.
Resumo:
Die Trocknung ist eines der am häufigsten verwendeten Verfahren, um die Haltbarkeit von landwirtschaftlichen Gütern zu verlängern. Von den vielen gebräuchlichen Trocknungsarten ist die Konvektionstrocknung, die Luft als Energie- und Feuchteträger verwendet, weiterhin die wichtigste. Trotz ihrer Nachteile und ihres hohen spezifischen Energieverbrauchs sind Satztrockner für die Getreide-, Kräuter- und Heutrocknung noch weit verbreitet. Ferner werden Konvektionstrockner gemeinhin zur künstlichen Trocknung eingesetzt. Diese Arbeit ist Teil eines Forschungsprojekts, welches eine sorptionsgestützte solare Trocknung von landwirtschaftlichen Gütern untersucht. Bei dieser wird kühle feuchte Luft in Kontakt mit einer konzentrierten hygroskopischen Salzlösung gebracht. Während dieses Prozesses wird die Luft entfeuchtet und mit Hilfe der freigesetzten Verdampfungsenthalpie erwärmt. Die Anwendung dieses Verfahrens zur Trocknung landwirtschaftlicher Güter ist besonders interessant für Produkte, die bei niedrigen Temperaturen verarbeitet werden, um ihre Qualität nicht negativ zu beeinflussen. Bei allen energieintensiven Prozessen und vor allem bei der Verwendung von Solarenergie ist ein effizienter Energieverbrauch äußerst wichtig für den technischen und ökonomischen Erfolg. Eine ungleichmäßige Trocknung ist oftmals bei Satztrocknern zu beobachten, was die Energieeffizienz negativ beeinflusst. Aus diesem Grund lag im agrartechnischen Teil des Projekts der Schwerpunkt auf der Trocknung bei niedrigen Temperaturen und geringer Luftfeuchte, die der Sorptionsprozess liefert, sowie auf der Verbesserung der Luftverteilung und der Gleichmäßigkeit der Trocknung in lockeren und verdichteten Schüttungen. Es wurden Dünnschicht-Trocknungsexperminente für Blattsellerie bei unterschiedlichen Lufttemperaturen und unterschiedlicher relativer Luftfeuchte durchgeführt. Die Ergebnisse zeigen eindeutig, dass nicht nur die Lufttemperatur einen großen Einfluss auf die Trocknungsgeschwindigkeit hat, sondern auch die relative Luftfeuchte. Dies ist vor allem bei niedrigen Temperaturen, wie sie vom Sorptionssystem geliefert werden, der Fall. Um die Luftverteilung und Gleichmäßigkeit der Trocknung lockerer Schüttungen zu untersuchen, wurde ein Kistentrockner experimentell und in Strömungssimulationen getestet. Die Leistung des ursprünglichen Trockners wurde signifikant durch einfache Veränderungen des Designs verbessert. Diese stellten einen gleichmäßigeren Luftstrom durch das Produkt sicher. Die Trocknung von Heu-Rundballen stellt eine Herausforderung dar, da diese sehr stark verdichtet sind und die Dichte innerhalb eines Ballens stark schwankt. Strömungs- und Trocknungssimulationen so wie experimentelle Messungen zeigten, dass das Trocknerdesign einen großen Einfluss auf die Gleichmäßigkeit der Trocknung hat. Bei den einfachsten Trocknervarianten war die Verteilung auch bei optimal gepressten Ballen unzureichend, während komplexere Trockner eine gleichmäßigere Trocknung erzielten. Jedoch werden auch hier die Ergebnisse stark von der Verteilung der Dichte im Ballen beeinflusst, welche in der Praxis weiterhin nicht ideal ist. Abschließend wurde, um den Trocknungsfortschritt zu überwachen, eine Methodik getestet, bei der zur Messung des durchschnittlichen aktuellen Feuchtegehalts des Produktes psychrometrische Messungen und Messungen des Luftstroms in kurzen Abständen durchgeführt wurden. Die Menge des tatsächlich entfernten Wassers stimmte in den meisten Fällen gut mit der geschätzten Menge überein. Jedoch hängt der Erfolg dieser Methode stark von der Genauigkeit der Messfühler ab.
Resumo:
Die Unternehmensumwelt, mit der sich Kreditinstitute heutzutage konfrontiert sehen und mit der sie sich harmonisieren müssen, ist durch tiefgreifende Veränderungen und eine fortschreitende Dynamik gekennzeichnet. Mit den sog. Non- und Nearbanks sind neue Wettbewerber in den Markt eingetreten, und die Subprime-Finanzkrise aus dem Jahr 2008 hat zu einer tiefgreifenden Vertrauenskrise bei den Konsumenten geführt. Die Möglichkeiten der Kreditinstitute, sich diesen Herausforderungen zu stellen, sind durch die angebotene Generaltauschware Geld, den fehlenden gesetzlichen Innovationsschutz sowie vergleichbare Vertriebsformen und Marktauftritte eher begrenzt. Es stellt sich somit die Frage, wie sich Kreditinstitute künftig nachhaltig im Wettbewerb behaupten können. Die Lösung wird im Konsumgüterbereich gesehen: Zur Überwindung der vorherrschenden technischen Produkthomogenität werden Marken dort erfolgreich als Strategie eingesetzt, um sich vom Wettbewerb zu differenzieren, den Kunden gezielt anzusprechen und preisliche Spielräume zu generieren. Der vorliegenden Dissertation liegen somit zwei zentrale Hypothesen zugrunde: H1) Im Bankbereich bestehen vergleichbare Sättigungseffekte und eine hohe Angebotshomogenität wie im Konsumgüterbereich. H2) Die Adaption von Markenführungs-konzepten aus dem Konsumgüterbereich generiert einen positiven Beitrag zur Profilierung, Differenzierung und Vertrauensbildung von Kreditinstituten. In einem deskriptiv-konzeptionellen Ansatz werden zunächst konstituierende Merkmale und Funktionen einer Marke erarbeitet. Mit Hilfe einer interdisziplinären Metaanalyse wird anschließend ein integratives holistisches Markenverständnis geschaffen und erklärt, wie und warum Marken funktionieren. Dabei wird insbesondere die Rolle der Marke als „Invisible Hand“ im gesellschaftlichen System gewürdigt, die die Handlungen der Individuen beeinflusst und dabei in einem zirkulär-kausalen Prozess von der Gesellschaft bzw. Zielgruppe selbst konstituiert wird. Mit dem Versuch, das Markenphänomen mit Hilfe der evolutorischen Ökonomik zu erklären, wird ferner Neuland betreten. Im Weiteren werden theoretische Konzepte der Markenführung diskutiert und bewertet. Auf Basis dieses neu geschaffenen Fundaments werden im Hauptteil der Arbeit sowohl Markenstrategien aus dem Konsumgüterbereich als auch Instrumente zur operativen Implementierung der Markenstrategie in einem diskursiven Ansatz mittels erarbeiteter Plausibilitätskriterien eingehend auf ihre Übertragbarkeit auf Kreditinstitute hin analysiert und bewertet. Als Ergebnis der Arbeit wurden H1 vollumfänglich und H2 mit Einschränkungen bestätigt. Diese Einschränkungen ergeben sich hauptsächlich dadurch, dass durch die Synchronität von Leistungserstellung und Leistungsinanspruchnahme eine Abkoppelung der Marke vom Unter-nehmen kaum darstellbar ist. Mehrmarkenstrategien sowie spitze Positionierungen sind bei den vorherrschenden Universalinstituten somit quasi nicht umsetzbar. Weitere Limitierungen resultieren aus der Vertrauensempfindlichkeit der Bankleistung, die Einschränkungen bei Markendehnungen (Produktlinien- und Transferstrategien) zur Folge hat. Die operativen Markeninstrumente aus dem Konsumgüterbereich hingegen sind weitestgehend anwendbar. Auch bei dem Einsatz der Controllinginstrumente zur Steuerung der Markenführung werden keine Einschränkungen gesehen. In einem Ausblick wird abschließend gezeigt, dass sich die Wettbewerbsintensität der Kreditinstitute nicht entspannen wird, es werden eher Tendenzen ihrer weiteren Verschärfung ausgemacht.
Resumo:
In der algebraischen Kryptoanalyse werden moderne Kryptosysteme als polynomielle, nichtlineare Gleichungssysteme dargestellt. Das Lösen solcher Gleichungssysteme ist NP-hart. Es gibt also keinen Algorithmus, der in polynomieller Zeit ein beliebiges nichtlineares Gleichungssystem löst. Dennoch kann man aus modernen Kryptosystemen Gleichungssysteme mit viel Struktur generieren. So sind diese Gleichungssysteme bei geeigneter Modellierung quadratisch und dünn besetzt, damit nicht beliebig. Dafür gibt es spezielle Algorithmen, die eine Lösung solcher Gleichungssysteme finden. Ein Beispiel dafür ist der ElimLin-Algorithmus, der mit Hilfe von linearen Gleichungen das Gleichungssystem iterativ vereinfacht. In der Dissertation wird auf Basis dieses Algorithmus ein neuer Solver für quadratische, dünn besetzte Gleichungssysteme vorgestellt und damit zwei symmetrische Kryptosysteme angegriffen. Dabei sind die Techniken zur Modellierung der Chiffren von entscheidender Bedeutung, so das neue Techniken entwickelt werden, um Kryptosysteme darzustellen. Die Idee für das Modell kommt von Cube-Angriffen. Diese Angriffe sind besonders wirksam gegen Stromchiffren. In der Arbeit werden unterschiedliche Varianten klassifiziert und mögliche Erweiterungen vorgestellt. Das entstandene Modell hingegen, lässt sich auch erfolgreich auf Blockchiffren und auch auf andere Szenarien erweitern. Bei diesen Änderungen muss das Modell nur geringfügig geändert werden.
Resumo:
Das Kleine Immergrün (Vinca minor L.) aus der Familie der Apocynaceae ist in der Krautschicht sommergrüner Wälder Südeuropas heimisch, während es in weiten Teilen Mitteleuropas als wahrscheinlich von den Römern eingeführter, altetablierter Archäophyt gilt. Noch heute ist die Art als Kulturreliktzeiger häufig in der Umgebung ehemaliger römischer Tempel und mittelalterlicher Burgruinen zu finden. Zudem wird V. minor in zahlreichen Gartenformen kultiviert. In Teilen Nordamerikas wird der Chamaephyt hingegen als eingeführte, invasive Art eingestuft, die die einheimische Flora und Fauna bedroht. Da V. minor Stolonen bilden kann und in Mitteleuropa selten reife Samen beobachtet werden, wurde bislang vermutet, dass V. minor Bestände in Mitteleuropa sich rein asexuell erhalten. Diese Hypothese wurde aber bisher nie mit molekularen Methoden überprüft. Auch zur Populationsgenetik der Art ist bisher nichts bekannt. Aus diesen Gegebenheiten resultieren folgende Fragen: Wie hoch ist die genetische Diversität von V. minor im submediterranen Ursprungsgebiet im Vergleich zu Mitteleuropa und Nordamerika und wie ist sie in den Großregionen jeweils strukturiert? Korreliert die anthropogen bedingte Einführung mit einer genetischen Verarmung in Mitteleuropa? Gibt es in mitteleuropäischen und nordamerikanischen Populationen Hinweise auf sexuelle Reproduktion, oder erfolgt eine rein vegetative Vermehrung? Gibt es genetische Hinweise für Auswilderungen aus Gärten? Lassen sich die historischen Ausbreitungswege der Art von Süd- nach Mitteleuropa, innerhalb Mitteleuropas sowie nach Nordamerika rekonstruieren? Mikrosatellitenmarker stellen für populationsgenetische Analysen heute die weitaus gängigste Technik dar. Als codominante, locusspezifische Marker erlauben sie die präzise Erfassung populationsgenetischer Parameter zur Quantifizierung der genetischen Diversität und Struktur, die Abschätzung von Genfluss, und die Detektion von Klonen. Mikrosatelliten sind mit Hilfe neuer DNA-Sequenziertechniken (NGS) unproblematisch und kosteneffektiv isolierbar. Im Rahmen der hier vorliegenden Arbeit wurden daher zunächst nukleäre und plastidäre Mikrosatellitenmarker über NGS-454-Sequenzierung entwickelt. Etablierung von nukleären und plastidären Mikrosatellitenmarkern Zur Etablierung artspezifischer nukleärer Mikrosatellitenmarker wurden zwei Verfahren angewendet. Zum einen wurde in einer öffentlich zugänglichen, über 454-Sequenzierung der cDNA von V. minor gewonnene und im 'sequence read archive' von NCBI hinterlegte Datenbank (Akzessionsnummer SRX039641) nach Mikrosatelliten gesucht. Zum anderen wurde die 454-Technologie eingesetzt, um in Kooperation mit Dr. Bruno Huettel vom Max-Planck-Institut für Pflanzenzüchtung in Köln genomische Sequenzdaten anhand einer V. minor-Akzession zu generieren und aus diesen Mikrosatelliten zu etablieren. Eine Assemblierung der 723.230 cDNA-Sequenzen mit insgesamt 387 Mbp erzielte eine Reduzierung auf 267.199 Unigenes (267 Mbp), die der genomischen Sequenzen eine Reduzierung von 43.565 (18 Mbp) auf 24.886 Sequenzen (13,7 Mbp). Die assemblierten Datensätze enthielten 25.253 bzw. 1.371 Mikrosatellitenloci aus Mono- bis Hexa-Nukleotidmotiven. Die Effizienz der Assemblierung war somit v. a. bei den cDNA-Sequenzen gering. Da die Etablierung von Mikrosatellitenloci aber auch auf Basis redundanter Sequenzen möglich ist, sofern ein manueller Abgleich der selektierten Sequenzen erfolgt, wurde auf eine weitere Optimierung der Assemblierung verzichtet. Aus den so identifizierten Loci wurden 60 (cDNA) bzw. 35 (genomische DNA) Di-, Tri- und Tetranukleotidmotive selektiert, flankierende Primer synthetisiert und in umfangreichen Pilotstudien getestet. Jeweils neun der Loci erwiesen sich als robuste, polymorphe Marker. Die sieben vielversprechendsten Marker wurden schließlich für die populationsgenetische Untersuchung ausgewählt. Auch die Etablierung plastidärer Mikrosatellitenmarker erfolgte über zwei Ansätze. Zum einen wurde das Plastom von V. minor aus dem genomischen 454-Sequenzdatensatz rekonstruiert und auf das Vorhandensein von (A)n/(T)n-Wiederholungseinheiten hin untersucht. Für 14 der 17 dabei detektierten Loci konnten Primer entworfen werden. In einer Pilotstudie erwiesen sich vier der Loci als funktionelle, polymorphe Marker. Zusätzlich wurden die zehn universellen (ccmp) Primerpaare zur Amplifikation plastidärer Mikrosatellitenloci aus Weising & Gardner (1999) getestet, von denen zwei als funktionelle, polymorphe Marker für die Hauptstudie geeignet waren. Populationsgenetische und phylogeographische Analyse Ein Probenset aus insgesamt 967 Pflanzenproben aus 70 Populationen aus Mitteleuropa inkl. der Alpen, den Regionen südlich und westlich der Alpen sowie aus Kanada und 18 Cultivaren wurde mittels der sieben neu etablierten, artspezifischen nukleären Mikrosatellitenmarker populationsgenetisch untersucht. Dabei erwiesen sich 21 der 31 untersuchten Populationen südlich und westlich der Alpen als genetisch hoch divers, die übrigen 10 zeigten vor allem klonales Wachstum und wiesen jeweils ein bis drei Multilocus-Genotypen (MLGs) auf. In 30 der 36 mitteleuropäischen Vorkommen (inkl. der Alpen) sowie den kanadischen Beständen war jeweils nur ein einziger MLG präsent. Drei der Vorkommen zeigten mit einem Heterozygotendefizit einzelner Stichproben Hinweise auf Geitonogamie, an drei weiteren Vorkommen traten jeweils zwei sowohl hinsichtlich der Blütenfarbe und -architektur als auch des MLG unterschiedliche Linien auf. An einem dieser Vorkommen wurde ein Hybrid-Genotyp detektiert, bisher der einzige molekulare Hinweis auf sexuelle Reproduktion im engeren Sinn in Mitteleuropa. Die 967 Stichproben konnten insgesamt 310 individuellen Multilocus-Genotypen (MLGs) zugeordnet werden. Davon traten 233 MLGs nur in jeweils einer einzigen Probe auf, die 77 verbleibenden wurden in mehreren Akzessionen detektiert. Aus einer Simulation ging hervor, dass diese wiederholten MLGs auf rein asexuelle Reproduktion zurückzuführen sind. In Mitteleuropa waren lediglich 18 MLGs vertreten, von denen sieben an bis zu zehn, mehrere hundert Kilometer entfernten Fundorten auftraten. In Nordamerika gehören gar alle drei untersuchten Populationen dem gleichen Klon an. In Mitteleuropa traten in zwei Fällen somatische Mutationen zwischen zwei MLGs auf, sodass diese zu klonalen Linien (Multilocus-Linien; MLL) zusammengefasst werden konnten. Sieben der 18 Cultivare weisen einen zu diversen Freilandvorkommen identischen Genotypen auf. Die Ergebnisse reflektieren den durch die anthropogene Selektion bedingten genetischen Flaschenhalseffekt, in dessen Folge der Genpool von Vinca minor in Mitteleuropa gegenüber der südeuropäischen Heimat der Art stark reduziert wurde. Sexuelle Reproduktion in Mitteleuropa zwischen zwei genetisch unterschiedlichen Individuen ist nur an wenigen Standorten überhaupt möglich und da meist nur ein Klon am gleichen Fundort auftritt, sehr selten. Die Ausbreitung erfolgt zudem rein anthropogen und über erhebliche Strecken, wie die identischen MLGs an unterschiedlichen, weit auseinander liegenden Fundorten belegen. Südlich und westlich der Alpen hingegen ist sexuelle Reproduktion über Samen häufig. Aus den kalkulierten Neighbour-Joining Phenogrammen, Neighbour-Nets und der Bayes'schen Analyse ergibt sich prinzipiell eine Abtrennung der in Norditalien und Slowenien gelegenen Vorkommen von den übrigen Regionen, wohingegen mehrere mittelitalienische Populationen mit denen westlich der Alpen und den mitteleuropäischen Vorkommen in einer engeren genetischen Beziehung stehen. Da die mittelitalienischen Vorkommen jedoch Anzeichen anthropogenen Ursprungs aufweisen (Monoklonalität, Lage an Wegrändern oder Burgen), lassen sich diese Populationen nur bedingt als potentielle Ursprungspopulationen ableiten. Die genetisch diversen norditalienischen und slowenischen Populationen sind trotz der Fragmentierung der norditalienischen Waldvegetation insgesamt nur moderat voneinander differenziert (FST=0,14, GST=0,17, RST=0,19). Die AMOVA ergab, dass über 80 % der genetischen Variation auf Variation innerhalb der Populationen zurückzuführen ist. Dennoch ergab sich aus einem Mantel-Test eine zunehmende genetische Differenzierung mit zunehmender geographischer Distanz (r=0,59). Die phylogeographische Analyse wurde mit Hilfe von vier plastidären Mikrosatellitenmarkern aus der 454-Sequenzierung und zwei universellen plastidären ccmp-Mikrosatellitenloci durchgeführt. Untersucht wurden jeweils eine bis sechs Stichproben aus den o. g. 70 Populationen, die 18 Cultivare sowie zusätzliche Einzelproben aus mehreren Ländern, deren DNA aus Herbarbelegen isoliert wurde. Insgesamt wurden 297 Proben untersucht. Unter diesen wurden in der phylogeographischen Analyse sieben plastidäre Haplotypen detektiert. In der Region südlich der Alpen traten sechs Haplotypen auf (H1 bis H5, H7), in Mitteleuropa vier Haplotypen (H1 bis H3, H6), in Nordamerika, Großbritannien, Schweden und Nordamerika trat hingegen nur ein einziger Haplotyp H1 auf. Die beiden häufigsten Haplotypen nahmen im berechneten Haplotypen-Netzwerk periphere Positionen ein und waren durch sieben Mutationschritte voneinander getrennt. Südlich der Alpen ergab sich jedoch keine klare geographische Verteilung der Haplotypen. Auch die plastidären Daten indizieren somit eine geringere genetische Diversität in den Gebieten, wo V. minor eingeführt wurde. Der geographische Ursprung der mitteleuropäischen Vorkommen in Südeuropa konnte nicht abschließend geklärt werden, jedoch lässt das Vorkommen von zwei weit entfernten Haplotypen den Schluss zu, dass Vinca minor mindestens zweimal (und vermutlich mehrfach) unabhängig in Mitteleuropa eingeführt wurde.