155 resultados para Historische und Antiquarische Gesellschaft zu Basel.
Resumo:
Lobbyisten versuchen vermehrt Einfluss auf Schulen auszuüben. So berichtete das ZDF in seinem Magazin „frontal21“ darüber, wie Wirtschaftslobbyisten sich an Schulen engagieren. Diese versuchen Inhalte zu setzen und damit den Unterricht nachhaltig zu beeinflussen. So fordert beispielsweise das wirtschaftsnahe Institut für Ökonomische Bildung (IÖB) ein eigenständiges Unterrichtsfach „Wirtschaft“, um die vermeintlichen „[Wissens]lücke der Allgemeinbildung“ der Schülerinnen und Schüler (SuS) zu schließen (vgl. IÖB o.J., S. 16). Kritiker befürchten hingegen, dass ein Unterrichtsfach „Wirtschaft“ ein Fach sein wird, in dem ökonomische Themengebiete einseitig behandelt werden (vgl. Hedtke 2011, S. 14). Dies ist nur ein Beispiel, wie eine Lobbygruppe versucht, die eigenen Interessen im Bildungssektor mit Hilfe der Politik durchzusetzen. Lobbyismus in der Schule besitzt aber noch weitere Instrumente um Einfluss auszuüben. Diese Arbeit setzt sich mit kostenlos zur Verfügung gestellten Unterrichtsmaterialien Dritter, als ein mögliches Instrument der Einflussnahme, auseinander. Es wird untersucht, inwiefern angebotene Materialien einen manipulativen Charakter besitzen und wie transparent die Herausgeber auftreten. Dabei werden exemplarisch von drei unterschiedlichen Anbietern Unterrichtsmaterialien recherchiert, analysiert und anhand eines zuvor erstellten Beurteilungsleitfadens bewertet. Dies geschieht unter der Berücksichtigung des eigenen Anspruchs der Anbieter. Der thematische Schwerpunkt wird auf das Thema Mindestlohn gelegt, da diese Thematik sehr aktuell ist und immer wieder zu kontroversen Debatten in der Öffentlichkeit führt. Um eine Vielfallt an Positionen darzustellen, wird zur Analyse jeweils ein Anbieter aus dem arbeitnehmernahen, arbeitgebernahen und öffentlichen Lager ausgewählt. Das Themengebiet ist eines der wenigen, bei dem es zu einer Materialangebotsüberschneidung von allen drei Anbietern kommt.
Resumo:
Das Ziel dieser Arbeit war, ein ökonomisch ausgerichtetes Zuchtprogramm für die bedrohte Schweinerasse „Bunte Bentheimer“ (BB) zu entwickeln. Ein wesentlicher Bestandteil von Zuchtprogrammen für bedrohte Rassen ist der Erhalt der genetischen Diversität durch Vermeidung von weiterer Inzucht und Reduzierung des Inzuchtzuwachses. In Kapitel 2 wurde die Population der BB unter Berücksichtigung der vorhandenen Abstammungsinformationen in Bezug auf genetische Diversität, Inzucht und Verwandtschaft analysiert. Durchschnittlicher Inzuchtkoeffizient und Inzuchtzunahme lagen mit 12% und 1,66% pro Generation auf einem relativ hohen Niveau. Effektive Maßnahmen zur Inzuchtkontrolle sollten daher im Zuchtprogramm integriert werden. Durch die Bestimmung optimaler Einsatzfrequenzen selektierter Tiere ist es möglich, Inzucht zu kontrollieren und gleichzeitig Zuchtfortschritt zu generieren. Das konnte am Beispiel von Zuchtwerten für Fruchtbarkeitsmerkmale gezeigt werden. Basierend auf den optimalen Einsatzfrequenzen der selektierten Elterntiere wurden zur weiteren Reduzierung der Inzucht in der Folgegeneration konkrete Anpaarungspläne erstellt. Die Anpaarungen wurden unter Berücksichtigung der Natursprungproblematik durch Festlegung von Zuchtgebieten konzipiert. Die Umsetzung dieser wurde allerdings erschwert durch die eingeschränkte Verfügbarkeit der Eber. Schließt man die künstliche Besamung als mögliche Alternative aus, müssten die Zuchtgebiete so optimiert werden, dass die vorgeschlagenen Anpaarungen auch in die Praxis umgesetzt werden können. Die Gestaltung eines Zuchtprogramms erfordert zudem die Verfügbarkeit populationsgenetischer Parameter. Für die Fruchtbarkeitsmerkmale „Anzahl lebend geborener Ferkel“ (NBA) und „abgesetzter Ferkel“ (NW) lagen die Heritabilitäten bei jeweils 12%. Auch die genetischen Varianzen lagen in einem guten Bereich, so dass für beide Merkmale Zuchtfortschritt durch Selektion möglich ist. In Kapitel 3 wurden genetische Parameter für Fleischleistungs- und Fleischqualitätsmerkmale geschätzt. Als Grundlage dafür dienten sowohl in vivo Ultraschallmessungen am lebenden Tier, als auch Messungen, die am Schlachtkörper bzw. an einer Fleischprobe erfolgten. Zucht-, Mast- und Schlachttiere wurden am RYR1 Genort typisiert, um Allel-Substitutionseffekte zu schätzen. Die quantitativen- und molekulargenetischen Ansätze wurden genutzt, um darauf aufbauend zur Verbesserung der Fleischqualität Zuchtstrategien zu entwickeln. Für das Fleischqualitätsmerkmal intramuskulärer Fettgehalt (IMF) wurde die höchste Heritabilität von 0,78 bei einer ebenfalls hohen additiv-genetischen Varianz geschätzt. Dennoch ist die Erfassung dieses Merkmals mit einem hohen Kostenaufwand verbunden. Ein mögliches Hilfsmerkmal ist die Rückenspeckdicke (BFiv), die direkt am Selektionskandidaten erfasst werden kann. Die genetische Korrelation zwischen beiden Merkmale lag bei rg = 0,39. Die Assoziationsstudie am RYR1 Genort zeigte, dass die Anwesenheit des ungewünschten Allels einen negativen Effekt auf IMF hatte, d.h. der IMF Gehalt wurde reduziert. Darauf aufbauend wurde eine Zuchtstrategie entwickelt, die Phänotyp (BFiv) und Marker-Informationen am RYR1 Genort des Selektionskandidaten kombiniert. Durch die zusätzliche Berücksichtigung der Marker-Informationen konnten eine höhere Genauigkeit und ein höherer Zuchtfortschritt erzielt werden im Vergleich zu einer Strategie, die nur auf den phänotypischen Leistungen basiert. In Kapitel 4 wurde basierend auf einer Konsumentenbefragung mit integrierter Verkostung von Fleischproben indirekt die Zahlungsbereitschaft für unterschiedliche Fleischqualitäten erfasst. Alle Fleischproben wurden zusätzlich hinsichtlich der instrumental erfassbaren Fleischqualität untersucht und durch ein geschultes Panel im Sensorik Labor in Bezug auf die sensorische Qualität beurteilt. Außerdem wurde die direkte Zahlungsbereitschaft für unterschiedliche Qualitätsausprägungen der optischen Merkmale „Fleischfarbe“, „Fleischmarmorierung“ und „Fleischsaftverlust“ anhand von Fotografien erfasst. Die Ergebnisse dieser Befragung wurden genutzt, um ökonomischen Gewichte abzuleiten. Für IMF ergab sich ein hohes ökonomisches Gewicht von 57,52 € pro Merkmalseinheit bei dem aktuellen Populationsdurchschnitt von 1,57%. Mit steigendem Populationsmittel sinkt das ökonomische Gewicht und nähert sich ab einem Mittelwert von 2% einem Wert von 0,00 €. Aus züchterischer Sicht wäre daher ein durchschnittlicher IMF Gehalt von mindestens 2% anzustreben. Für Fleischqualitätsmerkmale, die beim Verzehr nicht direkt erfassbar sind, wie die Farbhelligkeit oder der Tropfsaftverlust, ist die direkte Methode zur Erfassung der Zahlungsbereitschaft (basierend auf den Fotografien) der indirekten (basierend auf der Verkostung) vorzuziehen, um ökonomische Gewichte abzuleiten. Genetische Parameter ökonomischen Gewichte wurden anschließend für Zuchtplanungsrechnungen verwendet. Im Zuchtziel wurde in erster Linie die Fruchtbarkeit (NBA) und Fleischqualität (IMF) berücksichtigt. Zur Vermeidung hoher Kosten und der besseren Anpassung an kleine Betriebsstrukturen wurde u.a. ein Zuchtprogramm modelliert, das auf in vivo Ultraschallmessungen für BFiv basiert, direkt erfasst am Selektionskandidaten. Der Züchtungsgewinn für diese Zuchtstrategie lag bei 35,92 € pro Tier. Der Zuchtfortschritt für IMF war allerdings erwartungsgemäß geringer als bei direkter Selektion auf das Merkmal. Basierend auf den Ergebnissen wurde in Kapitel 5 ein Entwurf für ein Zuchtprogramm erstellt, das die notwendigen Maßnahmen zur Inzuchtkontrolle beinhaltet und Zuchtfortschritt für rassespezifische Merkmale zulässt. Zudem ist dieser Entwurf angepasst an die kleinen Betriebsstrukturen und die unterschiedlichen Vermarktungsstrategien, die sich bereits etabliert haben.
Resumo:
Ziel dieser Dissertation ist es, eine Klasse interferometrischer Messgeräte zu charakterisieren und weiter zu entwickeln. Die Modulation der optischen Weglänge (OPLM) im Referenzarm eines interferometrischen Messsystems ist ein anpassungsfähiger Ansatz. Sie ist zur Messung von Oberflächenprofilen mit einer Auflösung bis in den sub-nm-Bereich bei einem Messbereich von bis zu 100 Mikrometer geeignet. Wird ein statisches Messobjekt gemessen, tritt durch die Modulation im Referenzarm am Detektor ein periodisches Interferenzmuster auf. Dies ist in der unten stehenden Abbildung schematisch dargestellt. Bei einer Veränderung des Abstandes zwischen Objekt und Messgerät kann aus der Phasen- und/oder Hüllkurvenverschiebung im Interferenzmuster die Abstandsänderung abgeleitet werden.Im Rahmen der Arbeit sind zwei funktionsfähige OPLM-Messsysteme entwickelt, aufgebaut und getestet worden. Diese demonstrieren, dass der OPLM-Ansatz ein breites Spektrum an Anwendungen durch eine optische Messung abdecken kann. Allerdings zeigen sich an den Messsystemen auch die Limitierungen des OPLM-Ansatzes. Die Systeme basieren auf einer Punktmessung mittels einer fasergekoppelten Sonde sowie auf einer linienförmigen Messung durch eine Zeilenkamera. Um eine hohe laterale Auflösung zu erzielen, wird die Zeilenkamera mit einem Mikroskop kombiniert. Damit flächenhaft gemessen werden kann, ist es notwendig, Messobjekt und Sensor zueinander zu verschieben. Daher wird eine Theorie entwickelt, unter welchen Randbedingungen bewegte Objekte von einem OPLM-Messsystem aufgelöst werden können. Die Theorie wird anschließend experimentell überprüft und bestätigt. Für die Auswertung der bei der Modulation der optischen Weglänge entstehenden Interferenzen existieren bereits einige erprobte Algorithmen, welche auf ihre Eignung hin untersucht und mit selbst entwickelten Algorithmen verglichen werden. Auch wird darauf eingegangen, welches die zentralen Herausforderungen bei der Planung von OPLM-Interferometern sind und wie sich insbesondere die Wahl des Aktors für die OPLM auf das gesamte Messsystem auswirkt. Bei den beiden Messsystemen werden jeweils wichtige Komponenten wie analoge Elektronik und Aktorik sowie ihre Funktionsweise erläutert. Es wird detailliert beschrieben, wie ein OPLM-Messsystem charakterisiert und kalibriert werden muss, um möglichst zuverlässige Messwerte zu liefern. Abschließend werden die Möglichkeiten der beiden entwickelten Systeme durch Beispielmessungen demonstriert, sowie ihre Messgenauigkeit charakterisiert.
Resumo:
In den letzten Jahrzehnten haben sich makroskalige hydrologische Modelle als wichtige Werkzeuge etabliert um den Zustand der globalen erneuerbaren Süßwasserressourcen flächendeckend bewerten können. Sie werden heutzutage eingesetzt um eine große Bandbreite wissenschaftlicher Fragestellungen zu beantworten, insbesondere hinsichtlich der Auswirkungen anthropogener Einflüsse auf das natürliche Abflussregime oder der Auswirkungen des globalen Wandels und Klimawandels auf die Ressource Wasser. Diese Auswirkungen lassen sich durch verschiedenste wasserbezogene Kenngrößen abschätzen, wie z.B. erneuerbare (Grund-)Wasserressourcen, Hochwasserrisiko, Dürren, Wasserstress und Wasserknappheit. Die Weiterentwicklung makroskaliger hydrologischer Modelle wurde insbesondere durch stetig steigende Rechenkapazitäten begünstigt, aber auch durch die zunehmende Verfügbarkeit von Fernerkundungsdaten und abgeleiteten Datenprodukten, die genutzt werden können, um die Modelle anzutreiben und zu verbessern. Wie alle makro- bis globalskaligen Modellierungsansätze unterliegen makroskalige hydrologische Simulationen erheblichen Unsicherheiten, die (i) auf räumliche Eingabedatensätze, wie z.B. meteorologische Größen oder Landoberflächenparameter, und (ii) im Besonderen auf die (oftmals) vereinfachte Abbildung physikalischer Prozesse im Modell zurückzuführen sind. Angesichts dieser Unsicherheiten ist es unabdingbar, die tatsächliche Anwendbarkeit und Prognosefähigkeit der Modelle unter diversen klimatischen und physiographischen Bedingungen zu überprüfen. Bisher wurden die meisten Evaluierungsstudien jedoch lediglich in wenigen, großen Flusseinzugsgebieten durchgeführt oder fokussierten auf kontinentalen Wasserflüssen. Dies steht im Kontrast zu vielen Anwendungsstudien, deren Analysen und Aussagen auf simulierten Zustandsgrößen und Flüssen in deutlich feinerer räumlicher Auflösung (Gridzelle) basieren. Den Kern der Dissertation bildet eine umfangreiche Evaluierung der generellen Anwendbarkeit des globalen hydrologischen Modells WaterGAP3 für die Simulation von monatlichen Abflussregimen und Niedrig- und Hochwasserabflüssen auf Basis von mehr als 2400 Durchflussmessreihen für den Zeitraum 1958-2010. Die betrachteten Flusseinzugsgebiete repräsentieren ein breites Spektrum klimatischer und physiographischer Bedingungen, die Einzugsgebietsgröße reicht von 3000 bis zu mehreren Millionen Quadratkilometern. Die Modellevaluierung hat dabei zwei Zielsetzungen: Erstens soll die erzielte Modellgüte als Bezugswert dienen gegen den jegliche weiteren Modellverbesserungen verglichen werden können. Zweitens soll eine Methode zur diagnostischen Modellevaluierung entwickelt und getestet werden, die eindeutige Ansatzpunkte zur Modellverbesserung aufzeigen soll, falls die Modellgüte unzureichend ist. Hierzu werden komplementäre Modellgütemaße mit neun Gebietsparametern verknüpft, welche die klimatischen und physiographischen Bedingungen sowie den Grad anthropogener Beeinflussung in den einzelnen Einzugsgebieten quantifizieren. WaterGAP3 erzielt eine mittlere bis hohe Modellgüte für die Simulation von sowohl monatlichen Abflussregimen als auch Niedrig- und Hochwasserabflüssen, jedoch sind für alle betrachteten Modellgütemaße deutliche räumliche Muster erkennbar. Von den neun betrachteten Gebietseigenschaften weisen insbesondere der Ariditätsgrad und die mittlere Gebietsneigung einen starken Einfluss auf die Modellgüte auf. Das Modell tendiert zur Überschätzung des jährlichen Abflussvolumens mit steigender Aridität. Dieses Verhalten ist charakteristisch für makroskalige hydrologische Modelle und ist auf die unzureichende Abbildung von Prozessen der Abflussbildung und –konzentration in wasserlimitierten Gebieten zurückzuführen. In steilen Einzugsgebieten wird eine geringe Modellgüte hinsichtlich der Abbildung von monatlicher Abflussvariabilität und zeitlicher Dynamik festgestellt, die sich auch in der Güte der Niedrig- und Hochwassersimulation widerspiegelt. Diese Beobachtung weist auf notwendige Modellverbesserungen in Bezug auf (i) die Aufteilung des Gesamtabflusses in schnelle und verzögerte Abflusskomponente und (ii) die Berechnung der Fließgeschwindigkeit im Gerinne hin. Die im Rahmen der Dissertation entwickelte Methode zur diagnostischen Modellevaluierung durch Verknüpfung von komplementären Modellgütemaßen und Einzugsgebietseigenschaften wurde exemplarisch am Beispiel des WaterGAP3 Modells erprobt. Die Methode hat sich als effizientes Werkzeug erwiesen, um räumliche Muster in der Modellgüte zu erklären und Defizite in der Modellstruktur zu identifizieren. Die entwickelte Methode ist generell für jedes hydrologische Modell anwendbar. Sie ist jedoch insbesondere für makroskalige Modelle und multi-basin Studien relevant, da sie das Fehlen von feldspezifischen Kenntnissen und gezielten Messkampagnen, auf die üblicherweise in der Einzugsgebietsmodellierung zurückgegriffen wird, teilweise ausgleichen kann.
Resumo:
Im Rahmen dieser interdisziplinären Doktorarbeit wird eine (Al)GaN Halbleiteroberflächenmodifikation untersucht, mit dem Ziel eine verbesserte Grenzfläche zwischen dem Material und dem Dielektrikum zu erzeugen. Aufgrund von Oberflächenzuständen zeigen GaN basierte HEMT Strukturen üblicherweise große Einsatzspannungsverschiebungen. Bisher wurden zur Grenzflächenmodifikation besonders die Entfernung von Verunreinigungen wie Sauerstoff oder Kohlenstoff analysiert. Die nasschemischen Oberflächenbehandlungen werden vor der Abscheidung des Dielektrikums durchgeführt, wobei die Kontaminationen jedoch nicht vollständig entfernt werden können. In dieser Arbeit werden Modifikationen der Oberfläche in wässrigen Lösungen, in Gasen sowie in Plasma analysiert. Detaillierte Untersuchungen zeigen, dass die inerte (0001) c-Ebene der Oberfläche kaum reagiert, sondern hauptsächlich die weniger polaren r- und m- Ebenen. Dies kann deutlich beim Defektätzen sowie bei der thermischen Oxidation beobachtet werden. Einen weiteren Ansatz zur Oberflächenmodifikation stellen Plasmabehandlungen dar. Hierbei wird die Oberflächenterminierung durch eine nukleophile Substitution mit Lewis Basen, wie Fluorid, Chlorid oder Oxid verändert, wodurch sich die Elektronegativitätsdifferenz zwischen dem Metall und dem Anion im Vergleich zur Metall-Stickstoff Bindung erhöht. Dies führt gleichzeitig zu einer Erhöhung der Potentialdifferenz des Schottky Kontakts. Sauerstoff oder Fluor besitzen die nötige thermische Stabilität um während einer Silicium-nitridabscheidung an der (Al)GaN Oberfläche zu bleiben. Sauerstoffvariationen an der Oberfläche werden in NH3 bei 700°C, welches die nötigen Bedingungen für die Abscheidung darstellen, immer zu etwa 6-8% reduziert – solche Grenzflächen zeigen deswegen auch keine veränderten Ergebnisse in Einsatzspannungsuntersuchungen. Im Gegensatz dazu zeigt die fluorierte Oberfläche ein völlig neues elektrisches Verhalten: ein neuer dominanter Oberflächendonator mit einem schnellen Trapping und Detrapping Verhalten wird gefunden. Das Energieniveau dieses neuen, stabilen Donators liegt um ca. 0,5 eV tiefer in der Bandlücke als die ursprünglichen Energieniveaus der Oberflächenzustände. Physikalisch-chemische Oberflächen- und Grenzflächenuntersuchung mit XPS, AES oder SIMS erlauben keine eindeutige Schlussfolgerung, ob das Fluor nach der Si3N4 Abscheidung tatsächlich noch an der Grenzfläche vorhanden ist, oder einfach eine stabilere Oberflächenrekonstruktion induziert wurde, bei welcher es selbst nicht beteiligt ist. In beiden Fällen ist der neue Donator in einer Konzentration von 4x1013 at/cm-2 vorhanden. Diese Dichte entspricht einer Oberflächenkonzentration von etwa 1%, was genau an der Nachweisgrenze der spektroskopischen Methoden liegt. Jedoch werden die elektrischen Oberflächeneigenschaften durch die Oberflächenmodifikation deutlich verändert und ermöglichen eine potentiell weiter optimierbare Grenzfläche.