20 resultados para Görts, George Heinrich, friherre von Schlitz, called von, 1668-1719.
em Universitätsbibliothek Kassel, Universität Kassel, Germany
Resumo:
Die gegenwärtige Entwicklung der internationalen Klimapolitik verlangt von Deutschland eine Reduktion seiner Treibhausgasemissionen. Wichtigstes Treibhausgas ist Kohlendioxid, das durch die Verbrennung fossiler Energieträger in die Atmosphäre freigesetzt wird. Die Reduktionsziele können prinzipiell durch eine Verminderung der Emissionen sowie durch die Schaffung von Kohlenstoffsenken erreicht werden. Senken beschreiben dabei die biologische Speicherung von Kohlenstoff in Böden und Wäldern. Eine wichtige Einflussgröße auf diese Prozesse stellt die räumliche Dynamik der Landnutzung einer Region dar. In dieser Arbeit wird das Modellsystem HILLS entwickelt und zur Simulation dieser komplexen Wirkbeziehungen im Bundesland Hessen genutzt. Ziel ist es, mit HILLS über eine Analyse des aktuellen Zustands hinaus auch Szenarien über Wege der zukünftigen regionalen Entwicklung von Landnutzung und ihrer Wirkung auf den Kohlenstoffhaushalt bis 2020 zu untersuchen. Für die Abbildung der räumlichen und zeitlichen Dynamik von Landnutzung in Hessen wird das Modell LUCHesse entwickelt. Seine Aufgabe ist die Simulation der relevanten Prozesse auf einem 1 km2 Raster, wobei die Raten der Änderung exogen als Flächentrends auf Ebene der hessischen Landkreise vorgegeben werden. LUCHesse besteht aus Teilmodellen für die Prozesse: (A) Ausbreitung von Siedlungs- und Gewerbefläche, (B) Strukturwandel im Agrarsektor sowie (C) Neuanlage von Waldflächen (Aufforstung). Jedes Teilmodell umfasst Methoden zur Bewertung der Standorteignung der Rasterzellen für unterschiedliche Landnutzungsklassen und zur Zuordnung der Trendvorgaben zu solchen Rasterzellen, die jeweils am besten für eine Landnutzungsklasse geeignet sind. Eine Validierung der Teilmodelle erfolgt anhand von statistischen Daten für den Zeitraum von 1990 bis 2000. Als Ergebnis eines Simulationslaufs werden für diskrete Zeitschritte digitale Karten der Landnutzugsverteilung in Hessen erzeugt. Zur Simulation der Kohlenstoffspeicherung wird eine modifizierte Version des Ökosystemmodells Century entwickelt (GIS-Century). Sie erlaubt einen gesteuerten Simulationslauf in Jahresschritten und unterstützt die Integration des Modells als Komponente in das HILLS Modellsystem. Es werden verschiedene Anwendungsschemata für GIS-Century entwickelt, mit denen die Wirkung der Stilllegung von Ackerflächen, der Aufforstung sowie der Bewirtschaftung bereits bestehender Wälder auf die Kohlenstoffspeicherung untersucht werden kann. Eine Validierung des Modells und der Anwendungsschemata erfolgt anhand von Feld- und Literaturdaten. HILLS implementiert eine sequentielle Kopplung von LUCHesse mit GIS-Century. Die räumliche Kopplung geschieht dabei auf dem 1 km2 Raster, die zeitliche Kopplung über die Einführung eines Landnutzungsvektors, der die Beschreibung der Landnutzungsänderung einer Rasterzelle während des Simulationszeitraums enthält. Außerdem integriert HILLS beide Modelle über ein dienste- und datenbankorientiertes Konzept in ein Geografisches Informationssystem (GIS). Auf diesem Wege können die GIS-Funktionen zur räumlichen Datenhaltung und Datenverarbeitung genutzt werden. Als Anwendung des Modellsystems wird ein Referenzszenario für Hessen mit dem Zeithorizont 2020 berechnet. Das Szenario setzt im Agrarsektor eine Umsetzung der AGENDA 2000 Politik voraus, die in großem Maße zu Stilllegung von Ackerflächen führt, während für den Bereich Siedlung und Gewerbe sowie Aufforstung die aktuellen Trends der Flächenausdehnung fortgeschrieben werden. Mit HILLS ist es nun möglich, die Wirkung dieser Landnutzungsänderungen auf die biologische Kohlenstoffspeicherung zu quantifizieren. Während die Ausdehnung von Siedlungsflächen als Kohlenstoffquelle identifiziert werden kann (37 kt C/a), findet sich die wichtigste Senke in der Bewirtschaftung bestehender Waldflächen (794 kt C/a). Weiterhin führen die Stilllegung von Ackerfläche (26 kt C/a) sowie Aufforstung (29 kt C/a) zu einer zusätzlichen Speicherung von Kohlenstoff. Für die Kohlenstoffspeicherung in Böden zeigen die Simulationsexperimente sehr klar, dass diese Senke nur von beschränkter Dauer ist.
Resumo:
Ausgangspunkt der Dissertation ist ein von V. Maz'ya entwickeltes Verfahren, eine gegebene Funktion f : Rn ! R durch eine Linearkombination fh radialer glatter exponentiell fallender Basisfunktionen zu approximieren, die im Gegensatz zu den Splines lediglich eine näherungsweise Zerlegung der Eins bilden und somit ein für h ! 0 nicht konvergentes Verfahren definieren. Dieses Verfahren wurde unter dem Namen Approximate Approximations bekannt. Es zeigt sich jedoch, dass diese fehlende Konvergenz für die Praxis nicht relevant ist, da der Fehler zwischen f und der Approximation fh über gewisse Parameter unterhalb der Maschinengenauigkeit heutiger Rechner eingestellt werden kann. Darüber hinaus besitzt das Verfahren große Vorteile bei der numerischen Lösung von Cauchy-Problemen der Form Lu = f mit einem geeigneten linearen partiellen Differentialoperator L im Rn. Approximiert man die rechte Seite f durch fh, so lassen sich in vielen Fällen explizite Formeln für die entsprechenden approximativen Volumenpotentiale uh angeben, die nur noch eine eindimensionale Integration (z.B. die Errorfunktion) enthalten. Zur numerischen Lösung von Randwertproblemen ist das von Maz'ya entwickelte Verfahren bisher noch nicht genutzt worden, mit Ausnahme heuristischer bzw. experimenteller Betrachtungen zur sogenannten Randpunktmethode. Hier setzt die Dissertation ein. Auf der Grundlage radialer Basisfunktionen wird ein neues Approximationsverfahren entwickelt, welches die Vorzüge der von Maz'ya für Cauchy-Probleme entwickelten Methode auf die numerische Lösung von Randwertproblemen überträgt. Dabei werden stellvertretend das innere Dirichlet-Problem für die Laplace-Gleichung und für die Stokes-Gleichungen im R2 behandelt, wobei für jeden der einzelnen Approximationsschritte Konvergenzuntersuchungen durchgeführt und Fehlerabschätzungen angegeben werden.
Resumo:
Zur Modellierung von Vergasungs- und Verbrennungsprozessen zur energetischen Nutzung von Biomasse ist die Kenntnis von reaktionskinetischen Daten für die Sauerstoff-Oxidation von Biomassepyrolysaten erforderlich. Eine ausführliche Literaturübersicht zeigt den Stand der Forschung bezüglich der experimentellen Ermittlung von reaktionskinetischen Parametern für die Oxidation von Pyrolysaten aus Lignin, Cellulose und pflanzlicher Biomasse sowie der Suche nach einem plausiblen Reaktionsmechanismus für die Reaktion von Sauerstoff mit festen Kohlenstoffmaterialien. Es wird eine Versuchsanlage mit einem quasistationär betriebenen Differentialreaktor konstruiert, die eine Messung der Reaktionskinetik und der reaktiven inneren Oberfläche (RSA) für die Reaktion eines Pyrolysats aus Maispflanzen mit Sauerstoff ermöglicht. Die getrockneten und zerkleinerten Maispflanzen werden 7 Minuten lang bei 1073 K in einem Drehrohrofen pyrolysiert. Das Pyrolysat zeichnet sich vor allem durch seine hohe Porosität von über 0,9 und seinen hohen Aschegehalt von 0,24 aus. Die RSA wird nach der Methode der Messung von Übergangskinetiken (TK) bestimmt. Die Bestimmung der RSA erfolgt für die Reaktionsprodukte CO und CO2 getrennt, für die entsprechend ermittelten Werte werden die Bezeichnungen CO-RSA und CO2-RSA eingeführt. Die Abhängigkeit dieser Größen von der Sauerstoffkonzentration läßt sich durch eine Langmuir-Isotherme beschreiben, ebenso das leichte Absinken der CO-RSA mit der Kohlendioxidkonzentration. Über dem Abbrand zeigen sich unterschiedliche Verläufe für die CO-RSA, CO2-RSA und die innere Oberfläche nach der BET-Methode. Zur Charakterisierung der Oberflächenzwischenprodukte werden temperaturprogrammierte Desorptionsversuche (TPD) durchgeführt. Die Ergebnisse zeigen, daß eine Unterscheidung in zwei Kohlenstoff-Sauerstoff-Oberflächenkomplexe ausreichend ist. Die experimentellen Untersuchungen zum Oxidationsverlauf werden im kinetisch bestimmten Bereich durchgeführt. Dabei werden die Parameter Temperatur, Sauerstoff-, CO- und CO2-Konzentration variiert. Anhand der Ergebnisse der reaktionskinetischen Untersuchungen wird ein Reaktionsmechanismus für die Kohlenstoff-Sauerstoff-Reaktion entwickelt. Dieser Reaktionsmechanismus umfaßt 7 Elementarreaktionen, für welche die reaktionskinetischen Parameter numerisch ermittelt werden. Darüber hinaus werden reaktionskinetische Parameter für einfachere massenbezogene Reaktionsgeschwindigkeitsansätze berechnet und summarische Reaktionsgeschwindigkeitsansätze für die Bildung von CO und CO2 aus dem Reaktionsmechanismus hergeleitet.
Resumo:
Verschiedene Bedeutungen sind mit dem Begriff Mode verbunden. Mode ist nicht ausschließlich ein Synonym für Bekleidung. Vielmehr bezeichnet Mode den ständigen Wandel kollektiver Verhaltensweisen und bildet damit das Gegenstück zu Traditionen. Die Vergänglichkeit einer Mode ist ebenso Merkmal wie ein Verhalten, daß aus der Interaktion der Menschen resultiert. Mode läßt sich als exogener Schock modelliert oder durch endogene Prozesse erzeugt abbilden. Im synergetischen Modell erzeugen Personen auf der Makroebene bestimmte Ordner, die als Moden interpretiert werden können und an denen sich die Individuen wiederum orientieren. Neben einer umfassenden Betrachtung des Terminus Mode wird der Stand der sozial- und wirtschaftswissenschaftlichen Forschung zur Erklärung von Mode referiert. Ausgangspunkt der Dissertation ist das Fehlen eines ökonomischen Erklärungsansatzes der Mode, der unter Berücksichtigung der wesentlichsten Motive menschlichen Handelns die Vielseitigkeit dieses kollektiven Phänomens in einem mathematischen Modell abbildet. Ein solches Modell wird in der Arbeit entwickelt. Neben den sozial abhängigen Verhaltensweisen, die ein fundamentales Wesensmerkmal der Mode darstellen, gilt dem Aspekt der Neuheit im Kontext der Mode besondere Aufmerksamkeit. Auf das Problem, Neugierdeverhalten und Neuheit zu modellieren, wird detailliert eingegangen. Es ist weder Ziel der Arbeit, den Ursprung der inhaltlichen Ausgestaltung einer Mode zu identifizieren, noch die konkreten Entstehungszusammenhänge von Neuheit herauszuarbeiten. Vielmehr wird der Wirkungszusammenhang von Neuem im Kontext der Mode analysiert, um verschiedene Entstehungszusammenhänge von Mode darstellen zu können. Außerdem wird eine eigene empirische Studie zum Verhalten von Personen in bezug auf Kleidung und deren Neuartigkeit vorgestellt. Die Erhebungsdaten werden mit Hilfe der sogenannten Kohonenkarte klassifiziert, wobei insbesondere nichtlineare Zusammenhänge zwischen den Variablen berücksichtigt werden können. Im Rahmen eines synergetischen Erklärungsansatzes ist diese Karte deshalb von großem Interesse, weil sie sich selbst organisiert und deshalb dem synergetischen Erklärungsansatz modelladäquat ist.
Resumo:
Die vorliegende Arbeit berichtet über ein neuartiges, kombiniertes Messverfahren zur gleichzeitigen Erfassung von Form und Material einer glänzenden Probenoberfläche. Die Materialerkennung erfolgt über die polarisationsoptische Brechzahlbestimmung im Messpunkt mit Mikroellipsometrie. Die Mikroellipsometrie ist ein fokussierendes Ellipsometer, das aus der Polarisationsänderung, bedingt durch die Wechselwirkung Licht – Materie, die materialcharakteristische komplexe Brechzahl eines reflektierenden Materials ermitteln kann. Bei der fokussierenden Ellipsometrie ist die Anordnung der fokussierenden Optiken von Bedeutung. Die hier vorgestellte ellipsometerexterne Fokussierung vermeidet Messfehler durch optische Anisotropien und ermöglicht die multispektrale ellipsometrische Messung. Für die ellipsometrische Brechzahlbestimmung ist zwingend die Kenntnis des Einfallswinkels des Messstrahls und die räumliche Orientierung der Oberflächenneigung zum Koordinatensystem des Ellipsometers notwendig. Die Oberflächenneigung wird mit einem Deflektometer ermittelt, das speziell für den Einsatz in Kombination mit der Ellipsometrie entwickelt wurde. Aus der lokalen Oberflächenneigung kann die Topographie einer Probe rekonstruiert werden. Der Einfallswinkel ist ebenfalls aus den Oberflächenneigungen ableitbar. Die Arbeit stellt die Systemtheorie der beiden kombinierten Messverfahren vor, außerdem werden Beiträge zu Messunsicherheiten diskutiert. Der experimentelle Teil der Arbeit beinhaltet die separate Untersuchung zur Leistungsfähigkeit der beiden zu kombinierenden Messverfahren. Die experimentellen Ergebnisse erlauben die Schlussfolgerung, dass ein Mikro-Deflexions-Ellipsometer erfolgreich realisierbar ist.
Resumo:
Im Vordergrund dieser Arbeit stehen die Synthesen des Azobenzol-4-trichlorsilans sowie des Bis(4-azobenzol)disulfids, ausgehend von einfachen und kommerziell erhältlichen Verbindungen. Moleküle, aus denen sich diese Verbindungen synthetisieren lassen, sind die Iodderivate des Azobenzols, welche über die Kondensation von Benzolaminen (Anilinen) und Nitrosobenzolen dargestellt wurden, aber auch über die altbewährte Azokupplung. Insgesamt wurden 19 neue Azobenzolderivate, das neue [(4-Aminophenyl)ethinyl]ferrocen und das neue Bis[4-(4'-bromazobenzol)]disulfid synthetisiert und charakterisiert. Außerdem wurden 13 neue Kristallstrukturen erzeugt. Mit den synthetisierten Molekülen wurden Substrat-Adsorbat-Systeme gebildet. Als Substrate wurden oberflächenoxidiertes Silizium und Gold gewählt. Die Präparation dieser sogennanten selbstorganisierten Monolagen (SAMs) bzw. der kovalent gebundenen Monolagen im Falle der Trichlorsilylderivate (CAMs) wurde eingehend studiert. Das Azobenzol wurde als photoschaltbare Einheit gewählt, da es bereits Kern zahlreicher Untersuchungen war und als solcher als guter und zuverlässiger Baustein für reversible photoschaltbare Systeme etabliert ist. Zur Charakterisierung Schichten und zur Untersuchung ihres photoresponsiven Verhaltens sowie sowie zur Untersuchung der Schichtbildung selbst wurden mehrere physikalische Messmethoden angewandt. Die Schichtbildung wurde mit SHG (optische Frequenzverdopplung) verfolgt, die fertigen Schichten wurden mit XPS (Röntgen-Photonen-Spektroskopie) und NEXAFS (Nahkanten-Röntgen-Absorptions-Feinstruktur) untersucht, um Orientierung und Ordnung der Moleküle in der Schicht zu ermitteln. Das Schaltverhalten wurde mit Ellipsometrie und durch Messungen des Wasserkontaktwinkels beobachtet. Durch Variation der Endgruppe des Azobenzols ist es möglich, die Oberflächeneigenschaften einstellen gezielt zu können, wie Hydrophobie, Hydrophilie, Komplexierungsverhalten oder elektrische Schaltbarkeit. Dies gelingt durch Gruppen wie N,N-Dimethylamino-, Methoxy-, Ethoxy-, Octyloxy-, Dodecyloxy-, Benzyloxy-, Methyl-, Trifluormethyl-, Pyridyl-, Phenylethinyl- und Ferrocenyl-Restgruppen, um nur eine Auswahl zu nennen. Einerseits wurde Silizium als Substrat gewählt, da es wegen seiner Verwendung in der Halbleiterindustrie ein nicht uninteressantes Substrat darstell und die Möglichkeiten der kovalenten Anbindung von Trichlorsilanen aber auch Trialkoxysilanen auch gut untersucht ist. Andererseits wurden auch Untersuchungen mit Gold als Substrat angestellt, bei dem Thiole und Disulfide die bevorzugten Ankergruppen bilden. Während sich auf Gold sogenannte SAMs bilden, verleiht die kovalente Siloxanbindung den CAMs auf Silizium eine besondere Stabilität.
Resumo:
Zusammenfassung zur Inaugural-Dissertation: Von „weiblichen Vollmenschen“ und Klassenkämpferinnen – Frauengeschichte und Frauenleitbilder in der proletarischen Frauenzeitschrift „Die Gleichheit“ (1891-1923). Die wissenschaftliche Bedeutung, die der SPD-Frauenzeitschrift „Die Gleichheit“ (1891-1923) als Quelle der Geschichte der Frauenbewegung zukommt, spiegelt sich weder in Darstellungen zur Geschichte der SPD noch in der Geschichtsschreibung der deutschen Frauenbewegung wider. Auch ist die „Gleichheit“, Presseorgan der organisierten proletarischen Frauenbewegung Deutschlands und der Sozialistischen Fraueninternationale, bisher kaum Gegenstand einer umfassenden publizistischen Analyse gewesen. Es galt daher, zumindest das Hauptblatt der „Gleichheit“, die an ihr beteiligten Personen, ihre Strukturen und ihr Selbstverständnis möglichst detailliert und anhand publizistischer Kriterien darzustellen. Wandlungen ihres Erscheinungsbildes, ihrer editorischen und personellen Strukturen oder ihres Seitenumfangs markieren entscheidende Wendepunkte der deutschen Politik während des deutschen Kaiserreichs und der Weimarer Republik. Ihr Niveau lag deutlich über dem einer allgemeinen Frauenzeitschrift, eines Mitteilungs- oder Unterhaltungsblattes. Ihr Ziel war es, sowohl politisches Schulungsblatt für die engagierten Genossinnen als auch Agitationsmittel für die indifferenten Proletarierinnen zu sein. Inwieweit sie mit dieser Zielsetzung erfolgreich war, kann jedoch selbst die große Zahl ihrer Abonnements (der Höchststand lag 1914 bei 124.000 Exemplaren) nicht validieren. Tatsächlich ließ gerade der von ihrer langjährigen Redakteurin Clara Zetkin (1857-1933) angestrebte hohe intellektuelle Anspruch die „Gleichheit“ jedoch nicht zu einem Medium der Massen werden. Im Mai 1917 entschied sich der SPD-Parteivorstand, der dem Burgfrieden abträglichen, konsequent sozialistischen und internationalistischen Haltung Zetkins keine öffentliche Plattform mehr zu geben und entließ sie aus der Redaktion. Die Leitung der „Gleichheit“, die auch bis zu diesem Zeitpunkt durchaus keine „One-Woman-Show“ war, oblag schließlich bis zu ihrem letztmaligen Erscheinen im September 1923 noch einigen weiteren Redakteurinnen und Redakteuren (Marie Juchacz (1879-1956), Heinrich Schulz (1872-1932), Clara Bohm-Schuch (1879-1936), Elli Radtke-Warmuth (?-?) und Mathilde Wurm (1874-1935)). Deren Tätigkeit für die „Gleichheit“ wurde jedoch bisher kaum wissenschaftlich reflektiert. Dies gilt auch für die ausgesprochen internationale Zusammensetzung oder die männlichen Mitglieder des MitarbeiterInnenstabes. Indem sie sich selbst in der Tradition und als Teil eines Netzwerkes deutscher Frauenöffentlichkeit („Die Frauen-Zeitung“ (1849-1852), „Die Staatsbürgerin“ (1886) und „Die Arbeiterin“ (1890-1891)) sah und indem sie besonders mittels frauengeschichtlicher und frauenbiographischer Inhalte das Selbstbewusstsein ihrer Leserinnen zu fördern versuchte, betrieb die „Gleichheit“ gezielt Frauengeschichtsschreibung. Zahlreiche Artikel porträtieren Frauen aus Geschichte und Gegenwart und stellen in ihrem elaborierten Stil „Typen“ bzw. „Vorbilder“ dar. Um die Frage beantworten zu können, welche Frauen der Geschichte und welche ihrer Charaktereigenschaften von der „Gleichheit“ als vorbildlich für Sozialdemokratinnen erachtet wurden, wurden die biographischen Artikel zu 173 Frauen nach Analyse ihrer Inhalte und ihres Duktus vier Frauenleitbildern zugeordnet. Die Kategorisierung der einzelnen Frauenleitbilder „weiblicher Vollmensch“, „sozialistische Mutter“, „sozialistische Ehefrau“ und „Klassenkämpferin“ lehnt sich wiederum an den von Zetkin bereits 1898 veröffentlichten Artikel „Nicht Haussklavin, nicht Mannweib, weiblicher Vollmensch” (Die Gleichheit, Jg. 08/ Nr. 02/ 19.11.1898/ S. 1.) an. Sämtliche frauenbiographischen Artikel appellieren an die „Gleichheit“-Leserinnen, die oft selbst gesetzten Grenzen ihrer Handlungs – und Entwicklungsmöglichkeiten zu sprengen. Die sich daraus ableitenden Identifikationsangebote waren somit nicht auf dem Reissbrett entworfen, sondern basierten auf geschichtlicher Erfahrung und antizipierendem Bewusstsein. Diese Leitbilder versuchten, Realität und Utopie miteinander zu verbinden und konnten daher kaum frei von Widersprüchen sein. Wie die „Gleichheit“ selbst, so blieben auch ihre Ansätze politischer Frauenbildung teilweise zwischen revolutionärem Umsturz und traditioneller Kontinuität gefangen. Indem sich die „Gleichheit“ historischer Vorbilder bediente, machte sie jedoch konkrete Ansprüche geltend: Sie forderte den weiblichen Anteil an Geschichte, an politischer Macht und am öffentlichen Bewusstsein.
Resumo:
Sei $N/K$ eine galoissche Zahlkörpererweiterung mit Galoisgruppe $G$, so dass es in $N$ eine Stelle mit voller Zerlegungsgruppe gibt. Die vorliegende Arbeit beschäftigt sich mit Algorithmen, die für das gegebene Fallbeispiel $N/K$, die äquivariante Tamagawazahlvermutung von Burns und Flach für das Paar $(h^0(Spec(N), \mathbb{Z}[G]))$ (numerisch) verifizieren. Grob gesprochen stellt die äquivariante Tamagawazahlvermutung (im Folgenden ETNC) in diesem Spezialfall einen Zusammenhang her zwischen Werten von Artinschen $L$-Reihen zu den absolut irreduziblen Charakteren von $G$ und einer Eulercharakteristik, die man in diesem Fall mit Hilfe einer sogenannten Tatesequenz konstruieren kann. Unter den Voraussetzungen 1. es gibt eine Stelle $v$ von $N$ mit voller Zerlegungsgruppe, 2. jeder irreduzible Charakter $\chi$ von $G$ erfüllt eine der folgenden Bedingungen 2a) $\chi$ ist abelsch, 2b) $\chi(G) \subset \mathbb{Q}$ und $\chi$ ist eine ganzzahlige Linearkombination von induzierten trivialen Charakteren; wird ein Algorithmus entwickelt, der ETNC für jedes Fallbeispiel $N/\mathbb{Q}$ vollständig beweist. Voraussetzung 1. erlaubt es eine Idee von Chinburg ([Chi89]) umzusetzen zur algorithmischen Berechnung von Tatesequenzen. Dabei war es u.a. auch notwendig lokale Fundamentalklassen zu berechnen. Im höchsten zahm verzweigten Fall haben wir hierfür einen Algorithmus entwickelt, der ebenfalls auf den Ideen von Chinburg ([Chi85]) beruht, die auf Arbeiten von Serre [Ser] zurück gehen. Für nicht zahm verzweigte Erweiterungen benutzen wir den von Debeerst ([Deb11]) entwickelten Algorithmus, der ebenfalls auf Serre's Arbeiten beruht. Voraussetzung 2. wird benötigt, um Quotienten aus den $L$-Werten und Regulatoren exakt zu berechnen. Dies gelingt, da wir im Fall von abelschen Charakteren auf die Theorie der zyklotomischen Einheiten zurückgreifen können und im Fall (b) auf die analytische Klassenzahlformel von Zwischenkörpern. Ohne die Voraussetzung 2. liefern die Algorithmen für jedes Fallbeispiel $N/K$ immer noch eine numerische Verifikation bis auf Rechengenauigkeit. Den Algorithmus zur numerischen Verifikation haben wir für $A_4$-Erweiterungen über $\mathbb{Q}$ in das Computeralgebrasystem MAGMA implementiert und für 27 Erweiterungen die äquivariante Tamagawazahlvermutung numerisch verifiziert.
Resumo:
Im Rahmen dieser Arbeit werden Modellbildungsverfahren zur echtzeitfähigen Simulation wichtiger Schadstoffkomponenten im Abgasstrom von Verbrennungsmotoren vorgestellt. Es wird ein ganzheitlicher Entwicklungsablauf dargestellt, dessen einzelne Schritte, beginnend bei der Ver-suchsplanung über die Erstellung einer geeigneten Modellstruktur bis hin zur Modellvalidierung, detailliert beschrieben werden. Diese Methoden werden zur Nachbildung der dynamischen Emissi-onsverläufe relevanter Schadstoffe des Ottomotors angewendet. Die abgeleiteten Emissionsmodelle dienen zusammen mit einer Gesamtmotorsimulation zur Optimierung von Betriebstrategien in Hybridfahrzeugen. Im ersten Abschnitt der Arbeit wird eine systematische Vorgehensweise zur Planung und Erstellung von komplexen, dynamischen und echtzeitfähigen Modellstrukturen aufgezeigt. Es beginnt mit einer physikalisch motivierten Strukturierung, die eine geeignete Unterteilung eines Prozessmodells in einzelne überschaubare Elemente vorsieht. Diese Teilmodelle werden dann, jeweils ausgehend von einem möglichst einfachen nominalen Modellkern, schrittweise erweitert und ermöglichen zum Abschluss eine robuste Nachbildung auch komplexen, dynamischen Verhaltens bei hinreichender Genauigkeit. Da einige Teilmodelle als neuronale Netze realisiert werden, wurde eigens ein Verfah-ren zur sogenannten diskreten evidenten Interpolation (DEI) entwickelt, das beim Training einge-setzt, und bei minimaler Messdatenanzahl ein plausibles, also evidentes Verhalten experimenteller Modelle sicherstellen kann. Zum Abgleich der einzelnen Teilmodelle wurden statistische Versuchs-pläne erstellt, die sowohl mit klassischen DoE-Methoden als auch mittels einer iterativen Versuchs-planung (iDoE ) generiert wurden. Im zweiten Teil der Arbeit werden, nach Ermittlung der wichtigsten Einflussparameter, die Model-strukturen zur Nachbildung dynamischer Emissionsverläufe ausgewählter Abgaskomponenten vor-gestellt, wie unverbrannte Kohlenwasserstoffe (HC), Stickstoffmonoxid (NO) sowie Kohlenmono-xid (CO). Die vorgestellten Simulationsmodelle bilden die Schadstoffkonzentrationen eines Ver-brennungsmotors im Kaltstart sowie in der anschließenden Warmlaufphase in Echtzeit nach. Im Vergleich zur obligatorischen Nachbildung des stationären Verhaltens wird hier auch das dynami-sche Verhalten des Verbrennungsmotors in transienten Betriebsphasen ausreichend korrekt darge-stellt. Eine konsequente Anwendung der im ersten Teil der Arbeit vorgestellten Methodik erlaubt, trotz einer Vielzahl von Prozesseinflussgrößen, auch hier eine hohe Simulationsqualität und Ro-bustheit. Die Modelle der Schadstoffemissionen, eingebettet in das dynamische Gesamtmodell eines Ver-brennungsmotors, werden zur Ableitung einer optimalen Betriebsstrategie im Hybridfahrzeug ein-gesetzt. Zur Lösung solcher Optimierungsaufgaben bieten sich modellbasierte Verfahren in beson-derer Weise an, wobei insbesondere unter Verwendung dynamischer als auch kaltstartfähiger Mo-delle und der damit verbundenen Realitätsnähe eine hohe Ausgabequalität erreicht werden kann.
Resumo:
Ausgangspunkt dieser Dissertation ist die Überlegung, warum Mädchen und Frauen in mathematisch-naturwissenschaftlichen Fächern und Berufen unterrepräsentiert sind. Irrtümlicherweise werden als Erklärung hierfür häufig Geschlechterdifferenzen in der Mathematikleistung herangezogen. Diese bieten jedoch aufgrund nicht einheitlicher Forschungsbefunde keinen zufriedenstellenden Erklärungsansatz. Naheliegender ist es, das mangelnde Selbstvertrauen von Mädchen in Mathematik (als mathematisches Selbstkonzept bezeichnet) als Ursache heranzuziehen, denn verschiedene Studien kamen zu dem Ergebnis, dass Mädchen, auch bei vergleichbarer Leistung, ein geringeres mathematisches Selbstkonzept aufweisen als Jungen (Dickhäuser & Stiensmeier-Pelster, 2003; Frome & Eccles, 1998; Rustemeyer & Jubel, 1996; Skaalvik & Skaalvik, 2004). Die Rolle der Eltern als primäre Sozialisationsinstanz wird als bedeutsamer Einflussfaktor auf das mathematische Selbstkonzept von Kindern beschrieben. Besonders für den Bereich Mathematik besteht die Gefahr, dass Eltern durch geschlechtsstereotype Einstellungen und Erwartungen ihre Tochter ungünstig beeinflussen (Jacobs, 1991; Tiedemann, 2000). In dieser Arbeit wird untersucht, inwiefern Eltern Geschlechtsstereotype zuungunsten der Mädchen in Mathematik äußern und inwiefern sich diese – schon zur Grundschulzeit – in den elterlichen Einschätzungen (elterliche Leistungs- und Fähigkeitseinschätzungen sowie elterliche Ursachenerklärungen) des eigenen Kindes widerspiegeln. Es wird angenommen, dass Mädchen entsprechend dem klassischen Geschlechtsstereotyp weniger talentiert und weniger leistungsstark in Mathematik eingeschätzt werden als Jungen. Für die Einschätzungen des eigenen Kindes wird erwartet, dass diese geschlechtsspezifische Verzerrungen zuungunsten der Mädchen aufweisen. Anhand von Pfadmodellen wird in dieser Arbeit der Einfluss elterlicher Geschlechtsstereotype und Einschätzungen, unter Kontrolle der vorangegangenen Mathematikleistung und des vorangegangenen mathematischen Selbstkonzeptes des Kindes, auf das aktuelle mathematische Selbstkonzept des Kindes am Ende des dritten Schuljahres analysiert. Als Grundlage dienen Daten von circa 900 Schülern und 400 Eltern aus dem Projekt Persönlichkeits- und Lernentwicklung von Grundschulkindern (PERLE). Die Befunde der vorliegenden Arbeit können bisherige Forschungsbefunde aus dem Sekundarbereich für den Grundschulbereich replizieren und weitere erstmalige Befunde ergänzen. Zusammenfassend kann festgehalten werden, dass knapp zwei Drittel der Eltern Geschlechtsstereotype zuungunsten der Mädchen in Mathematik äußern. Die Pfadanalysen ergeben, dass nicht das Geschlecht des Kindes, sondern Wechselwirkungen zwischen Geschlecht und elterlichen Geschlechtsstereotypen die elterlichen Einschätzungen des eigenen Kindes beeinflussen. Wenn Eltern Geschlechtsstereotype vertreten, schätzen sie eine Tochter ungünstiger ein als einen Sohn (unabhängig von der tatsächlichen Mathematikleistung des Kindes). Die elterlichen Einschätzungen haben wiederum einen signifikanten Einfluss auf das mathematische Selbstkonzept des Kindes. Die Ergebnisse dieser Arbeit werden abschließend diskutiert und Ansätze für Interventionen aufgezeigt.
Resumo:
Diese Arbeit beschäftigt sich mit der Frage, wie sich in einer Familie von abelschen t-Moduln die Teilfamilie der uniformisierbaren t-Moduln beschreiben lässt. Abelsche t-Moduln sind höherdimensionale Verallgemeinerungen von Drinfeld-Moduln über algebraischen Funktionenkörpern. Bekanntermaßen lassen sich Drinfeld-Moduln in allgemeiner Charakteristik durch analytische Tori parametrisieren. Diese Tatsache überträgt sich allerdings nur auf manche t-Moduln, die man als uniformisierbar bezeichnet. Die Situation hat eine gewisse Analogie zur Theorie von elliptischen Kurven, Tori und abelschen Varietäten über den komplexen Zahlen. Um zu entscheiden, ob ein t-Modul in diesem Sinne uniformisierbar ist, wendet man ein Kriterium von Anderson an, das die rigide analytische Trivialität der zugehörigen t-Motive zum Inhalt hat. Wir wenden dieses Kriterium auf eine Familie von zweidimensionalen t-Moduln vom Rang vier an, die von Koeffizienten a,b,c,d abhängen, und gelangen dabei zur äquivalenten Fragestellung nach der Konvergenz von gewissen rekursiv definierten Folgen. Das Konvergenzverhalten dieser Folgen lässt sich mit Hilfe von Newtonpolygonen gut untersuchen. Schließlich erhält man durch dieses Vorgehen einfach formulierte Bedingungen an die Koeffizienten a,b,c,d, die einerseits die Uniformisierbarkeit garantieren oder andererseits diese ausschließen.