997 resultados para erste Ausgabe
Resumo:
Der Anglizismus „Gender Studies“ bezeichnet in Deutschland faktisch Frauenforschung, also Forschung von Frauen über Frauen für Frauen. Es gibt sie seit mehr als drei Jahrzehnten. Die Zahl der Gender - Professuren beträgt mittlerweile ca. 250. Sie binden finanzielle Ressourcen in entsprechender Höhe. Das ist nicht der einzige, aber doch ein Grund, nach dem wissenschaftlichen Output dieser Forschungen zu fragen. In Niedersachsen ist 2013 eine Forschungsevaluation zum Thema Gender Studies durchgeführt worden. Möglicherweise handelt es dabei um die erste und einzige Untersuchung ihrer Art. Der Ergebnisbericht dieser Evaluation wird hier dargestellt und kritisch kommentiert. Das Ergebnis der Kritik lautet, dass gar keine Evaluation des Forschungs-Outputs vorgenommen worden ist, sondern dass es der beauftragten Kommission nur darum ging, die Input-Strukturen zu stärken, indem mehr Stellen, mehr finanzielle Mittel und noch weniger Kontrollen gefordert wurden.
Resumo:
Vor 15 Jahren wurde der erste Beitrag einer Serie von Modellabteilungsrechnungen mit dem Ziel veröffentlicht, der Praxis und Wissenschaft nachvollziehbare Planungshilfen für die Gestaltung optimaler Produktionsstrukturen in der Milchwirtschaft an die Hand zu geben. Dieses Ziel gilt auch heute noch, jedoch hat sich im Laufe der Zeit immer deutlicher herauskristallisiert, daß eine Fortschreibung der Faktorpreise sowie eine gelegentliche Aktualisierung der Faktormengenverbräuche in Anpassung an neue technologische Entwicklungen allein nicht ausreichen, die selbstgesetzen Ansprüche an die Modellabteilungsrechnung zu erfüllen.
Resumo:
In dieser Arbeit werden Verfahren zur visuellen Beurteilung von Stabilitätseigenschaften nichtlinearer, zeitdiskreter Systeme und mögliche Anwendungen vorgestellt. Ausgehend von den erforderlichen Grundbegriffen der Chaostheorie werden verschiedene Maße zur Detektion, Beschreibung und Visualisierung chaotischen Systemverhaltens motiviert, mathematisch definiert, physikalisch interpretiert und gedeutet: der Lyapunov Exponent, die Entropie, das Fourierspektrum und die Korrelation. Als erste Anwendung basierend auf diesen Gütemaßen wird das Verhalten von linearen und nichtlinearen rekursiven Systemen visualisiert und verglichen. Es zeigt sich, dass bei rekursiven linearen Systemen der Übergang von einem stabilen in einen instabilen oder chaotischen Zustand kontinuierlich erfolgt, während dieser Übergang bei nicht linearen Systemen häufig abrupt auftritt. Unter Verwendung der vorgestellten Visualisierung lässt sich sehr genau nachvollziehen, welche Parameter und insbesondere welche Parameterübergänge dabei kritisch sind. Diese Kenntnis ist sehr wichtig für eine störfreie Systemparametrierung und eine erforderliche Arbeitspunktsuche. In einer zweiten Anwendung wird chaotisches Systemverhalten als Generator optimal orthogonaler Signalfunktionen eingesetzt. Dazu wird die Rekursionsfolge in einem chaotischen Arbeitspunkt eines nichtlinearen rekursiven Systems als Musterfunktion eines statistischen Zufallsprozesses interpretiert: Je chaotischer das Systemverhalten und je kleiner die Varianz des Korrelationsmaßes desto besser können orthogonale Signalfolgen modelliert werden. Solche Signalfolgen sind von großer Bedeutung, wenn digitale Nachrichten über einen gestörten Kanal mit minimalem Daten- und Energieaufwand übertragen werden sollen. Als abschließendes Beispiel wird die fraktale Bildcodierung vorgestellt. Sie beruht nicht wie die klassischen Verfahren der Bildcodierung (Prädiktion, Transformation) auf statistischen Eigenschaften des Bildsignals sondern ausschließlich auf Selbstähnlichkeit. Die Bildpunkte eines Bildblockes werden nicht durch deren Grauwerte sondern durch ein Fraktal beschrieben, wobei dieses Fraktal durch eine kontraktive, affine Abbildung der Grauwertinformation dargestellt wird. Dieses Fraktal, d.h. diese Abbildungsvorschrift oder Gesetzmäßigkeit beschreibt die vollständige Information des Bildes. Durch die Anwendung dieser fraktalen Darstellung wird das codierte Bild aus beliebigen Bildern gleicher Größe generiert.
Resumo:
Das Thema Linked Open Data hat in den vergangenen Jahren im Bereich der Bibliotheken viel Aufmerksamkeit erfahren. Unterschiedlichste Projekte werden von Bibliotheken betrieben, um Linked Open Data für die Einrichtung und die Kunden nutzbringend einzusetzen. Ausgangspunkt für diese Arbeit ist die These, dass Linked Open Data im Bibliotheksbereich das größte Potenzial freisetzen kann. Es wird überprüft, inwiefern diese Aussage auch auf Öffentliche Bibliotheken zutrifft und aufgezeigt, welche Möglichkeiten sich daraus ergeben könnten. Die Arbeit führt in die Grundlagen von Linked Open Data (LOD) ein und betrachtet die Entwicklungen im Bibliotheksbereich. Dabei werden besonders Initiativen zur Behandlung bibliothekarischer Metadaten und der aktuelle Entwicklungsstand von LOD-fähigen Bibliothekssystemen behandelt. Danach wird eine Auswahl an LOD-Datensets vorgestellt, die bibliothekarische Metadaten liefern oder deren Daten als Anreicherungsinformationen in Kataloganwendungen eingesetzt werden können. Im Anschluss wird das Projekt OpenCat der Öffentlichen Bibliothek Fresnes (Frankreich) sowie das LOD-Projekt an der Deichmanske Bibliothek Oslo (Norwegen) vorgestellt. Darauf folgt ein Einblick in die Möglichkeiten, welche durch die Verwendung von LOD in Öffentlichen Bibliotheken verwirklicht werden könnten sowie erste Handlungsempfehlungen für Öffentliche Bibliotheken.
Resumo:
Ce mémoire porte sur l’avortement en Allemagne depuis les vingt dernières années. La première partie s’attardera d’une part, aux différentes lois en matière d’avortement des deux États allemands avant les événements de 1989 et d’autre part, à l’analyse du discours tenu par le mouvement féministe ouest-allemand et est-allemand face à l’avortement. La deuxième partie examinera le débat qui entoura l’avortement lors du processus de la Réunification. En effet, la loi sur l’avortement de la République démocratique allemande était beaucoup plus libérale que celle de la République fédérale d’Allemagne et la majorité des citoyens et politiciens d’ex-RDA refusèrent que la loi restrictive ouest-allemande soit tout simplement étendue à l’Allemagne réunifiée. Il s’ensuivit un débat qui devint rapidement une sorte de symbole du clivage présent entre les Allemands de l’Est et ceux de l’Ouest, mais aussi entre les féministes des nouveaux et des anciens Länder. C’est finalement en 1995 qu’une nouvelle loi fut votée par le Parlement, loi qui, encore aujourd’hui, régit l’avortement. Vingt ans après la chute du Mur, le débat sur l’avortement reprit sa place dans l’actualité avec un nouveau projet de loi visant à restreindre l’accès aux avortements pratiqués après la 12e semaine de grossesse. La troisième partie portera donc sur ce débat plus actuel et examinera si le clivage Est-Ouest face à l’avortement à l’époque de la Réunification, est toujours présent aujourd’hui en Allemagne, ce qui, selon les conclusions de ce mémoire, semble bien être le cas.
Resumo:
Au début de son Traité fondamental de la foi, Karl Rahner avise le lecteur que l’introduction au concept de christianisme qu’il propose se déploie à ce qu’il nomme un « premier niveau de réflexion » (erste Reflexionsstufe). S’il le distingue explicitement du niveau de réflexion des sciences entendues au sens usuel, il n’en donne pas de définition formelle, s’employant plutôt à le mettre en œuvre. Curieusement, eu égard à l’importance que lui accorde Rahner, la question de ce « plan » alternatif de compréhension et de justification de la foi chrétienne est demeurée pratiquement sans écho (un constat formulé par Max Seckler en 1984 et renouvelé par Karl H. Neufeld en 2006). C'est à cette question du « premier niveau de réflexion » chez Rahner que s'attache la présente étude. Après avoir dressé un état de la question, nous y présentons les jalons du déve-loppement du concept chez Rahner, depuis ses articles sur la formation des prêtres en contexte de pluralisme jusqu’au Traité fondamental de la foi. Nous y montrons ensuite en quoi la référence de Rahner à l'illative sense newmanien, contestée lorsqu’elle n’est pas négligée par les commentateurs, peut être une clé d’interprétation de la notion qui nous occupe, le « sens illatif » (et la Grammar of Assent) éclairant le « premier niveau de réflexion » (et le Traité fondamental), et vice versa. Nous y voyons enfin comment cette référence à Newman met sur la voie des Exercices spirituels d’Ignace de Loyola, lequel aura été pour Rahner non seulement un maître spirituel, mais également un maître de théologie. Ce qui paraissait n’être au début qu’une indication d’ordre didactique se révèle dès lors comme une caractérisation fondamentale de la théologie telle que la com-prend Rahner.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Im Dezember 1997 veröffentlichte die Frankfurter Allgemeine Zeitung den als Rechtsgutachten abgefassten Beitrag des Heidelberger Juristen Friedrich-Christian Schoeder (Schroeder 1997). Die Frage, die Autor und Zeitung eher spielerisch als aus konkretem Anlass umtrieb, galt dem rechtlichen Status eines Menschen, dessen Kopf auf den Körper eines anderen Menschen transplantiert wurde. Medizinisch waren und sind solche Eingriffe noch nicht durchführbar, aber immerhin schienen sie für den Autor und die Zeitung eine Aktualität zu besitzen. Auch bei folgenden Auseinandersetzungen, die in den Medien um die Konsequenzen der medizinisch-technischen Entwicklung geführt wurden, geraten Bewusstsein, Subjektivität und Körper zum statischem Abbild des Gegenwärtigen, sie werden nicht als Substrat historischer Prozesse begriffen. Ohne den Begriff der Vergangenheit plaudern sich eine Vielzahl Autoren durch die Zukunft. In dieser muss auch der auf einen fremden Körper übertragene Kopf als Rechtssubjekt verwaltet werden. Aber wie verändert sich der Mensch, durch eine medizinische Maßnahme vervollständigt, die dauerhaft seine Körpergrenze verschiebt? Die Transplantationsmedizin ist bei der Auseinandersetzung um Subjektivität nicht nur dann von besonderem Interesse, wenn ein Kopf auf, sondern auch, wenn ein gespendetes Organ in einen fremden Körper verpflanzt wird. Die Trennung von Fremd und Eigen, Außen und Innen ist eng mit dem Zivilisationsprozess und der Subjektwerdung verbunden. Was körperlich durch medizinische Maßnahmen verschoben wird, die Grenze zwischen Außen und Innen, ist die Bedingung der Möglichkeit von Subjektivität. Der Titel dieser Arbeit, Der Prothesengott, verweist auf die individuellen und zivilisatorischen Leistungen, die vollbracht werden mussten, um mit Fug und Recht „Ich“ sagen zu können. Der Begriff Prothesengott ist der Freudschen Schrift Das Unbehagen in der Kultur entnommen. Freud schreibt dort vom Ideal des Prothesengottes und das erste Kapitel der hier vorgelegten Arbeit ist der Entfaltung dieses Ideals gewidmet. Dieses Begriffspaar hat mehr Bedeutungsnuancen, als Freud an Ort und Stelle entwickelte. Es umfasst die Bedeutung von Mythos und Gott als Prothesen, als Ideale, die den Menschen vervollständigten. Aber auch die Bedeutung von Theorien, Ideen, schlicht Idealen als Prothesen Gottes ist angesprochen, und damit der Versuch, den Verlust Gottes auszugleichen. Und zu guter Letzt benennt es das Ideal eines Gottes durch Prothesen, die Apotheose, wie Freud sie meinte: Als Vergötzung der Prothesen, mit denen der Mensch sich vervollständigt, um sich nach dem Tod Gottes selber ein Versprechen auf Erlösung sein zu können. Mit dieser Entfaltung soll die Zivilisation wie die individuelle Entwicklung als ein Prozess rekonstruiert werden, in dem Subjektivität gleichzeitig hervorgebracht und beschädigt wird. Diese Dialektik von Zivilisation und Barbarisierung findet ihren vorläufigen Höhepunkt im Fortschreiten der technischen Mittel unserer Zeit. Zur empirischen Fassung der historisch vorfindlichen Subjektivität wurden Patienten der Transplantationseinheit der Universität Leipzig gebeten, in den ersten drei Monaten nach der Operation Tagebücher auszufüllen. Diese Tagebücher wurden mit statistischen und hermeneutischen Methoden ausgewertet. Die Transplantationserfahrung offenbart sich in den Tagebüchern zwar als besondere, aber in eine Vielzahl von Techniken der Körpergestaltung eingebettete Maßnahme. Neben einer kritischen Würdigung des methodischen Vorgehens wird im fünften Kapitel die Transplantationserfahrung in den Kontext anderer Forschungsergebnisse zur Gestaltung des Körpers gestellt. Deren kritische Diskussion und die Transplantationserfahrungen bieten einen Ausblick darauf, was Eingedenken der Natur im Subjekt heute bedeuten kann.
Resumo:
Die Dissertation befasst sich mit der Geschichte des Arbeitserziehungslagers (AEL) Breitenau, das 1940 von der Gestapostelle Kassel auf dem Gelände der Landesarbeitsanstalt Breitenau in Guxhagen gegründet wurde und bis zum Kriegsende bestand. Darüber hinaus wird auch der Frage nachgegangen, wie nach der NS-Zeit mit der Geschichte des Lagers, den Opfern und den Tätern umgegangen wurde. Die Dissertation ist in drei Teile gegliedert. Der erste Teil gibt einen Überblick über die Geschichte der Geheimen Staatspolizeistelle Kassel, der das Lager unterstand und die als zentrale Verfolgungsbehörde für den Regierungsbezirk Kassel zuständig war. Dabei wird vor allem aufgezeigt, wie die Gestapostelle Kassel entstanden ist, wie sie aufgebaut war und wer die Leiter und Mitarbeiter während des Zweiten Weltkrieges waren, die die Verfolgungsmaßnahmen organisierten und durchführten. Der zweite Teil der Dissertation befasst sich mit der eigentlichen Lagergeschichte. Breitenau war eines der ersten Arbeitserziehungslager überhaupt. Die Hauptfunktion bestand darin, ausländische Zwangsarbeiter und Zwangsarbeiterinnen, die sich dem Arbeitseinsatz widersetzt hatten, durch harte Bestrafung gefügig zu machen. Gleichzeitig wurden in das AEL aber auch deutsche und ausländische Gefangene eingewiesen, die aus politischen, rassischen, religiösen oder weltanschaulichen Gründen verhaftet worden waren. Das Lager unterstand zwar der Geheimen Staatspolizei Kassel, wurde aber von den Bediensteten der Landesarbeitsanstalt mit geleitet. Im Verlaufe des Zweiten Weltkrieges waren im AEL Breitenau etwa 8.300 überwiegend ausländische Schutzhaftgefangene inhaftiert, unter denen sich ca. 1.900 Frauen und 6.400 Männer befanden. Bei den Einweisungen wirkten neben der Gestapostelle Kassel und der Gestapostelle Weimar zahlreiche Orts- und Kreispolizeibehörden mit, wodurch ein flächendeckender Verfolgungsapparat entstand. Insgesamt lassen sich über 1.000 letzte Wohnorte von Gefangenen ermitteln. Die Haft- und Lebensbedingungen im Lager waren vor allem für die ausländischen Gefangenen besonders unmenschlich, und es gab mehrere Todesfälle. Nachweislich wurden mehr als 750 Gefangene in Konzentrationslager deportiert, was für viele den Tod bedeutete. Außerdem wurden mindestens 18 polnische Gefangene von Angehörigen der Gestapo Kassel erhängt und noch unmittelbar vor Kriegsende ein Massenmord an 28 Gefangenen verübt. Erst mit dem Einmarsch der amerikanischen Soldaten am Ostersamstag 1945 wurde das Arbeitserziehungslager Breitenau endgültig aufgelöst. Im dritten Teil der Dissertation wird der Frage des Umgangs mit dem damaligen Geschehen nachgegangen. Dabei lässt sich feststellen, dass die Täter und Mittäter von deutschen Spruchkammern und Gerichten gar nicht oder kaum bestraft wurden. Gleichzeitig wurden ihnen verschiedene Möglichkeiten geboten, sich in die Gesellschaft zu integrieren. Die ehemaligen Gefangenen hatten dagegen keinen Anspruch auf Entschädigung, und auch eine gesellschaftliche Würdigung wurde ihnen versagt. Erst seit den 90er Jahren trat hier eine Veränderung ein, die allerdings für viele Verfolgte zu spät kam. Die Geschichte des Arbeitserziehungslagers Breitenau war viele Jahre verdrängt worden. Das Gelände diente bis 1949 als Landesarbeitsanstalt, dann als geschlossenes Erziehungsheim, und seit 1974 besteht dort eine psychiatrische Einrichtung. Erst 1979 wurde durch ein Forschungsprojekt an der Gesamthochschule Kassel die NS-Geschichte „wiederentdeckt“ und 1984 die Gedenkstätte Breitenau eingerichtet, die als Gedenk- und Bildungsort an das damalige Geschehen erinnert.
Resumo:
Landwirtschaft spielt eine zentrale Rolle im Erdsystem. Sie trägt durch die Emission von CO2, CH4 und N2O zum Treibhauseffekt bei, kann Bodendegradation und Eutrophierung verursachen, regionale Wasserkreisläufe verändern und wird außerdem stark vom Klimawandel betroffen sein. Da all diese Prozesse durch die zugrunde liegenden Nährstoff- und Wasserflüsse eng miteinander verknüpft sind, sollten sie in einem konsistenten Modellansatz betrachtet werden. Dennoch haben Datenmangel und ungenügendes Prozessverständnis dies bis vor kurzem auf der globalen Skala verhindert. In dieser Arbeit wird die erste Version eines solchen konsistenten globalen Modellansatzes präsentiert, wobei der Schwerpunkt auf der Simulation landwirtschaftlicher Erträge und den resultierenden N2O-Emissionen liegt. Der Grund für diese Schwerpunktsetzung liegt darin, dass die korrekte Abbildung des Pflanzenwachstums eine essentielle Voraussetzung für die Simulation aller anderen Prozesse ist. Des weiteren sind aktuelle und potentielle landwirtschaftliche Erträge wichtige treibende Kräfte für Landnutzungsänderungen und werden stark vom Klimawandel betroffen sein. Den zweiten Schwerpunkt bildet die Abschätzung landwirtschaftlicher N2O-Emissionen, da bislang kein prozessbasiertes N2O-Modell auf der globalen Skala eingesetzt wurde. Als Grundlage für die globale Modellierung wurde das bestehende Agrarökosystemmodell Daycent gewählt. Neben der Schaffung der Simulationsumgebung wurden zunächst die benötigten globalen Datensätze für Bodenparameter, Klima und landwirtschaftliche Bewirtschaftung zusammengestellt. Da für Pflanzzeitpunkte bislang keine globale Datenbasis zur Verfügung steht, und diese sich mit dem Klimawandel ändern werden, wurde eine Routine zur Berechnung von Pflanzzeitpunkten entwickelt. Die Ergebnisse zeigen eine gute Übereinstimmung mit Anbaukalendern der FAO, die für einige Feldfrüchte und Länder verfügbar sind. Danach wurde das Daycent-Modell für die Ertragsberechnung von Weizen, Reis, Mais, Soja, Hirse, Hülsenfrüchten, Kartoffel, Cassava und Baumwolle parametrisiert und kalibriert. Die Simulationsergebnisse zeigen, dass Daycent die wichtigsten Klima-, Boden- und Bewirtschaftungseffekte auf die Ertragsbildung korrekt abbildet. Berechnete Länderdurchschnitte stimmen gut mit Daten der FAO überein (R2 = 0.66 für Weizen, Reis und Mais; R2 = 0.32 für Soja), und räumliche Ertragsmuster entsprechen weitgehend der beobachteten Verteilung von Feldfrüchten und subnationalen Statistiken. Vor der Modellierung landwirtschaftlicher N2O-Emissionen mit dem Daycent-Modell stand eine statistische Analyse von N2O-und NO-Emissionsmessungen aus natürlichen und landwirtschaftlichen Ökosystemen. Die als signifikant identifizierten Parameter für N2O (Düngemenge, Bodenkohlenstoffgehalt, Boden-pH, Textur, Feldfrucht, Düngersorte) und NO (Düngemenge, Bodenstickstoffgehalt, Klima) entsprechen weitgehend den Ergebnissen einer früheren Analyse. Für Emissionen aus Böden unter natürlicher Vegetation, für die es bislang keine solche statistische Untersuchung gab, haben Bodenkohlenstoffgehalt, Boden-pH, Lagerungsdichte, Drainierung und Vegetationstyp einen signifikanten Einfluss auf die N2O-Emissionen, während NO-Emissionen signifikant von Bodenkohlenstoffgehalt und Vegetationstyp abhängen. Basierend auf den daraus entwickelten statistischen Modellen betragen die globalen Emissionen aus Ackerböden 3.3 Tg N/y für N2O, und 1.4 Tg N/y für NO. Solche statistischen Modelle sind nützlich, um Abschätzungen und Unsicherheitsbereiche von N2O- und NO-Emissionen basierend auf einer Vielzahl von Messungen zu berechnen. Die Dynamik des Bodenstickstoffs, insbesondere beeinflusst durch Pflanzenwachstum, Klimawandel und Landnutzungsänderung, kann allerdings nur durch die Anwendung von prozessorientierten Modellen berücksichtigt werden. Zur Modellierung von N2O-Emissionen mit dem Daycent-Modell wurde zunächst dessen Spurengasmodul durch eine detailliertere Berechnung von Nitrifikation und Denitrifikation und die Berücksichtigung von Frost-Auftau-Emissionen weiterentwickelt. Diese überarbeitete Modellversion wurde dann an N2O-Emissionsmessungen unter verschiedenen Klimaten und Feldfrüchten getestet. Sowohl die Dynamik als auch die Gesamtsummen der N2O-Emissionen werden befriedigend abgebildet, wobei die Modelleffizienz für monatliche Mittelwerte zwischen 0.1 und 0.66 für die meisten Standorte liegt. Basierend auf der überarbeiteten Modellversion wurden die N2O-Emissionen für die zuvor parametrisierten Feldfrüchte berechnet. Emissionsraten und feldfruchtspezifische Unterschiede stimmen weitgehend mit Literaturangaben überein. Düngemittelinduzierte Emissionen, die momentan vom IPCC mit 1.25 +/- 1% der eingesetzten Düngemenge abgeschätzt werden, reichen von 0.77% (Reis) bis 2.76% (Mais). Die Summe der berechneten Emissionen aus landwirtschaftlichen Böden beträgt für die Mitte der 1990er Jahre 2.1 Tg N2O-N/y, was mit den Abschätzungen aus anderen Studien übereinstimmt.
Resumo:
Den Schwerpunkt dieser Dissertation bildet zum einen die Entwicklung eines theoretischen Modells zur Beschreibung des Strukturbildungsprozesses in organisch/anorganischen Doppelschichtsystemen und zum anderen die Untersuchung der Übertragbarkeit dieser theoretisch gewonnenen Ergebnisse auf reale Systeme. Hierzu dienen systematische experimentelle Untersuchungen dieses Phänomens an einem Testsystem. Der Bereich der selbstorganisierenden Systeme ist von hohem wissenschaftlichen Interesse, erlaubt er doch die Realisierung von Strukturen, die nicht den Begrenzungen heutiger Techniken unterliegen, wie etwa der Beugung bei lithographischen Verfahren. Darüber hinaus liefert ein vertieftes Verständnis des Strukturbildungsprozesses auch eine Möglichkeit, im Falle entsprechender technischer Anwendungen Instabilitäten innerhalb der Schichtsysteme zu verhindern und somit einer Degradation der Bauteile entgegenzuwirken. Im theoretischen Teil der Arbeit konnte ein Modell im Rahmen der klassischen Elastizitätstheorie entwickelt werden, mit dessen Hilfe sich die Entstehung der Strukturen in Doppelschichtsystemen verstehen läßt. Der hier gefundene funktionale Zusammenhang zwischen der Periode der Strukturen und dem Verhältnis der Schichtdicken von organischer und anorganischer Schicht, wird durch die experimentellen Ergebnisse sehr gut bestätigt. Die Ergebnisse zeigen, daß es technologisch möglich ist, über die Vorgabe der Schichtdicke in einem Materialsystem die Periodizität der entstehenden Strukturen vorzugeben. Darüber hinaus liefert das vorgestellte Modell eine Stabilitätsbedingung für die Schichtsysteme, die es ermöglicht, zu jedem Zeitpunkt die dominierende Mode zu identifizieren. Ein Schwerpunkt der experimentellen Untersuchungen dieser Arbeit liegt auf der Strukturbildung innerhalb der Schichtsysteme. Das Testsystem wurde durch Aufbringen einer organischen Schicht - eines sog. Molekularen Glases - auf ein Glassubstrat realisiert, als Deckschicht diente eine Siliziumnitrid-Schicht. Es wurden Proben mit variierenden Schichtdicken kontrolliert erwärmt. Sobald die Temperatur des Schichtsystems in der Größenordnung der Glasübergangstemperatur des jeweiligen organischen Materials lag, fand spontan eine Strukturbildung auf Grund einer Spannungsrelaxation statt. Es ließen sich durch die Wahl einer entsprechenden Heizquelle unterschiedliche Strukturen realisieren. Bei Verwendung eines gepulsten Lasers, also einer kreisförmigen Wärmequelle, ordneten sich die Strukturen konzentrisch an, wohingegen sich ihre Ausrichtung bei Verwendung einer flächenhaften Heizplatte statistisch verteilte. Auffällig bei allen Strukturen war eine starke Modulation der Oberfläche. Ferner konnte in der Arbeit gezeigt werden, daß sich durch eine gezielte Veränderung der Spannungsverteilung innerhalb der Schichtsysteme die Ausrichtung der Strukturen (gezielt) manipulieren ließen. Unabhängig davon erlaubte die Variation der Schichtdicken die Realisierung von Strukturen mit einer Periodizität im Bereich von einigen µm bis hinunter zu etwa 200 nm. Die Kontrolle über die Ausrichtung und die Periodizität ist Grundvoraussetzung für eine zukünftige technologische Nutzung des Effektes zur kontrollierten Herstellung von Mikro- bzw. Nanostrukturen. Darüber hinaus konnte ein zunächst von der Strukturbildung unabhängiges Konzept eines aktiven Sensors für die optische Raster-Nahfeld-Mikroskopie vorgestellt werden, das das oben beschriebene System, bestehend aus einem fluoreszierenden Molekularen Glas und einer Siliziumnitrid-Deckschicht, verwendet. Erste theoretische und experimentelle Ergebnisse zeigen das technologische Potential dieses Sensortyps.
Resumo:
Der Vielelektronen Aspekt wird in einteilchenartigen Formulierungen berücksichtigt, entweder in Hartree-Fock Näherung oder unter dem Einschluß der Elektron-Elektron Korrelationen durch die Dichtefunktional Theorie. Da die Physik elektronischer Systeme (Atome, Moleküle, Cluster, Kondensierte Materie, Plasmen) relativistisch ist, habe ich von Anfang an die relativistische 4 Spinor Dirac Theorie eingesetzt, in jüngster Zeit aber, und das wird der hauptfortschritt in den relativistischen Beschreibung durch meine Promotionsarbeit werden, eine ebenfalls voll relativistische, auf dem sogenannten Minimax Prinzip beruhende 2-Spinor Theorie umgesetzt. Im folgenden ist eine kurze Beschreibung meiner Dissertation: Ein wesentlicher Effizienzgewinn in der relativistischen 4-Spinor Dirac Rechnungen konnte durch neuartige singuläre Koordinatentransformationen erreicht werden, so daß sich auch noch für das superschwere Th2 179+ hächste Lösungsgenauigkeiten mit moderatem Computer Aufwand ergaben, und zu zwei weiteren interessanten Veröffentlichungen führten (Publikationsliste). Trotz der damit bereits ermöglichten sehr viel effizienteren relativistischen Berechnung von Molekülen und Clustern blieben diese Rechnungen Größenordnungen aufwendiger als entsprechende nicht-relativistische. Diese behandeln das tatsächliche (relativitische) Verhalten elektronischer Systeme nur näherungsweise richtig, um so besser jedoch, je leichter die beteiligten Atome sind (kleine Kernladungszahl Z). Deshalb habe ich nach einem neuen Formalismus gesucht, der dem möglichst gut Rechnung trägt und trotzdem die Physik richtig relativistisch beschreibt. Dies gelingt durch ein 2-Spinor basierendes Minimax Prinzip: Systeme mit leichten Atomen sind voll relativistisch nunmehr nahezu ähnlich effizient beschrieben wie nicht-relativistisch, was natürlich große Hoffnungen für genaue (d.h. relativistische) Berechnungen weckt. Es ergab sich eine erste grundlegende Veröffentlichung (Publikationsliste). Die Genauigkeit in stark relativistischen Systemen wie Th2 179+ ist ähnlich oder leicht besser als in 4-Spinor Dirac-Formulierung. Die Vorteile der neuen Formulierung gehen aber entscheidend weiter: A. Die neue Minimax Formulierung der Dirac-Gl. ist frei von spuriosen Zuständen und hat keine positronischen Kontaminationen. B. Der Aufwand ist weit reduziert, da nur ein 1/3 der Matrix Elemente gegenüber 4-Spinor noch zu berechnen ist, und alle Matrixdimensionen Faktor 2 kleiner sind. C. Numerisch verhält sich die neue Formulierung ähnlilch gut wie die nichtrelativistische Schrödinger Gleichung (Obwohl es eine exakte Formulierung und keine Näherung der Dirac-Gl. ist), und hat damit bessere Konvergenzeigenschaften als 4-Spinor. Insbesondere die Fehlerwichtung (singulärer und glatter Anteil) ist in 2-Spinor anders, und diese zeigt die guten Extrapolationseigenschaften wie bei der nichtrelativistischen Schrödinger Gleichung. Die Ausweitung des Anwendungsbereichs von (relativistischen) 2-Spinor ist bereits in FEM Dirac-Fock-Slater, mit zwei Beispielen CO und N2, erfolgreich gemacht. Weitere Erweiterungen sind nahezu möglich. Siehe Minmax LCAO Nährung.
Resumo:
Der pH-Wert stellt in der Chemie, Physik, Biologie, Pharmazie und Medizin eine wichtige Meßgröße dar, da eine Vielzahl von Reaktionen durch den pH-Wert bestimmt wird. In der Regel werden zur pH-Wert-Messung Glaselektroden eingesetzt. Hierbei konnte der pH-sensitive Bereich zwar bis auf einige Mikrometer reduziert werden, aber die Gesamtab-messungen betragen immer noch 15-20 cm. Mit der Einführung miniaturisierter Reaktionsgefäße ist daher der Bedarf an miniaturisierten Sensoren enorm gestiegen. Um in solchen Gefäßen Reaktionsparameter wie z. B. den pH-Wert zu kontrollieren, müssen die Gesamtabmessungen der Sensoren verringert werden. Dies lässt sich mit Hilfe der Mikrostrukturtechnik von Silizium realisieren. Hiermit lassen sich Strukturen und ganze Systeme bis in den Nanometerbereich herstellen. Basierend auf Silizium und Gold als Elektrodenmaterial wurden im Rahmen dieser Arbeit verschiedene Interdigitalstrukturen hergestellt. Um diese Strukturen zur pH-Wert-Messungen einsetzen zu können, müssen sie mit einer pH-sensitiven Schicht versehen werden. Hierbei wurde Polyanilin, ein intrinsisch leitendes Polymer, aufgrund seine pH-abhängigen elektrischen und optischen Verhaltens eingesetzt. Die Beschichtung dieser Sensoren mit Polyanilin erfolgte vorwiegend elektrochemisch mit Hilfe der Zyklovoltammetrie. Neben der Herstellung reiner Polyanilinfilme wurden auch Kopolymerisationen von Anilin und seinen entsprechenden Aminobenzoesäure- bzw. Aminobenzensulfonsäurederivaten durchgeführt. Ergebnisse dazu werden vorgestellt und diskutiert. Zur Charakterisierung der resultierenden Polyanilin- und Kopolymerfilme auf den Inter-digitalstrukturen wurden mit Hilfe der ATR-FT-IR-Spektroskopie Spektren aufgenommen, die gezeigt und diskutiert werden. Eine elektrochemische Charakterisierung der Polymere erfolgte mittels der Zyklovoltammetrie. Die mit Polyanilin bzw. seinen Kopolymeren beschichteten Sensoren wurden dann für Widerstandsmessungen an den Polymerfilmen in wässrigen Medien eingesetzt. Polyanilin zeigt lediglich eine pH-Sensitivität in einem pH-Bereich von pH 2 bis pH 4. Durch den Einsatz der Kopolymere konnte dieser pH-sensitive Bereich jedoch bis zu einem pH-Wert von 10 ausgeweitet werden. Zur weiteren Miniaturisierung der Sensoren wurde das Konzept der interdigitalen Elektroden-paare auf Cantilever übertragen. Die pH-sensitive Zone konnte dabei auf 500 µm2 bei einer Gesamtlänge des Sensors (Halter mit integriertem Cantilever) von 4 mm reduziert werden. Neben den elektrischen pH-abhängigen Eigenschaften können auch die optischen Eigen-schaften des Polyanilins zur pH-Detektion herangezogen werden. Diese wurden zunächst mit Hilfe der UV-VIS-Spektroskopie untersucht. Die erhaltenen Spektren werden gezeigt und kurz diskutiert. Mit Hilfe eines Raster-Sonden-Mikroskops (a-SNOM, Firma WITec) wurden Reflexionsmessungen an Polyanilinschichten durchgeführt. Zur weiteren Miniaturisierung wurden Siliziumdioxidhohlpyramiden (Basisfläche 400 µm2) mit Spitzenöffnungen in einem Bereich von 50-150 nm mit Polyanilin beschichtet. Auch hier sollten die optischen Eigenschaften des Polyanilins zur pH-Wert-Sensorik ausgenutzt werden. Es werden erste Messungen an diesen Strukturen in Transmission diskutiert.
Resumo:
Nach 35 Jahren Entwicklungszeit wurde im Jahr 2004 in Shanghai die erste kommerzielle Anwendung des innovativen Magnetbahnsystems Transrapid in Betrieb genommen; in Deutschland konnte bislang keine Transrapid-Strecke realisiert werden, obwohl dieses System entsprechend den Ergebnissen einer vom damaligen Bundesverkehrsminister beauftragten Studie aus dem Jahr 1972 für den Einsatz in Deutschland entwickelt wurde. Beim Transrapid handelt es sich um eine echte Produkt-Innovation im Bahnverkehr und nicht um eine Weiterentwicklung oder Optimierung wie beim ICE, und ist somit als innovativer Verkehrsträger der Zukunft in die langfristige Entwicklung der Verkehrssysteme einzufügen. Die modernen HGV Bahnsysteme (Shinkansen/TGV/ICE) hingegen sind, ähnlich der Clipper in der Phase der Segelschifffahrt im Übergang zum Dampfschiff, letzte Abwehrentwicklungen eines am Zenit angekommenen Schienen-Verkehrssystems. Die Einführung von Innovationen in einen geschlossenen Markt stellt sich als schwierig dar, da sie zu einem Bruch innerhalb eines etablierten Systems führen. Somit wird in der vorliegenden Arbeit im ersten Teil der Themenkomplex Innovation und die Einordnung der Magnet-Schwebe-Technologie in diese langfristig strukturierten Abläufe untersucht und dargestellt. Das Transrapid-Projekt ist demzufolge in eine zeitstrukturelle Zyklizität einzuordnen, die dafür spricht, die Realisierung des Gesamtprojektes in eine Zeitspanne von 20 bis 30 Jahre zu verlagern. Im zweiten Teil wird auf der Basis einer regionalstrukturellen Analyse der Bundesrepublik Deutschland ein mögliches Transrapidnetz entworfen und die in diesem Netz möglichen Reisezeiten simuliert. Weiterhin werden die Veränderungen in den Erreichbarkeiten der einzelnen Regionen aufgrund ihrer Erschließung durch das Transrapidnetz simuliert und grafisch dargestellt. Die vorliegende Analyse der zeitlichen Feinstruktur eines perspektiven Transrapidnetzes ist ein modellhafter Orientierungsrahmen für die Objektivierung von Zeitvorteilen einer abgestimmten Infrastruktur im Vergleich zu real möglichen Reisezeiten innerhalb Deutschlands mit den gegebenen Verkehrsträgern Schiene, Straße, Luft. So würde der Einsatz des Transrapid auf einem entsprechenden eigenständigen Netz die dezentrale Konzentration von Agglomerationen in Deutschland fördern und im Durchschnitt annähernd 1 h kürzere Reisezeiten als mit den aktuellen Verkehrsträgern ermöglichen. Zusätzlich wird noch ein Ausblick über mögliche Realisierungsschritte eines Gesamtnetzes gegeben und die aufgetretenen Schwierigkeiten bei der Einführung des innovativen Verkehrssystems Transrapid dargestellt.
Gemeinsam selbständig. Eine Analyse kooperativen Handelns bei partnerschaftlichen Existenzgründungen
Resumo:
Im Zentrum der empirischen Arbeit steht einerseits eine besondere Form der Unternehmensgründung, andererseits eine besondere Form der Kooperation: die partnerschaftliche Existenzgründung. Das Forschungsvorhaben geht dem Ziel nach, Kooperationsprozesse in solchen unternehmerischen Partnerschaften zu explorieren. Um letztendlich eine praktisch nutzbare Grundlage für Maßnahmen zur Förderung beruflicher Selbständigkeit zu gewinnen, werden Merkmale und Rahmenbedingungen erfolgreicher partnerschaftlicher Existenzgründungen aufgezeigt. Die Empirie stützt sich auf qualitative Interviews mit Personen, die erfolgreich im Team ein Unternehmen gegründet haben und führen. In einem ersten Schritt werden anhand der Interviews konkrete alltägliche Kooperationsprozesse präzise beschrieben. Darauf aufbauend zeichnen tiefer gehende qualitative Analysen Entwicklungen auf einer abstrakteren Handlungsebene nach. Das Spektrum der Betrachtung umfasst neben individuellen Entwicklungen der Unternehmensgründer auch Prozesse auf der Teamebene sowie auf unternehmerischer Ebene. Zur Exploration der Handlungsprozesse werden die eigenen Ergebnisse durch ausgewählte theoretische Ansätze aus Kognitions- und Sozialpsychologie, aus soziologischer Handlungstheorie und Betriebswirtschaftslehre bereichert. Als relevant auf individueller Ebene erweisen sich insbesondere Prozesse der Identitätsentwicklung hin zu einer unternehmerisch-partnerschaftlichen Identität. Auf der Teamebene sind die Bewahrung und Überwindung von Eigensinn in der Interaktion sowie der Aufbau einer vertrauensvollen Beziehung zentral. Auf Unternehmensebene schließlich spielen Prozesse der Sinnfindung zwischen individuellen Erwerbsentwürfen und ökonomischen Strukturen, die Entstehung von Ordnung sowie Problemlösungsprozesse eine entscheidende Rolle. Insgesamt wird deutlich, dass der Weg in eine partnerschaftliche Selbständigkeit ein vielschichtiger Lernprozess ist, der aus der Praxis heraus entsteht, im Wesentlichen von den Gründern selbst organisiert und von gemeinsamen Reflexionen getragen wird. Diese Erkenntnisse stellen erste Ansatzpunkte dar zur Förderung beruflicher Selbständigkeit in Hochschule und im beruflichen Bildungswesen.