402 resultados para Direkt-överallt.
Resumo:
Im Rahmen dieser Arbeit wurden magneto-optische Speicherschichten und ihre Kopplungen untereinander untersucht. Hierzu wurden zum Einen die für die magneto-optische Speichertechnologie "klassischen" Schichten aus RE/TM-Legierungen verwendet, zum Anderen aber auch erfolgreich Granate integriert, die bisher nicht in diesem Anwendungsgebiet verwendet wurden. Einleitend werden die magneto-optischen Verfahren, die resultierenden Anforderungen an die dünnen Schichten und die entsprechenden physikalischen Grundlagen diskutiert. Außerdem wird auf das Hochfrequenz-Sputtern von RE/TM-Legierungen eingegangen und die verwendeten magneto-optischen Messverfahren werden erläutert [Kap. 2 & 3]. Die Untersuchungen an RE/TM-Schichten bestätigen die aus der Literatur bekannten Eigenschaften. Sie lassen sich effektiv, und für magneto-optische Anwendungen geeignet, über RF-Sputtern herstellen. Die unmittelbaren Schicht-Parameter, wie Schichtdicke und Terbium-Konzentration, lassen sich über einfache Zusammenhänge einstellen. Da die Terbium-Konzentration eine Änderung der Kompensationstemperatur bewirkt, lässt sich diese mit Messungen am Kerr-Magnetometer überprüfen. Die für die Anwendung interessante senkrechte magnetische Anisotropie konnte ebenfalls mit den Herstellungsbedingungen verknüpft werden. Bei der Herstellung der Schichten auf einer glatten Glas-Oberfläche (Floatglas) zeigt die RE/TM-Schicht bereits in den ersten Lagen ein Wachstumsverhalten, das eine senkrechte Anisotropie bewirkt. Auf einer Quarzglas- oder Keramik-Oberfläche wachsen die ersten Lagen in einer durch das Substrat induzierten Struktur auf, danach ändert sich das Wachstumsverhalten stetig, bis eine senkrechte Anisotropie erreicht wird. Dieses Verhalten kann auch durch verschiedene Pufferschichten (Aluminium und Siliziumnitrid) nur unwesentlich beeinflusst werden [Kap. 5 & Kap. 6]. Bei der direkten Aufbringung von Doppelschichten, bestehend aus einer Auslese-Schicht (GdFeCo) auf einer Speicherschicht (TbFeCo), wurde die Austausch-Kopplung demonstriert. Die Ausleseschicht zeigt unterhalb der Kompensationstemperatur keine Kopplung an die Speicherschicht, während oberhalb der Kompensationstemperatur eine direkte Kopplung der Untergitter stattfindet. Daraus ergibt sich das für den MSR-Effekt erwünschte Maskierungsverhalten. Die vorher aus den Einzelschichten gewonnen Ergebnisse zu Kompensationstemperatur und Wachstumsverhalten konnten in den Doppelschichten wiedergefunden werden. Als Idealfall erweist sich hier die einfachste Struktur. Man bringt die Speicherschicht auf Floatglas auf und bedeckt diese direkt mit der Ausleseschicht [Kap. 7]. Weiterhin konnte gezeigt werden, dass es möglich ist, den Faraday-Effekt einer Granatschicht als verstärkendes Element zu nutzen. Im anwendungstauglichen, integrierten Schichtsystem konnten die kostengünstig, mit dem Sol-Gel-Verfahren produzierten, Granate die strukturellen Anforderungen nicht erfüllen, da sich während der Herstellung Risse und Löcher gebildet haben. Bei der experimentellen Realisierung mit einer einkristallinen Granatschicht und einer RE/TM-Schicht konnte die prinzipielle Eignung des Schichtsystems demonstriert werden [Kap. 8].
Resumo:
Scanning Probe Microscopy (SPM) has become of fundamental importance for research in area of micro and nano-technology. The continuous progress in these fields requires ultra sensitive measurements at high speed. The imaging speed limitation of the conventional Tapping Mode SPM is due to the actuation time constant of piezotube feedback loop that keeps the tapping amplitude constant. In order to avoid this limit a deflection sensor and an actuator have to be integrated into the cantilever. In this work has been demonstrated the possibility of realisation of piezoresistive cantilever with an embedded actuator. Piezoresistive detection provides a good alternative to the usual optical laser beam deflection technique. In frames of this thesis has been investigated and modelled the piezoresistive effect in bulk silicon (3D case) for both n- and p-type silicon. Moving towards ultra-sensitive measurements it is necessary to realize ultra-thin piezoresistors, which are well localized to the surface, where the stress magnitude is maximal. New physical effects such as quantum confinement which arise due to the scaling of the piezoresistor thickness was taken into account in order to model the piezoresistive effect and its modification in case of ultra-thin piezoresistor (2D case). The two-dimension character of the electron gas in n-type piezoresistors lead up to decreasing of the piezoresistive coefficients with increasing the degree of electron localisation. Moreover for p-type piezoresistors the predicted values of the piezoresistive coefficients are higher in case of localised holes. Additionally, to the integration of the piezoresistive sensor, actuator integrated into the cantilever is considered as fundamental for realisation of fast SPM imaging. Actuation of the beam is achieved thermally by relying on differences in the coefficients of thermal expansion between aluminum and silicon. In addition the aluminum layer forms the heating micro-resistor, which is able to accept heating impulses with frequency up to one megahertz. Such direct oscillating thermally driven bimorph actuator was studied also with respect to the bimorph actuator efficiency. Higher eigenmodes of the cantilever are used in order to increase the operating frequencies. As a result the scanning speed has been increased due to the decreasing of the actuation time constant. The fundamental limits to force sensitivity that are imposed by piezoresistive deflection sensing technique have been discussed. For imaging in ambient conditions the force sensitivity is limited by the thermo-mechanical cantilever noise. Additional noise sources, connected with the piezoresistive detection are negligible.
Resumo:
The tubular structures, which transport essential gases, liquids, or cells from one site to another, are shared among various divergent organisms. These highly organized tubular networks include lung, kidney, vasculature and mammary gland in mammals as well as trachea and salivary gland in Drosophila melanogaster. Many questions regarding the tubular morphogenesis cannot be addressed sufficiently by investigating the mammalian organs because their structures are extremely complex and therefore, systematic analyses of genetic and cellular programs guiding the development is not possible. In contrast, the Drosophila tracheal development provides an excellent model system since many molecular markers and powerful tools for genetic manipulations are available. Two mechanisms were shown to be important for the outgrowth of tracheal cells: the FGF signaling pathway and the interaction between the tracheal cells and the surrounding mesodermal cells. The Drosophila FGF ligand encoded by branchless (bnl) is localized in groups of cells near tracheal metameres. The tracheal cells expressing the FGF receptor breathless (btl) respond to these sources of FGF ligand and extend towards them. However, this FGF signaling pathway is not sufficient for the formation of continuous dorsal trunk, the only muticellular tube in tracheal system. Recently, it was found out that single mesodermal cells called bridge-cells are essential for the formation of continuous dorsal trunk as they direct the outgrowth of dorsal trunk cells towards the correct targets. The results in this PhD thesis demonstrate that a cell adhesion molecule Capricious (Caps), which is specifically localized on the surface of bridge-cells, plays an essential role in guiding the outgrowing dorsal trunk cells towards their correct targets. When caps is lacking, some bridge-cells cannot stretch properly towards the adjacent posterior tracheal metameres and thus fail to interconnect the juxtaposing dorsal trunk cells. Consequently, discontinuous dorsal trunks containing interruptions at several positions are formed. On the other hand, when caps is ectopically expressed in the mesodermal cells through a twi-GAL4 driver, these mesodermal cells acquire a guidance function through ectopic caps and misguide the outgrowing dorsal trunk cells in abnormal directions. As a result, disconnected dorsal trunks are formed. These loss- and gain-of-function studies suggest that Caps presumably establishes the cell-to-cell contact between the bridge-cells and the tracheal cells and thereby mediates directly the guidance function of bridge-cells. The most similar protein known to Caps is another cell adhesion molecule called Tartan (Trn). Interestingly, trn is expressed in the mesodermal cells but not in the bridge-cells. When trn is lacking, the outgrowth of not only the dorsal trunks but also the lateral trunks are disrupted. However, in contrast to the ectopic expression of caps, the misexpression of trn does not affect tracheal development. Whereas Trn requires only its extracellular domain to mediate the matrix function, Caps requires both its extracellular and intracellular domains to function as a guidance molecule in the bridge-cells. These observations suggest that Trn functions differently from Caps during tracheal morphogenesis. Presumably, Trn mediates a matrix function of mesodermal cells, which support the tracheal cells to extend efficiently through the surrounding mesodermal tissue. In order to determine which domains dictate the functional specificity of Caps, two hybrid proteins CapsEdTrnId, which contains the Caps extracellular domain and the Trn intracellular domain, and TrnEdCapsId, which consists of the Trn extracellular domain and the Caps intracellular domain, were constructed. Gain of function and rescue experiments with these hybrid proteins suggest on one hand that the extracellular domains of Caps and Trn are functionally redundant and on the other hand that the intracellular domain dictates the functional specificity of Caps. In order to identify putative interactors of Caps, yeast two-hybrid screening was performed. An in vivo interaction assay in yeast suggests that Ras64B interacts specifically with the Caps intracellular domain. In addition, an in vitro binding assay reveals a direct interaction between an inactive form of Ras64B and the Caps intracellular domain. ras64B, which encodes a small GTPase, is expressed in the mesodermal cells concurrently as caps. Finally, a gain-of-function study with the constitutively active Ras64B suggests that Ras64B presumably functions downstream of Caps. All these results suggest consistently that the small GTPase Ras64B binds specifically to the Caps intracellular domain and may thereby mediate the guidance function of Caps.
Resumo:
In der vorliegenden Arbeit wurde das Wachstum von Silbernanoteilchen auf Magnesiumoxid und dabei insbesondere deren Größen- und Formrelation untersucht. Hierzu wurden Silbernanoteilchen auf ausgedehnten Magnesiumoxidsubstraten sowie auf Magnesiumoxid-Nanowürfeln präpariert. Zur Charakterisierung wurde die optische Spektroskopie, die Rasterkraftmikroskopie und die Transmissionselektronenmikroskopie eingesetzt. Während die Elektronenmikroskopie direkt sehr exakte Daten bezüglich der Größe und Form der Nanoteilchen liefert, kann mit den beiden anderen in dieser Arbeit verwendeten Charakterisierungsmethoden jeweils nur ein Parameter bestimmt werden. So kann man die Größe der Nanoteilchen indirekt mit Hilfe des AFM, durch Messung der Teilchananzahldichte, bestimmen. Bei der Bestimmung der Form mittels optischer Spektroskopie nutzt man aus, dass die spektralen Positionen der Plasmonresonanzen in dem hier verwendeten Größenbereich von etwa 2 - 10~nm nur von der Form aber nicht von der Größe der Teilchen abhängen. Ein wesentliches Ziel dieser Arbeit war es, die Ergebnisse bezüglich der Form und Größe der Nanoteilchen, die mit den unterschiedlichen Messmethoden erhalten worden sind zu vergleichen. Dabei hat sich gezeigt, dass die mit dem AFM und dem TEM bestimmten Größen signifikant voneinander Abweichen. Zur Aufklärung dieser Diskrepanz wurde ein geometrisches Modell aufgestellt und AFM-Bilder von Nanoteilchen simuliert. Bei dem Vergleich von optischer Spektroskopie und Transmissionselektronenmikroskopie wurde eine recht gute Übereinstimmung zwischen den ermittelten Teilchenformen gefunden. Hierfür wurden die gemessenen optischen Spektren mit Modellrechnungen verglichen, woraus man die Relation zwischen Teilchengröße und -form erhielt. Eine Übereinstimmung zwischen den erhaltenen Daten ergibt sich nur, wenn bei der Modellierung der Spektren die Form- und Größenverteilung der Nanoteilchen berücksichtigt wird. Insgesamt hat diese Arbeit gezeigt, dass die Kombination von Rasterkraftmikroskopie und optischer Spektroskopie ein vielseitiges Charakterisierungsverfahren für Nanoteilchen. Die daraus gewonnenen Ergebnisse sind innerhalb gewisser Fehlergrenzen gut mit der Transmissionselektronenmikroskopie vergleichbar.
Resumo:
Diese Arbeit befasst sich mit der Innovations- und Globalisierungspolitik in kleinen Transformationsländern am Beispiel Mazedoniens; diese wurde mit der Lage in Slowenien verglichen, einem Land von ungefähr gleicher Größe und mit gemeinsamer Vergangenheit als Teilrepublik der Jugoslawischen Föderation, aber mit einem wesentlich höheren ökonomischen Entwicklungsstand. Innovation wird dabei verstanden als „Herstellung, Anpassung und Ausnutzung von Neuerungen“, und sie wird durch das Umfeld, in dem sie stattfindet, beeinflusst. Anpassung und Ausnutzung sind gerade für kleine Transformationsländer von erheblicher Bedeutung, da ihre Fähigkeit zu Herstellung von Neuerungen sehr begrenzt sind. Die Rolle der Innovationspolitik besteht hierbei darin, institutionelle und organisationelle Regulierungen einzuführen, die ein günstiges Umfeld sowohl für Innovationen als auch für die Entwicklung eines nationalen Innovationssystems schaffen. Die Rolle der Politik besteht also nicht in der Innovation als solcher, sondern in der Herstellung der notwendigen Bedingungen für die Industrie und die Forschungseinrichtungen dahingehend zu schaffen, dass sie ihr Wissen, ihre Fertigkeiten und ihre praktischen Erfahrungen für innovative Tätigkeiten einsetzen können. Auf der einen Seite gibt es Institutionen und Organisationen, ohne die die Unternehmen rückständig und wenig leistungsstark wären (etwa das Patentamt oder Institutionen höherer Bildung), und auf der anderen Seite gibt es Institutionen und Organisationen, welche die Unternehmen dabei unterstützen, dass sie ihre Tätigkeit weiter unterstützen (z.B. durch Technologietransfer-Zentren und Netzwerke). Die Leistungen dieser Institutionen und Organisationen sind von großer Bedeutung für die nationalen Innovationssysteme und sollten ihrerseits durch Innovationspolitik unterstützt werden; dies bedeutet jedoch nicht, dass diese Leistungen vom Staat bereitgestellt werden, vielmehr sollte die Wirtschaftspolitik Möglichkeiten für die öffentlich/private oder sogar rein private Bereitstellung solcher Leistungen in Erwägung ziehen; dies würde nicht nur die Kosten für den Staat senken, sondern auch die Effizienz bei der Erstellung dieser Leistungen steigern. Die Arbeit kommt zu dem Schluss, dass das größte Problem der Innovationspolitik in Mazedonien darin besteht, dass es sie gar nicht gibt, und zwar nicht als Folge einer bewussten Entscheidung darüber. Tatsächlich müssen Ressourcen und Zeit für die Schaffung eines nationalen Innovationssystems eingesetzt werden mit Hilfe einer Politik, die sich auf die wesentlichen Umrisse konzentriert, wobei die Nachfrage nach Technologie im Unternehmensbereich gesteigert wird und das Wissen und das Informationsangebot restrukturiert wird. Dieses System muss offen sein, unter beständigem Verbesserungsdruck stehen und fähig sein, sich an Veränderungen anzupassen. Damit eine solche Politik erfolgreich ist, muss es einen Konsens darüber zwischen allen beteiligten Akteuren geben und darüber hinaus auch eine Kohärenz zwischen den verschiedenen politischen Institutionen. Das ist deswegen wichtig, weil der Innovationsprozess komplex ist und verschiedene Politikbereiche berührt. Ziel sollte die Schaffung eines Systems sein, das einerseits auf Autonomie und Kooperation aufbaut, andererseits aber auch Wettbewerb zwischen den beteiligten Institutionen und Organisationen fördert. Eine wichtige Bedingung für ein positives Investitionsklima im Bereich der Innovation ist die Erreichung von makroökonomischer Stabilität. Die gegenwärtige Situation ist gekennzeichnet durch Instabilität des Rechtswesens, durch Korruption und Probleme des Vertragsschutzes, die sowohl ausländische als auch inländische Akteure davon abhält, sich in wirtschaftlichen Aktivitäten in Mazedonien zu engagieren. Bei der Suche nach einem Ausweg aus diesen Problemen ist es wichtig für Mazedonien, von anderen Ländern wie Slowenien zu lernen, die ähnliche Probleme haben, aber auch schon Erfahrungen in der Problemlösung. Man muss dabei beachten, dass der Entwicklungsstand, das wirtschaftliche und das politische Umfeld in beiden Vergleichsländern sich erheblich unterscheiden, so dass die Lektionen, die Mazedonien von Slowenien lernen könnte, nicht direkt übertragen und kopiert werden können, sondern entsprechend angepasst werden müssen. Die vorliegende Arbeit liefert Einsichten in die Probleme der Innovationspolitik in Transformationsländern und liefert daher sowohl einen Anreiz als auch eine Quelle von Informationen für künftige Analysen der wirtschaftlichen Bedingungen und vor allem Innovationspolitik in Transformationsländern.
Resumo:
In dieser Dissertation präsentieren wir zunächst eine Verallgemeinerung der üblichen Sturm-Liouville-Probleme mit symmetrischen Lösungen und erklären eine umfassendere Klasse. Dann führen wir einige neue Klassen orthogonaler Polynome und spezieller Funktionen ein, welche sich aus dieser symmetrischen Verallgemeinerung ableiten lassen. Als eine spezielle Konsequenz dieser Verallgemeinerung führen wir ein Polynomsystem mit vier freien Parametern ein und zeigen, dass in diesem System fast alle klassischen symmetrischen orthogonalen Polynome wie die Legendrepolynome, die Chebyshevpolynome erster und zweiter Art, die Gegenbauerpolynome, die verallgemeinerten Gegenbauerpolynome, die Hermitepolynome, die verallgemeinerten Hermitepolynome und zwei weitere neue endliche Systeme orthogonaler Polynome enthalten sind. All diese Polynome können direkt durch das neu eingeführte System ausgedrückt werden. Ferner bestimmen wir alle Standardeigenschaften des neuen Systems, insbesondere eine explizite Darstellung, eine Differentialgleichung zweiter Ordnung, eine generische Orthogonalitätsbeziehung sowie eine generische Dreitermrekursion. Außerdem benutzen wir diese Erweiterung, um die assoziierten Legendrefunktionen, welche viele Anwendungen in Physik und Ingenieurwissenschaften haben, zu verallgemeinern, und wir zeigen, dass diese Verallgemeinerung Orthogonalitätseigenschaft und -intervall erhält. In einem weiteren Kapitel der Dissertation studieren wir detailliert die Standardeigenschaften endlicher orthogonaler Polynomsysteme, welche sich aus der üblichen Sturm-Liouville-Theorie ergeben und wir zeigen, dass sie orthogonal bezüglich der Fisherschen F-Verteilung, der inversen Gammaverteilung und der verallgemeinerten t-Verteilung sind. Im nächsten Abschnitt der Dissertation betrachten wir eine vierparametrige Verallgemeinerung der Studentschen t-Verteilung. Wir zeigen, dass diese Verteilung gegen die Normalverteilung konvergiert, wenn die Anzahl der Stichprobe gegen Unendlich strebt. Eine ähnliche Verallgemeinerung der Fisherschen F-Verteilung konvergiert gegen die chi-Quadrat-Verteilung. Ferner führen wir im letzten Abschnitt der Dissertation einige neue Folgen spezieller Funktionen ein, welche Anwendungen bei der Lösung in Kugelkoordinaten der klassischen Potentialgleichung, der Wärmeleitungsgleichung und der Wellengleichung haben. Schließlich erklären wir zwei neue Klassen rationaler orthogonaler hypergeometrischer Funktionen, und wir zeigen unter Benutzung der Fouriertransformation und der Parsevalschen Gleichung, dass es sich um endliche Orthogonalsysteme mit Gewichtsfunktionen vom Gammatyp handelt.
Resumo:
Die Endozytose und die anschließende Verwertung der aufgenommenen Substanzen ist Gegenstand zahlreicher Untersuchungen. Dabei wird ein besonderes Augenmerk auf die Proteine gelegt, die an diesen Vorgängen beteiligt sind. In der hier vorliegenden Arbeit wird der Lipid-Status der Zelle und Enzyme des Lipid-Stoffwechsels berücksichtigt. Das Ausschalten einer Long Chain-Fatty Acyl CoA Synthetase 1 (LC-FACS), fcsB, in Dictyostelium discoideum hat eine Veränderung der Menge an neutralen Lipiden zur Folge. In diesen LC-FACS2 „Knock-Out“-Zellen wird ein Zusammenhang zwischen neutralen Lipiden und der Phagozytose von Hefen und Bakterien detektiert. Ein Einfluss auf den endozytotischen Transit kann in diesen Zellen nur induziert werden, wenn man zusätzlich den Triglycerid-Hydrolyse-Inhibitor LSD1 in den Zellen exprimiert. Mit Hilfe der Daten wird ein Modell erstellt, indem die Reduktion der Menge an neutralen Lipiden nicht direkt für diesen Phänotyp verantwortlich ist. Es ist vielmehr das Energie-Niveau der Zellen, das die Phagozytoserate beeinflusst. Möglich macht dies ein Pool aus Fettsäuren im Zytoplasma. Dieser besteht aus unaktivierten Fettsäuren und Acyl-CoAs. Auf ihn greifen Kompartimente wie Lipidtropfen, Mitochondrien und Peroxisomen zu, wenn Fettsäuren verstoffwechselt werden sollen. In LC-FACS2 „Knock-Out“-Zellen, wird das Gleichgewicht im Pool in Richtung der unaktivierten Fettsäuren verschoben. Anhand der Größe dieses Pools kann die Zelle ihren Energiestatus messen. Ein höherer Energie-Status führt dann zu einer Reduktion der Phagozytoserate. Vacuolin B Null Zellen (vacB-) zeigen eine extreme Verzögerung im endozytotischen Transit. Schaltet man in diesen Zellen die LC-FACS1 aus (vacB-/fcsA-), so reduziert man ebenfalls die Menge an Triglyceriden. Dies ist darauf zurückzuführen, dass der Acyl-CoA Anteil des Fettsäure-Pools reduziert ist. Diese Reduktion resultiert hier in einer Beschleunigung des endozytotischen Transits. Die Exozytose von vacB--Zellen und vacB-/ fcsA--Zellen unterscheidet sich nicht. Daher wird die Ursache für diese Beschleunigung in veränderten Fusions- bzw. Fissionseigenschaften der Endosomen vermutet. Somit führt das Ausschalten von LC-FACS-Proteinen in Dictyostelium zu einer veränderten Zusammensetzung des Fettsäure-Pools. Dies hat im Fall der LC-FACS1 Modifikationen der Membran-Dynamik und im Fall der LC-FACS2 Änderungen des Energie-Spiegels zur Folge.
Resumo:
Bei Dämmen auf wenig tragfähigem Untergrund ist es zwischenzeitlich Stand der Technik, an der Dammbasis eine Bewehrung aus hochzugfesten Geokunststoffen (Gewebe oder Geogitter) einzulegen. Dabei können die Bewehrungslagen direkt auf den weichen Boden oder über Pfahlelementen angeordnet werden, die die Dammlasten in tiefere, tragfähigere Schichten abtragen. Die horizontale Bewehrung an der Dammbasis hat die Aufgabe, die vertikalen Dammlasten und die nach außen wirkenden Spreizkräfte aufzunehmen. Dies ist besonders für bewehrte Tragschichten über Pfählen von großer Bedeutung, da sonst die Pfähle/Säulen eine Biegebeanspruchung erhalten, die sie aufgrund des geringen Durchmessers (oftmals unbewehrt) nicht aufnehmen können. Abgesicherte wissenschaftliche Erkenntnisse über Größe und Verteilung der Spreizspannung in Höhe ober- und unterhalb der Bewehrungslagen liegen derzeit noch nicht vor, aus denen dann auch die Beanspruchung abzuleiten ist, die aus der Spreizwirkung bei der Geokunststoffbemessung zu berücksichtigen ist. Herr Dr.-Ing. Gourge Fahmi hat dafür zunächst den Kenntnisstand zur Spreizbeanspruchung ohne und mit Bewehrung sowie ohne und mit Pfahlelementen zusammengefasst. Ein wesentlicher Teil einer wissenschaftlichen Untersuchungen stellt die Modellversuche in einem relativ großen Maßstab dar, die u. a. auch zur Validierung von numerischen Berechnungen zur Fragestellung vorgesehen waren. Dabei konnte nach gewissen Parameteranpassungen überwiegend eine gute Übereinstimmung zwischen Modellversuchen und FEM-Berechnungen erreicht werden. Lediglich bei den Dehnungen bzw. Zugkräften in den Geogittern über Pfahlelementen ergab die FEM bei dem verwendeten Programmsystem viel zu niedrige Werte. Es wurde dazu in der Arbeit anhand eigener Untersuchungen und Vergleichsergebnissen aus der Literatur eine Hypothese formuliert und zunächst die Berechnungsergebnisse mit einem Faktor angepasst. Mit den durchgeführten Verifikationen stand damit dann ein weitestgehend abgesichertes numerisches Berechnungsmodell zur Verfügung. Aufbauend auf diesen Vorarbeiten konnten Parameterstudien mit numerischen und analytischen Methoden zur Spreizproblematik durchgeführt werden. Dabei wurden die Randbedingungen und Parametervariationen sinnvoll und für die Fragestellung zutreffend gewählt. Die numerischen Verfahren ergaben vertiefte Erkenntnisse zur Mechanik und zum Verhalten der Konstruktion. Die analytischen Vergleichsberechnungen validierten primär die Güte dieser vereinfachten Ansätze für praktische Berechnungen. Zusammenfassend wurde festgestellt, dass erwartungsgemäß die Spreizkräfte im Geogitter nahezu linear mit der Dammhöhe anwachsen. Von besonderer Bedeutung für die Größe der Spreizkräfte ist die Steifigkeit der Weichschichten. Dieser Parameter wird bei den bisher bekannten analytischen Berechnungsverfahren nicht berücksichtigt. Je weicher der Untergrund, je größer wird das Verhältnis zwischen Spreiz- und Membranbeanspruchung. Eine steilere Dammböschung hat erwartungsgemäß ebenfalls eine höhere Spreizwirkung zur Folge. Des Weiteren ergeben sich bei mehrlagigen Geogittern die höheren Beanspruchungen in der unteren Lage aus dem Membraneffekt und in der oberen Lage aus dem Spreizeffekt. Zu diesen Erkenntnissen wurden in der Arbeit erste Vorschläge für die praktischen Bemessungen gemacht, die aber noch weiter zu optimieren sind. Schließlich erfolgt von Herrn Fahmi eine Betrachtung der Pfahlelementbeanspruchung aus Pfahlkopfverschiebung und Biegemomenten. Dabei wurde ersichtlich, dass die Pfahlelemente bei hohen Dämmen erhebliche Beanspruchungen erhalten können, wenn relativ weicher Untergrund vorhanden ist, und es zeigt die Notwendigkeit entsprechend abgesicherter Bemessungsverfahren auf.
Resumo:
Die vorliegende Arbeit behandelt Restartautomaten und Erweiterungen von Restartautomaten. Restartautomaten sind ein Werkzeug zum Erkennen formaler Sprachen. Sie sind motiviert durch die linguistische Methode der Analyse durch Reduktion und wurden 1995 von Jancar, Mráz, Plátek und Vogel eingeführt. Restartautomaten bestehen aus einer endlichen Kontrolle, einem Lese/Schreibfenster fester Größe und einem flexiblen Band. Anfänglich enthält dieses sowohl die Eingabe als auch Bandbegrenzungssymbole. Die Berechnung eines Restartautomaten läuft in so genannten Zyklen ab. Diese beginnen am linken Rand im Startzustand, in ihnen wird eine lokale Ersetzung auf dem Band durchgeführt und sie enden mit einem Neustart, bei dem das Lese/Schreibfenster wieder an den linken Rand bewegt wird und der Startzustand wieder eingenommen wird. Die vorliegende Arbeit beschäftigt sich hauptsächlich mit zwei Erweiterungen der Restartautomaten: CD-Systeme von Restartautomaten und nichtvergessende Restartautomaten. Nichtvergessende Restartautomaten können einen Zyklus in einem beliebigen Zustand beenden und CD-Systeme von Restartautomaten bestehen aus einer Menge von Restartautomaten, die zusammen die Eingabe verarbeiten. Dabei wird ihre Zusammenarbeit durch einen Operationsmodus, ähnlich wie bei CD-Grammatik Systemen, geregelt. Für beide Erweiterungen zeigt sich, dass die deterministischen Modelle mächtiger sind als deterministische Standardrestartautomaten. Es wird gezeigt, dass CD-Systeme von Restartautomaten in vielen Fällen durch nichtvergessende Restartautomaten simuliert werden können und andererseits lassen sich auch nichtvergessende Restartautomaten durch CD-Systeme von Restartautomaten simulieren. Des Weiteren werden Restartautomaten und nichtvergessende Restartautomaten untersucht, die nichtdeterministisch sind, aber keine Fehler machen. Es zeigt sich, dass diese Automaten durch deterministische (nichtvergessende) Restartautomaten simuliert werden können, wenn sie direkt nach der Ersetzung einen neuen Zyklus beginnen, oder ihr Fenster nach links und rechts bewegen können. Außerdem gilt, dass alle (nichtvergessenden) Restartautomaten, die zwar Fehler machen dürfen, diese aber nach endlich vielen Zyklen erkennen, durch (nichtvergessende) Restartautomaten simuliert werden können, die keine Fehler machen. Ein weiteres wichtiges Resultat besagt, dass die deterministischen monotonen nichtvergessenden Restartautomaten mit Hilfssymbolen, die direkt nach dem Ersetzungsschritt den Zyklus beenden, genau die deterministischen kontextfreien Sprachen erkennen, wohingegen die deterministischen monotonen nichtvergessenden Restartautomaten mit Hilfssymbolen ohne diese Einschränkung echt mehr, nämlich die links-rechts regulären Sprachen, erkennen. Damit werden zum ersten Mal Restartautomaten mit Hilfssymbolen, die direkt nach dem Ersetzungsschritt ihren Zyklus beenden, von Restartautomaten desselben Typs ohne diese Einschränkung getrennt. Besonders erwähnenswert ist hierbei, dass beide Automatentypen wohlbekannte Sprachklassen beschreiben.
Resumo:
Die traditionellen Empathiekonzepte (z. B. Rogers, Kohut), die in der Psychotherapie bis heute maßgebend sind, werden einer gründlichen Überprüfung unterzogen. Dabei ergeben sich drei wesentliche Kritikpunkte: (1) Empathische Vorgänge in der Psychotherapie werden als einseitige Prozesse verstanden; der Therapeut fühlt sich in die Klientin ein, nicht auch umgekehrt. (2) Empathie wird in Cartesianischer Tradition schwerpunktmäßig als kognitive Leistung gesehen; ein körperloser Geist vergegenwärtigt sich die mentalen Inhalte eines anderen. (3) Das traditionelle Empathieverständnis ist individualistisch: Therapeutin und Klient halten sich demnach scheinbar im luftleeren Raum auf. Es sieht so aus, als existiere kein Kontext, der sie umgibt. So einseitig, wie ihre Beziehung gedacht wird, so abgetrennt, wie ihr Körper von ihrem Geist zu sein scheint, so unverbunden sind sie scheinbar mit dem Rest der Welt. Aus diesen drei Kritikpunkten folgt die Notwendigkeit, den Empathiebegriff der Psychotherapie zu erweitern, d. h. (a) Empathie als gegenseitigen Prozess der Beteiligten zu begreifen, (b) ihre tiefe Verwurzelung in der Leiblichkeit des Menschen zu berücksichtigen und (c) ihre Einbettung in die Dynamiken einer gemeinsamen Situation im Rahmen eines kulturellen Kontextes einzubeziehen. Mit Rückgriff auf neuere Untersuchungsergebnisse aus der Entwicklungspsychologie (z. B. Emde, Hobson, Meltzoff, Stern, Trevarthen), der Sozial- und Emotionspsychologie (z. B. Chartrand, Ekman, Goleman, Hatfield, Holodynski), der sozialen Neurowissenschaften (z. B. Damasio, Gallese, Iacoboni, LeDoux, Rizzolatti), aber auch mit Hilfe der Erkenntnisse aus der klassischen (Husserl, Merleau- Ponty, Edith Stein) und der Neuen Phänomenologie (Schmitz) sowie aus symbolischem Interaktionismus (Mead) und aus der kulturhistorischen Schule (Vygotskij) werden diese drei bislang wenig beleuchteten Dimensionen der Empathie betrachtet. ad a) Die Gegenseitigkeit empathischer Vorgänge in der Psychotherapie wird anhand des entwicklungspsychologischen Konzepts des social referencing erläutert und untersucht: Kleinkinder, die in eine unbekannte bzw. unsichere Situation geraten (z. B. im Experiment mit der "visuellen Klippe"), orientieren sich an den nonverbalen Signalen ihrer Bezugspersonen, um diese Situation zu bewältigen. Dabei erfasst die Mutter die Situation des Kindes, versucht ihm ihre Stellungnahme zu seiner Situation zu übermitteln, und das Kind begreift die Reaktion der Mutter als Stellungnahme zu seiner Situation. ad b) Die Körperlichkeit bzw. Leiblichkeit der Einfühlung manifestiert sich in vielfältigen Formen, wie sie von der Psychologie, der Phänomenologie und den Neurowissenschaften erforscht werden. Das kulturübergreifende Erkennen des Gesichtsausdrucks von Basisemotionen ist hier ebenso zu nennen wie die Verhaltensweisen des motor mimicry, bei dem Menschen Körperhaltungen und – bewegungen ihrer Bezugspersonen unwillkürlich imitieren; des Weiteren das unmittelbare Verstehen von Gesten sowie die Phänomene der „Einleibung“, bei denen die körperliche Situation des Anderen (z. B. eines stürzenden Radfahrers, den man beobachtet) am eigenen Leib mitgefühlt wird; und außerdem die Entdeckung der „Spiegelneurone“ und anderer neuronaler Strukturen, durch die Wahrgenommenes direkt in analoge motorische Aktivität übersetzt wird. ad c) Intersubjektivitätstheoretische Überlegungen, Konzepte wie „dyadisch erweiterter Bewusstseinszustand“ (Tronick) und „gemeinsame Situation“ (Gurwitsch, Schmitz) verweisen auf die Bedeutung überindividueller, ‚emergenter’ Dimensionen, die für die Verständigung zwischen Menschen wichtig sind. Sie folgen gestaltpsychologischen Prinzipien („Das Ganze ist mehr und anders als die Summe seiner Teile.“), die mit Hilfe von Gadamers Begriff des „Spiels“ analysiert werden. Am Ende der Arbeit stehen die Definition eines neuen Empathiebegriffs, wie er sich aus den vorangegangenen Überlegungen ergibt, sowie eine These über die psychotherapeutische Wirkweise menschlicher Einfühlung, die durch weitere Forschungen zu überprüfen wäre.
Resumo:
In der Arbeit werden zunächst die wesentlichsten Fakten über Schiefpolynome wiederholt, der Fokus liegt dabei auf Shift- und q-Shift-Operatoren in Charakteristik Null. Alle für die Arithmetik mit diesen Objekten notwendigen Konzepte und Algorithmen finden sich im ersten Kapitel. Einige der zur Bestimmung von Lösungen notwendigen Daten können aus dem Newtonpolygon, einer den Operatoren zugeordneten geometrischen Figur, abgelesen werden. Die Herleitung dieser Zusammenhänge ist das Thema des zweiten Kapitels der Arbeit, wobei dies insbesondere im q-Shift-Fall in dieser Form neu ist. Das dritte Kapitel beschäftigt sich mit der Bestimmung polynomieller und rationaler Lösungen dieser Operatoren, dabei folgt es im Wesentlichen der Darstellung von Mark van Hoeij. Der für die Faktorisierung von (q-)Shift Operatoren interessanteste Fall sind die sogenannten (q-)hypergeometrischen Lösungen, die direkt zu Rechtsfaktoren erster Ordnung korrespondieren. Im vierten Kapitel wird der van Hoeij-Algorithmus vom Shift- auf den q-Shift-Fall übertragen. Außerdem wird eine deutliche Verbesserung des q-Petkovsek-Algorithmus mit Hilfe der Daten des Newtonpolygons hergeleitet. Das fünfte Kapitel widmet sich der Berechnung allgemeiner Faktoren, wozu zunächst der adjungierte Operator eingeführt wird, der die Berechnung von Linksfaktoren erlaubt. Dann wird ein Algorithmus zur Berechnung von Rechtsfaktoren beliebiger Ordnung dargestellt. Für die praktische Benutzung ist dies allerdings für höhere Ordnungen unpraktikabel. Bei fast allen vorgestellten Algorithmen tritt das Lösen linearer Gleichungssysteme über rationalen Funktionenkörpern als Zwischenschritt auf. Dies ist in den meisten Computeralgebrasystemen nicht befriedigend gelöst. Aus diesem Grund wird im letzten Kapitel ein auf Evaluation und Interpolation basierender Algorithmus zur Lösung dieses Problems vorgestellt, der in allen getesteten Systemen den Standard-Algorithmen deutlich überlegen ist. Alle Algorithmen der Arbeit sind in einem MuPAD-Package implementiert, das der Arbeit beiliegt und eine komfortable Handhabung der auftretenden Objekte erlaubt. Mit diesem Paket können in MuPAD nun viele Probleme gelöst werden, für die es vorher keine Funktionen gab.
Resumo:
Excimerlaser sind gepulste Gaslaser, die Laseremission in Form von Linienstrahlung – abhängig von der Gasmischung – im UV erzeugen. Der erste entladungsgepumpte Excimerlaser wurde 1977 von Ischenko demonstriert. Alle kommerziell verfügbaren Excimerlaser sind entladungsgepumpte Systeme. Um eine Inversion der Besetzungsdichte zu erhalten, die notwendig ist, um den Laser zum Anschwingen zu bekommen, muss aufgrund der kurzen Wellenlänge sehr stark gepumpt werden. Diese Pumpleistung muss von einem Impulsleistungsmodul erzeugt werden. Als Schaltelement gebräuchlich sind Thyratrons, Niederdruckschaltröhren, deren Lebensdauer jedoch sehr limitiert ist. Deshalb haben sich seit Mitte der 1990iger Jahre Halbleiterschalter mit Pulskompressionsstufen auch in dieser Anwendung mehr und mehr durchgesetzt. In dieser Arbeit wird versucht, die Pulskompression durch einen direkt schaltenden Halbleiterstapel zu ersetzen und dadurch die Verluste zu reduzieren sowie den Aufwand für diese Pulskompression einzusparen. Zudem kann auch die maximal mögliche Repetitionsrate erhöht werden. Um die Belastung der Bauelemente zu berechnen, wurden für alle Komponenten möglichst einfache, aber leistungsfähige Modelle entwickelt. Da die normalerweise verfügbaren Daten der Bauelemente sich aber auf andere Applikationen beziehen, mussten für alle Bauteile grundlegende Messungen im Zeitbereich der späteren Applikation gemacht werden. Für die nichtlinearen Induktivitäten wurde ein einfaches Testverfahren entwickelt um die Verluste bei sehr hohen Magnetisierungsgeschwindigkeiten zu bestimmen. Diese Messungen sind die Grundlagen für das Modell, das im Wesentlichen eine stromabhängige Induktivität beschreibt. Dieses Modell wurde für den „magnetic assist“ benützt, der die Einschaltverluste in den Halbleitern reduziert. Die Impulskondensatoren wurden ebenfalls mit einem in der Arbeit entwickelten Verfahren nahe den späteren Einsatzparametern vermessen. Dabei zeigte sich, dass die sehr gebräuchlichen Class II Keramikkondensatoren für diese Anwendung nicht geeignet sind. In der Arbeit wurden deshalb Class I Hochspannungs- Vielschicht- Kondensatoren als Speicherbank verwendet, die ein deutlich besseres Verhalten zeigen. Die eingesetzten Halbleiterelemente wurden ebenfalls in einem Testverfahren nahe den späteren Einsatzparametern vermessen. Dabei zeigte sich, dass nur moderne Leistungs-MOSFET´s für diesen Einsatz geeignet sind. Bei den Dioden ergab sich, dass nur Siliziumkarbid (SiC) Schottky Dioden für die Applikation einsetzbar sind. Für die Anwendung sind prinzipiell verschiedene Topologien möglich. Bei näherer Betrachtung zeigt sich jedoch, dass nur die C-C Transfer Anordnung die gewünschten Ergebnisse liefern kann. Diese Topologie wurde realisiert. Sie besteht im Wesentlichen aus einer Speicherbank, die vom Netzteil aufgeladen wird. Aus dieser wird dann die Energie in den Laserkopf über den Schalter transferiert. Aufgrund der hohen Spannungen und Ströme müssen 24 Schaltelemente in Serie und je 4 parallel geschaltet werden. Die Ansteuerung der Schalter wird über hochisolierende „Gate“-Transformatoren erreicht. Es zeigte sich, dass eine sorgfältig ausgelegte dynamische und statische Spannungsteilung für einen sicheren Betrieb notwendig ist. In der Arbeit konnte ein Betrieb mit realer Laserkammer als Last bis 6 kHz realisiert werden, der nur durch die maximal mögliche Repetitionsrate der Laserkammer begrenzt war.
Resumo:
Die gegenwärtigen Rekonstruktionsbemühungen sind keine Nachwirkungen der Wendezeit, die auf ostdeutschem Gebiet nachholen, was auf westdeutschem Terrain direkt nach dem Krieg erfolgte: der Nachkriegswiederaufbau. Es handelt sich beim Rekonstruktionsboom um ein generelles zeitgenössisches Phänomen wie anhand der Beispielsituationen Dresden – Frauenkirche, Frankfurt am Main – Römerberg und Berlin – Stadtschloss dargestellt wird. Dieses wird durch die Globalisierung aber auch andere Faktoren begünstigt. Die Planungen für die jeweiligen Rekonstruktionssituationen seit der Zerstörungen des Zweiten Weltkrieges werden verfolgt und innerhalb des Stadtwiederaufbaus der Nachkriegsjahre bis zur Gegenwart verortet. Dabei wird aufgezeigt, dass die jeweiligen Planungsvorhaben und besonders die Einstellungen zu Rekonstruktionen beziehungsweise zu den heute gewünschten Situationen in allen drei Beispielstädten abhängig sind von dem jeweiligen Zeitgeschmack und politischen, wirtschaftlichen oder finanziell geprägten Einflüssen; um den Willen der Stadtbürger geht es dabei immer nur am Rand – erfolgreich beim Durchsetzen der Vorstellungen sind deshalb selten sie, sondern vielmehr politische und wirtschaftliche Interessensverbände. Sucht man nach festgesetzten Richtlinien, die eine Rekonstruktion autorisieren, werden häufig Denkmalpflegeleitlinien zitiert, die jedoch nicht ausreichend detailliert formuliert sind und beispielsweise mit dem Fall der beschränkten Fehlstelle sowohl Befürwortern als auch Gegnern der Rekonstruktionen Argumente liefern. In den Diskussionen geht es nicht um Denkmäler im klassischen Sinne, das heißt es handelt sich nicht um Objekte, die vor ihrer Zerstörung das offizielle Siegel trugen und die deshalb wiederhergestellt werden sollen. Aus diesem Grund sind die gegenwärtigen Rekonstruktionsdebatten nicht klassischer Gegenstand der Denkmalpflegedisziplin. Dennoch werden erfolgreiche Fälle wie die Frauenkirche als Musterobjekte der Disziplin inszeniert, was suggeriert, dass sich das klassische Aufgabenfeld der Denkmalpflege verschiebt. Der bürgerliche Wunsch nach Rekonstruktionen spricht von einem neuen Denkmalverständnis: Als erhaltenswert werden nicht die offiziell mit Siegel erwählten Objekte verstanden, sondern Bauten, die für die eigene Identität eine wichtige Rolle spielen. Diese Form der Denkmalbewertung ist allerdings abhängig von Generationslinien, verschiedenen sozialen Schichten und anderen gesellschaftlichen Gruppierungen. Diese Tatsache führt zu einer unterschiedlichen Wertebeurteilung bestimmter Objekte und zu Diskussionen wie sie momentan für und wider Rekonstruktionen geführt werden. Der Rekonstruktionsboom barocker und renaissance-orientierter Strukturen wird durch ein sich wandelndes Geschichtsbild beeinflusst, welches das Interesse an diesen Epochen neu erweckt hat. Wurde bisher das Mittelalter und die Zeit zwischen Reformation und Französischer Revolution verdrängt, werden diese vergessenen Epochen wieder zunehmend zum Forschungsgegenstand und zum Bestandteil der kulturellen Debatte. Die gewünschten barocken und mittelalterlichen Rekonstruktionen kann man als mediale Rekonstruktionsarchitekturen bezeichnen. Die Macht der Medien ist auf fünf, die Rekonstruktion umgebenden Ebenen zu beobachten: Erschaffung; Vermarktung; Konsumentenüberzeugung; Bildneukompositionen; Erschaffung und Verbreitung von Bildern oder Realitäten.
Resumo:
Zur Erholung in die Natur gehen oder doch lieber zur Natursimulation greifen? Intuitiv würden die meisten Menschen der Natur einen größeren Erholungswert zusprechen als einer Natursimulation. Aber ist die Natur tatsächlich erholsamer? In der Naturerholungsforschung (Restorative Environment Research) kommen häufig Natursimulationen zum Einsatz, um die erholsame Wirkung von Natur zu ermitteln. Problematisch ist dabei, dass deren ökologische Validität und Vergleichbarkeit noch nicht empirisch abgesichert ist. Vorliegende Arbeit setzt an dieser methodischen und empirischen Lücke an. Sie überprüft sowohl die ökologische Validität als auch die Vergleichbarkeit von Natursimulationen. Dazu wird die erholsame Wirkung von zwei Natursimulationen im Vergleich zu der physisch-materiellen Natur empirisch untersucht und verglichen. Darüber hinaus werden Aspekte des subjektiven Erlebens und der Bewertung im Naturerholungskontext exploriert. Als bedeutsamer Wirkmechanismus wird die erlebnisbezogene Künstlichkeit/Natürlichkeit angesehen, die sich auf die Erlebnisqualität von Natursimulationen und der physisch-materiellen Natur bezieht: Natursimulationen weisen im Vergleich zur physisch-materiellen Natur eine reduzierte Erlebnisqualität auf (erlebnisbezogene Künstlichkeit), z.B. eine reduzierte Qualität und Quantität der Sinnesansprache. Stellt man einen derartigen Vergleich nicht nur mit der physisch-materiellen Natur, sondern mit unterschiedlichen Natursimulationstypen an, dann zeigen sich auch hier Unterschiede in der erlebnisbezogenen Künstlichkeit. Beispielsweise unterscheidet sich ein Naturfoto von einem Naturfilm durch das Fehlen von auditiven und bewegten Stimuli. Diese erlebnisbezogene Künstlichkeit kann die erholsame Wirkung von Natur - direkt oder indirekt über Bewertungen - hemmen. Als Haupthypothese wird angenommen, dass mit zunehmendem Ausmaß an erlebnisbezogener Künstlichkeit die erholsame Wirkung der Natur abnimmt. Dem kombinierten Feld- und Laborexperiment liegt ein einfaktorielles Vorher-Nachher-Design zugrunde. Den 117 Probanden wurde zunächst eine kognitiv und affektiv belastende Aufgabe vorgelegt, danach folgte die Erholungsphase. Diese bestand aus einem Spaziergang, der entweder in der physisch-materiellen Natur (urbaner Park) oder in einer der beiden audio-visuellen Natursimulationen (videogefilmter vs. computergenerierter Spaziergang durch selbigen urbanen Park) oder auf dem Laufband ohne audio-visuelle Darbietung stattfand. Die erlebnisbezogene Künstlichkeit/Natürlichkeit wurde also wie folgt operationlisiert: die physische Natur steht für die erlebnisbezogene Natürlichkeit. Die beiden Natursimulationen stehen für die erlebnisbezogene Künstlichkeit. Die computergenerierte Version ist im Vergleich zur Videoversion erlebnisbezogen künstlicher, da sie weniger fotorealistisch ist. Die Zuordnung zu einer der vier experimentellen Erholungssettings erfolgte nach dem Zufallsprinzip. Die Effekte von moderater Bewegung wurden in den Natursimulationen durch das Laufen auf dem Laufband kontrolliert. Die Beanspruchungs- bzw. Erholungsreaktionen wurden auf kognitiver (Konzentriertheit, Aufmerksamkeitsleistung) affektiver (3 Befindlichkeitsskalen: Wachheit, Ruhe, gute Stimmung) und physiologischer (Alpha-Amylase) Ebene gemessen, um ein umfassendes Bild der Reaktionen zu erhalten. Insgesamt zeigen die Ergebnisse, dass die beiden Natursimulationen trotz Unterschiede in der erlebnisbezogenen Künstlichkeit/Natürlichkeit zu relativ ähnlichen Erholungsreaktionen führen, wie die physisch-materielle Natur. Eine Ausnahme stellen eine der drei affektiven (Wachheit) und die physiologische Reaktion dar: Probanden der physisch-materiellen Naturbedingung geben an wacher zu sein und weisen - wider erwarten - eine höhere physiologische Erregung auf. Demnach ist die physisch-materielle Natur nicht grundsätzlich erholsamer als die Natursimulationen. Die Hypothese ließ sich somit nicht bestätigen. Vielmehr deuten sich komplexe Erholungsmuster und damit auch unterschiedliche Erholungsqualitäten der Settings an, die einer differenzierten Betrachtung bedürfen. Für die ökologische Validität von Natursimulationen gilt, dass diese nur mit Einschränkung als ökologisch valide bezeichnet werden können, d.h. nur für bestimmte, aber nicht für alle Erholungsreaktionen. Die beiden Natursimulationen führen ebenfalls trotz Unterschiede in der erlebnisbezogenen Künstlichkeit zu ähnlichen Erholungsreaktionen und können somit als gleichwertig behandelt werden. Erstaunlicherweise kommt es hier zu ähnlichen Erholungsreaktionen, obwohl die bestehenden Unterschiede von den Probanden wahrgenommen und die erlebnisbezogen künstlichere computergenerierte Version negativer bewertet wird. Aufgrund der nicht erwartungskonformen Ergebnisse muss das Erklärungskonzept der erlebnisbezogenen Künstlichkeit/Natürlichkeit infrage gestellt werden. Alternative Erklärungskonzepte für die Ergebnisse („Ungewissheit“, mentale räumliche Modelle), die sich andeutenden unterschiedlichen Erholungsqualitäten der Settings, methodische Einschränkungen sowie die praktische Bedeutung der Ergebnisse werden kritisch diskutiert.
Resumo:
Im Rahmen der vorliegenden Arbeit wird ein Konzept zur mechanismenorientierten Lebensdauervorhersage entwickelt und auf eine Flanschwelle mit gradiertem Gefüge übertragen. Das Konzept wird in Form eines Computercodes (LOCC) zur Anwendung gebracht. Basierend auf lokalen Spannungen wird für jedes Element eines FE-Modells eine bedingte Versagenswahrscheinlichkeit berechnet. Mithilfe bruch- und ggf. mikromechanischer Modelle werden lokale kritische Risslängen und die bei gegebener Lebensdauer zugehörigen Anfangsrisslängen bestimmt. Diese werden mit geeigneten Modellen in mikrostrukturelle Größen überführt. Die Lebensdauerverteilung der Komponente ergibt sich schließlich aus der Verteilungsfunktion der Anfangsrisslängen bzw. der zugehörigen mikrostrukturellen Einheiten. Die betrachtete Flanschwelle weist als Ergebnis eines thermo-mechanischen Umformprozesses ein gradiertes Gefüge auf. Das Ermüdungsverhalten der Hauptphasen Ferrit-Perlit und Martensit wird untersucht. Während ausgewählter Ermüdungsversuche wird die Schädigungsentwicklung an der Oberfläche mit einem langreichweitigen Mikroskop beobachtet. Das ferritisch-perlitische Ausgangsgefüge zeigt eine sehr komplexe Schädigungsentwicklung (lokale plastische Aktivität, hohe Rissdichte), während beim Martensit keine multiple Rissinitiierung beobachtet wird. Anhand fraktographischer Untersuchungen wird dargelegt, dass der Hauptriss beim Martensit im Bereich von Karbidanhäufungen initiiert. Im LCF-Bereich wird nur ein verschwindender Anteil der Lebensdauer mit Langrisswachstum verbracht, d. h. die martensitischen Proben versagen fast unmittelbar nach der Rissinitiierung. Die Beschreibung ihrer Lebensdauer wird somit direkt auf die Rissinitiierungsphase zurückgeführt. Das ferritisch-perlitische Gefüge hingegen zeigt im LCF-Bereich sowohl eine ausgeprägte Rissinitiierungs- wie auch Langrisswachstumsphase. Diese komplexe Schädigungsentwicklung wird mittels verschiedener Schädigungsvariablen beschrieben, die im Rahmen einer automatisierten Bildanalyse bestimmt werden. Hierbei werden sowohl plastisch stark aktive Bereiche wie auch reale Risse pauschal als Schädigung definiert. Der Vergleich dieser automatisiert bestimmten Schädigungsvariablen mit ausgewählten Rissen zeigt deren Eignung zur quantitativen Beschreibung der Schädigungsentwicklung. Die Lebensdauer einer gradierten Komponente ergibt sich nicht direkt durch Verknüpfung der Lebensdauern der Einzelphasen, sondern sie hängt ggf. auch von den Übergangsbereichen zwischen den Phasen ab. Mithilfe einiger grundlegender bruchmechanischer Überlegungen wird ein konservatives Kriterium zur Behandlung solcher Übergangsbereiche bereitgestellt, womit das LOCC-Konzept letztendlich erfolgreich auf die gradierte Flanschwelle übertragen wird.