284 resultados para Köln kann auch anders
Resumo:
Die Geschäftspolitik der Banken und Sparkassen befindet sich in einem tiefgreifenden Veränderungsprozess. Lange Zeit war der stationäre Vertrieb mit großem Abstand der bedeutendste Absatzweg der Kreditinstitute. Damit ist es nun offenbar zu Ende. Alternative Vertriebskanäle gewinnen zunehmend an Bedeutung. Online-Broker und Direktbanken, wie z.B. DAB bank und ING-DiBa, sind dafür die besten Beispiele. Der Verfasser hat sich mit der vorliegenden Promotion der Aufgabe unterworfen, die Erfolgsstrategien und weitere Entwicklung der Direktbanken in Deutschland einer kritischen Analyse zu unterziehen. Dabei werden in erster Linie Direktbanken und Online-Broker betrachtet, aber auch sog. Internet-Only-Banken bzw. virtuelle Banken in die Überlegungen einbezogen. Gegenstand des ersten Kapitels ist die Betrachtung der traditionellen Vertriebswegestruktur im Privatkundengeschäft. Dabei wird deutlich, dass die neue Entwicklungsstufe “Direct Banking” die ehemals so monotone Vertriebspolitik der Kreditinstitute zwar nicht völlig ersetzen, aber gut ergänzen kann. Im zweiten Kapitel werden die Grundlagen des “Direct Banking” beschrieben und abgegrenzt, wobei die historische Entwicklung, die Beweggründe der Kreditinstitute und auch die Anbieterstruktur im einzelnen untersucht werden. Das Discount-Broking wird ebenfalls angesprochen, weil es als Vorläufer des Direktbankgeschäfts angesehen wird. Das dritte Kapitel stellt die strategischen Erfolgsfaktoren im Direct Banking vor und beschreibt einige Vorbehalte und derzeit noch bestehende Problemfelder. Der Ansatz einer ganzheitichen Direct-Banking-Strategie wird in einem gesonderten Abschnitt dargestellt und in sechs Phasen unterteilt. Abschließend werden fünf strategische Maßnahmen zur Verbesserung des Stellenwertes der Direktbanken präsentiert. Das vierte Kapitel beschäftigt sich mit den Auswirkungen auf das traditionelle Bankgeschäft und beleuchtet somit die Zukunft des Retail Banking. Der notwendige Anpassungsprozess im Filil Banking wird erklärt. Dabei werden die strategischen Herausforderungen im Filialbankgeschäft behandelt und Maßnahmen zur Kundenbindung und Kostensenkung aufgezeigt. Im letzten Kapitel werden die Zukunftsaspekte des Direct Banking etwas näher untersucht. Zunächst werden die wesentlichen Ergebnisse zur erfolgreichen Ausübung des Direkbankgeschäfts in Thesen zusammengefasst. Anschließend wird die Umbruchphase zum Virtual Banking anhand von drei Grundtrends analysiert.
Resumo:
Simulation hat sich in der Vergangenheit als unterstützendes Planungsinstrument und Prognosemethode zur Untersuchung von Materialflusssystemen in verschiedenen Branchen etabliert. Dafür werden neben Simulationswerkzeugen auch zunehmend Virtual Reality (VR), insbesondere mit dem Ansatz Digitale Fabrik, eingesetzt. Ein Materialflusssimulator, der für den VR–Einsatz geeignet ist,existiert noch nicht, so dass Anwender gegenwärtig mit verschiedenen Systemen arbeiten müssen, um Untersuchungen eines Simulationsmodells in einem VR–Umfeld wie beispielsweise in einem CAVE zu ermöglichen. Zeitlicher Aufwand ist dadurch vorprogrammiert und das Auftreten von Fehlern bei der Konvertierung des Simulationsmodells möglich. Da auch der hauseigene Materialflusssimulator SIMFLEX/3D nicht für beide Anwendungsgebiete genutzt werden kann und für einen solchen Einsatz mit sehr hohem Aufwand angepasst werden müsste, wurde stattdessen ein neues Simulationssystem entworfen. Das Simulationssystem wird in der vorliegenden Arbeit als ein interoperables und offenes System beschrieben, das über eine flexible Softwarearchitektur verfügt und in einem vernetzten Umfeld mit anderen Werkzeugen Daten austauschen kann. Die grundlegende Idee besteht darin, eine flexible Softwarearchitektur zu entwerfen, die zunächst interaktive und ereignisorientierte 3D–Simulation erlaubt, aber zusätzlich für andere Anwendungszwecke offen gehalten wird. Durch den offenen Ansatz können Erweiterungen, die in Form von Plugins entwickelt werden, mit geringem Aufwand in das System integriert werden, wodurch eine hohe Flexibilität des Systems erreicht wird. Für interoperable Zwecke werden Softwaremodule vorgestellt, die optional eingesetzt werden können und standardisierte Formate wie bspw. XML benutzen. Mit dem neuen Simulationssystem wird die Lücke zwischen Desktop– und VR–Einsatz geschlossen und aus diesem Grund der Zeitaufwand und Fehlerquellen reduziert. Darüber hinaus ermöglicht der offene Ansatz, das Simulationssystem rollen- und aufgabenspezifisch anzupassen, indem die erforderlichen Plugins bereitgestellt werden. Aus diesem Grund kann das Simulationssystem mit sehr geringem Aufwand um weitere Untersuchungsschwerpunkte wie beispielsweise Avatare ergänzt werden. Erste Untersuchungen in einem CAVE wurden erfolgreich durchgeführt. Für die Digitale Fabrik kann der Prototyp eingesetzt werden, um die Produktionsplanung mit Hilfe der Simulation und die Entwicklung mit Hilfe der entwickelten Viewer zu unterstützen. Letzteres ist möglich, da die Viewer zahlreiche CAD–Formate lesen und um weitere Formate ergänzt werden können. Das entwickelte System ist für den Einsatz in verschiedenen Prozessen einer Wertschöpfungskette geeignet,um es als Untersuchungs-, Kommunikations- und Steuerungswerkzeug einzusetzen.
Resumo:
Dem Farinelli-Protein wird eine Funktion als hodenspezifisches VAP-Protein zugesprochen (Renner, 2001). Mit Hilfe des ER-Markers PDI konnte Fan eindeutig dem ER zugeordnet werden. Fan stellt dabei ein integrales Membranprotein dar, welches nur durch Detergenz- Behandlung in Lösung zu bringen war. Durch den Einsatz zweier Fragment-Konstrukte (fan∆MSP-GFP und fanMSP-GFP) von Fan wurde die Relevanz der MSP-Domäne für die männliche Fertilität dokumentiert. Das Fusionsprotein Fan∆MSP-GFP lag aufgrund der verbliebenen Transmembrandomäne weiterhin im ER vor. Dennoch konnte der sterile Phänotyp der fanJo-Männchen, die keinerlei Fan-Protein enthalten, durch das Einbringen des Fusionskonstrukts nicht gerettet werden. MSP-GFP für sich allein konnte keine Verbindung mit dem ER eingehen und zeigte eine diffuse Fluoreszenz. Im Rahmen der Dissertation wurden mehrere, durch das yeast two hybrid-System ermittelte, mögliche Interaktionspartner von Fan analysiert. Das Protein CG5194 konnte als einziges wie Fan dem ER zugeordnet werden. Seine Expression beschränkte sich aber auf die Spermatocytenphase und ist somit kürzer als die von Farinelli. Nach Einkreuzen der GFP-Fusionskonstrukte in die fan-Nullmutante konnte CG5194 nicht mehr am ER der Spermatocyten beobachtet werden, sondern lag innerhalb des Cytoplasmas diffus verteilt vor. Auch bei der Western Blot-Analyse konnte das Protein von CG5194 nur noch in der Überstand-Fraktion mit den ungebundenen Proteinen nachgewiesen werden. Lag in der fan-Nullmutante ausschließlich das Fan∆MSP-GFP-Fusionsprotein vor, konnte die ER-Lokalisation von CG5194 ebenfalls nicht beibehalten werden. Mit Hilfe einer Fragment-Analyse konnte gezeigt werden, dass in den männlichen Gonaden das erste Exon von CG5194 für die Interaktion mit Fan entscheidend ist. Innerhalb der Ovarien dagegen ist das zweite Exon für die Lokalisation im ER notwendig. Demzufolge ist neben einem anderen Interaktionspartner als Fan auch eine andere Domäne im Protein für die ER-Lokalisation in der weiblichen Keimbahn entscheidend. Durch den Einsatz von antisense- und RNAi-Konstrukten konnte ein steriler Phänotyp bei den Männchen erzeugt werden. Überraschenderweise zeigten die Tiere erst einen Defekt während der Spermatiden-Differenzierung. Bereits während der Diplomarbeit wurde 98A im Kopfbereich der elongierten Spermatiden nachgewiesen. Mittels einer DNA-Färbung sowie durch die Colokalisation mit dem Akrosom-Protein Sneaky wurde 98A dem Bereich des Akrosoms zugeordnet. Sneaky taucht jedoch bereits früher als 98A in den Keimzellen auf. Die Erzeugung eines sterilen Phänotyps durch den Einfluss eines RNAi-Konstrukts gelang nicht. Entweder ist 98A für die Fertilität von Drosophila nicht relevant oder aber seine Funktion kann von anderen Proteinen übernommen werden.
Resumo:
Die Arbeit befasst sich mit der Entwicklung analytischer Modelle im Bereich der elektrischen Maschinenauslegung und deren Umsetzung in ein Softwaresystem, dass zur Auslegung elektrischer Maschinen verwendet werden kann. Es wurden zahlreiche Modelle für die elektromagnetische sowie thermische Berechnung der permanentmagneterregten Synchronmaschine sowie Asynchronmaschine mit Kurzschlussläufer entwickelt. Bei den Berechnungen wurde mit einer geringen Anzahl von Eingabewerten eine gute Genauigkeit bei der Berechnung der Maschinenparameter erreicht. Dieses zeigte sich durch den Vergleich von analytisch berechneten Maschinenparametern und den Werten, die mittels der Finite-Elemente-Methode berechnet wurden. Darüber hinaus wurden auch Modelle entwickelt, die für spezielle Fragestellungen herangezogen werden können, wie zum Beispiel die Auswirkung der Stromverdrängung auf das dynamische Verhalten der Asynchronmaschine mit Käfigläufern. Die einzelnen Modelle wurden zu einer Softwareeinheit zusammengefasst, die Dienste zur Auslegung elektrischer Maschinen bereitstellt. Die Dienste dieser Softwareeinheit, die auf einem Server installiert ist, können über graphische Benutzerschnittstellen ortsunabhängig und somit weltweit verwendet werden. Durch die zentrale Lage der Modelle können sehr einfach Erweiterungen an der Berechnungssoftware vorgenommen und dem Nutzer zur Verfügung gestellt werden. Mit der Entwicklung einer graphischen Benutzerschnittstelle ist eine geführte und übersichtliche Eingabe der zur Berechnung notwendigen Eingaben entstanden. Mit der Wahl von http als Transportprotokoll wird ein etabliertes Protokoll verwendet, das eine Kommunikation zwischen zwei durch Firewalls abgesicherten Teilnetzen ermöglicht, ohne dass dadurch bedenkliche Lücken in einem Sicherheitskonzept entstehen. Durch die Verwendung von SOAP als Übertragungsprotokoll zwischen den Kommunikationspartnern wird ein firmen- und produktunabhängiges Protokoll verwendet, das sich in der Praxis immer stärker etabliert.
Resumo:
Die Entwicklung in der Windkrafttechnik ist aufgrund der Wirtschaftlichkeitserwartungen besonders auf große Anlagen im MW-Bereich ausgerichtet. Im unteren Leistungsbereich (5 bis 100kW) bilden Entwicklungen und Anlageninstallationen weitgehend Ausnahmen und erfüllen meist nicht die für Hybridanlagen notwendige Systemfähigkeit, was eine Einbindung in dezentrale Energiesysteme erschwert. Im Rahmen dieser Arbeit werden die elektrischen Komponenten für eine kostengünstige und systemfähige Windkraftanlage entwickelt, mit der die Nutzung erneuerbarer Energiequellen durch Einbindung der Windenergie in die modulare Energie-Systemtechnik erweitert und wesentlich verbessert wird. Dabei stellt der Generator als mechanisch-elektrischer Energiewandler die Schlüsselkomponente dar. Um den Teil- und Volllastbetrieb effektiv zu gestalten, wird bei der Auslegung und Optimierung des Generators nach dem Kennlinienverfahren möglichst großen Werten von Wirkungsgrad und Leistungsfaktor in einem weiten Spektrum der abgegebenen Leistung eine hohe Wichtigkeit beigemessen. Um hohe Energieerträge sowohl im Teil- als auch im Volllastbetrieb zu erzielen, wird der Generator polumschaltbar ausgeführt und im Betrieb entsprechend der aktuell eingespeisten Leistung zwischen zwei Drehzahlen geschaltet. Die durchgeführten Untersuchungen an mehrfach optimierten und speziell angefertigten Generatortypen sollen als Grundlage für die Gesamtkonzeption der Windenergieanlage dienen. Um die energetischen Auswirkungen und betriebstechnische Möglichkeiten der Auslegung zu ermitteln, werden im gesamten auftretenden Leistungsspektrum – Leerlauf bis 130% der Nennleistung – die mechanischen und elektrischen Verhaltensweisen in Abhängigkeit von der elektrisch abgegebenen Leistung bei unterschiedlichen Sättigungsgraden des Generators untersucht. Im Hinblick auf die Auslegung der mechanischen und elektrischen Komponenten wie z.B. des Getriebes und des Schleifringkörpers werden dynamische Zustandsänderungen wie verschiedene Kurzschlussvarianten und die Zuschaltung auf das Netz untersucht und dargestellt. Um den Anlagenbetrieb für nahezu alle Netze weltweit zu gewährleisten, wird eine polumschaltbare Einphasenmaschine für 240V / 60Hz ausgelegt. Der Generator kann mit Betriebskondensatorstufen im gesamten Leistungsbereich von Leerlauf bis Nennleistung ohne Laufgeräusche und Rüttelkräfte betrieben werden. Dabei soll der Einphasenasynchrongenerator nach dem gleichem Optimierungsverfahren wie beim Dreiphasigen Asynchrongenerator sowohl für die 4-polige als auch für die 6-polige Drehzahlstufe hohe Teillastwirkungsgrade erreichen. Um möglichst symmetrische Betriebsverhältnisse hinsichtlich Drehmomentschwankungen erreichen zu können, wird die Auslegung der Betriebskapazität an den Drehmomentschwankungen ausgerichtet und eine Optimierung der Betriebskapazität anhand minimaler Amplituden der Pendelmomente erreicht. Damit wird gezeigt, dass auch kleine Windkraftanlagen einen wertvollen Beitrag zur netzverträglichen und nachhaltigen Elektrizitätsversorgung leisten können.
Resumo:
Die Bergregionen Japans leiden am Niedergang der regionalen Wirtschaft, des Sozialsystems und der Kultur. Dies wird im Zusammenhang mit dem Rückgang von Produktion und Verbrauch regionaler Ressourcen gesehen, der seit der Modernisierung und Globalisierung einsetzte. Durch das Sammeln und die Produktion von Ressourcen in der Landschaft und die Fertigung regionaler Produkte wird von den Bewohnern der Bergdörfer auch die Landschaft gepflegt. Seit die Nutzung von Ressourcen aus den Bergen allmählich aufgegeben wird, erobert sich die Wildnis den vom Menschen geprägten Lebensraum zurück. Sowohl in Mitteleuropa als auch in Japan gibt es Bewohner in Bergregionen, die weiterhin in ihrer Heimat bleiben möchten. Sie geben sich viel Mühe und betreiben großen Aufwand, ihre Landschaft zu pflegen und von ihr zu leben, was oft genug schwer fällt. Im Kontext der Rationalisierung der Moderne mögen sich ihre Beweggründe, trotzdem nicht fortzuziehen und auszuharren, als irrational ausmachen. Auf der anderen Seite stößt ihre kommunikative Lebensweise auch auf Sympathie und Bewunderung, und ihrer Arbeit für die Erhaltung der Landschaft wird eine gewisse Wertschätzung entgegengebracht. In dieser Forschungsarbeit wird die Hypothese aufgestellt, dass Landschaft, Produzent, Produkt und Verbraucher bei regionaler Ressourcennutzung über zwei Bedeutungsebenen der Ästhetik, nämlich durch „Kohärenz“ und „Sympathie“ miteinander verbunden sind. Es ist heute in der Regionalplanung erforderlich, die Themen mit regionaler Landschaft, Kultur, Sozialsystem und Wirtschaft, die bisher als einzelnen Aufgaben behandelt worden sind, zu bündeln und für die gesamte Entwicklung in eine Richtung zu zielen. Unter diesem Aspekt sind komplexe und sich selbst regulierende Entwicklungsmodelle nützlich, d.h. es ist dabei von Nutzen, dass Bürger sich selbst und ihrer Region bewusst werden und sie sich Raum für Entwicklung schaffen. Eine „Ästhetische Praxis“ kann dabei Produzenten untereinander und mit ihren Kunden in der Region mit „Sympathie“ aneinander binden, was zum Austausch und zur Weitergabe von Wissen über die regionale Natur mit ihren Ressourcen, die Naturanschauung und die innere Einstellung gegenüber der Produktion, auch über die Generationen hinweg, nützlich ist. Durch die „Sympathie“ zueinander erhöht sich auch die „Kohärenz“ in einer Region, werden die verschiedenen Interessensgruppen zusammengeführt, Gemeinsamkeiten erkannt und die Bindung an den Ort gestärkt.
Resumo:
Die Verbindung von Wohnarchitektur und Lebensstil der Bewohner wurde in der Architektur bisher kaum analysiert und systematisiert. Selbst in den klassischen Lehrbüchern der Gebäudelehre fehlt in der Regel eine definierte Auffassung des Lebensstils der Bewohner als Einflussparameter für Architektur. Es sind vorwiegend implizite, verkürzte oder nur sehr persönliche Vorstellungen vom Lebensstil zukünftiger Nutzer, die in die Architektur eingehen. Mit der vorliegenden Arbeit wird die Beziehung zwischen Lebensstil, Atmosphäre und architektonischem Programm im Kontext von Wohnarchitektur theoretisch, konzeptionell und an Hand eigener empirischer Analysen expliziert. Lebensstil wird dabei als Resultat eines Kräftefelds zwischen Individuum und Gesellschaft begriffen, also dem Zusammenwirken von individuellen und gesellschaftlichen Bedingungen, die sich in konkreten räumlichen Gegebenheiten vollziehen. Die theoretischen und empirischen Analysen erbrachten, dass eine Verknüpfung von Lebensstil und Architektur auf einer Ebene stattfinden sollte, die ihre inhaltliche Verschneidung erlaubt. Das heißt, dass weder „fertige“ Lebensstiltypen, wie in der soziologischen Lebensstilforschung üblich, noch Wohn(haus)typologien herangezogen werden sollten. Vielmehr sollten die Lebensstilparameter in ihre strukturellen Einzelteile zerlegt und dechiffriert werden, da fertige Typenbeschreibungen oft nur assoziative Verbindungen erzeugen und schwer in räumliche Dimensionen transferierbar sind. Die Entwicklung und Erforschung der Lebensstilparameter stellt im vorliegenden Ansatz die Voraussetzung zur Generierung von Wohnarchitektur unter dem Fokus des Lebensstils dar. Hierzu wurden sog. Integrative Lebensstil-Architektur-Parameter erarbeitet. Diese Parameter sind als Einzeldimensionen konzipiert und ermöglichen so eine freie Kombination und Schwerpunktsetzung durch den Architekten. Dadurch lässt sich Architektur im Sinne des Lebensstils beschreiben und analysieren. Neben der Analyse von Architektur an Hand der Parameter kann ihnen aber auch eine generative Gestaltungskraft in der Architektur zugesprochen werden, woraus eine zielgerichtetere Harmonisierung von Lebensstil und Architektur zu erwarten ist.
Resumo:
Die traditionellen Empathiekonzepte (z. B. Rogers, Kohut), die in der Psychotherapie bis heute maßgebend sind, werden einer gründlichen Überprüfung unterzogen. Dabei ergeben sich drei wesentliche Kritikpunkte: (1) Empathische Vorgänge in der Psychotherapie werden als einseitige Prozesse verstanden; der Therapeut fühlt sich in die Klientin ein, nicht auch umgekehrt. (2) Empathie wird in Cartesianischer Tradition schwerpunktmäßig als kognitive Leistung gesehen; ein körperloser Geist vergegenwärtigt sich die mentalen Inhalte eines anderen. (3) Das traditionelle Empathieverständnis ist individualistisch: Therapeutin und Klient halten sich demnach scheinbar im luftleeren Raum auf. Es sieht so aus, als existiere kein Kontext, der sie umgibt. So einseitig, wie ihre Beziehung gedacht wird, so abgetrennt, wie ihr Körper von ihrem Geist zu sein scheint, so unverbunden sind sie scheinbar mit dem Rest der Welt. Aus diesen drei Kritikpunkten folgt die Notwendigkeit, den Empathiebegriff der Psychotherapie zu erweitern, d. h. (a) Empathie als gegenseitigen Prozess der Beteiligten zu begreifen, (b) ihre tiefe Verwurzelung in der Leiblichkeit des Menschen zu berücksichtigen und (c) ihre Einbettung in die Dynamiken einer gemeinsamen Situation im Rahmen eines kulturellen Kontextes einzubeziehen. Mit Rückgriff auf neuere Untersuchungsergebnisse aus der Entwicklungspsychologie (z. B. Emde, Hobson, Meltzoff, Stern, Trevarthen), der Sozial- und Emotionspsychologie (z. B. Chartrand, Ekman, Goleman, Hatfield, Holodynski), der sozialen Neurowissenschaften (z. B. Damasio, Gallese, Iacoboni, LeDoux, Rizzolatti), aber auch mit Hilfe der Erkenntnisse aus der klassischen (Husserl, Merleau- Ponty, Edith Stein) und der Neuen Phänomenologie (Schmitz) sowie aus symbolischem Interaktionismus (Mead) und aus der kulturhistorischen Schule (Vygotskij) werden diese drei bislang wenig beleuchteten Dimensionen der Empathie betrachtet. ad a) Die Gegenseitigkeit empathischer Vorgänge in der Psychotherapie wird anhand des entwicklungspsychologischen Konzepts des social referencing erläutert und untersucht: Kleinkinder, die in eine unbekannte bzw. unsichere Situation geraten (z. B. im Experiment mit der "visuellen Klippe"), orientieren sich an den nonverbalen Signalen ihrer Bezugspersonen, um diese Situation zu bewältigen. Dabei erfasst die Mutter die Situation des Kindes, versucht ihm ihre Stellungnahme zu seiner Situation zu übermitteln, und das Kind begreift die Reaktion der Mutter als Stellungnahme zu seiner Situation. ad b) Die Körperlichkeit bzw. Leiblichkeit der Einfühlung manifestiert sich in vielfältigen Formen, wie sie von der Psychologie, der Phänomenologie und den Neurowissenschaften erforscht werden. Das kulturübergreifende Erkennen des Gesichtsausdrucks von Basisemotionen ist hier ebenso zu nennen wie die Verhaltensweisen des motor mimicry, bei dem Menschen Körperhaltungen und – bewegungen ihrer Bezugspersonen unwillkürlich imitieren; des Weiteren das unmittelbare Verstehen von Gesten sowie die Phänomene der „Einleibung“, bei denen die körperliche Situation des Anderen (z. B. eines stürzenden Radfahrers, den man beobachtet) am eigenen Leib mitgefühlt wird; und außerdem die Entdeckung der „Spiegelneurone“ und anderer neuronaler Strukturen, durch die Wahrgenommenes direkt in analoge motorische Aktivität übersetzt wird. ad c) Intersubjektivitätstheoretische Überlegungen, Konzepte wie „dyadisch erweiterter Bewusstseinszustand“ (Tronick) und „gemeinsame Situation“ (Gurwitsch, Schmitz) verweisen auf die Bedeutung überindividueller, ‚emergenter’ Dimensionen, die für die Verständigung zwischen Menschen wichtig sind. Sie folgen gestaltpsychologischen Prinzipien („Das Ganze ist mehr und anders als die Summe seiner Teile.“), die mit Hilfe von Gadamers Begriff des „Spiels“ analysiert werden. Am Ende der Arbeit stehen die Definition eines neuen Empathiebegriffs, wie er sich aus den vorangegangenen Überlegungen ergibt, sowie eine These über die psychotherapeutische Wirkweise menschlicher Einfühlung, die durch weitere Forschungen zu überprüfen wäre.
Rissbildung und Zugtragverhalten von mit Stabstahl und Fasern bewehrtem Ultrahochfesten Beton (UHPC)
Resumo:
Ultrahochfester Beton (UHPC) ist ein sehr gefügedichter zementgebundener Werkstoff, der sich nicht nur durch eine hohe Druckfestigkeit, sondern auch durch einen hohen Widerstand gegen jede Form physikalischen oder chemischen Angriffs auszeichnet. Duktiles Nachbruchverhalten bei Druckversagen wird meist durch die Zugabe dünner kurzer Fasern erreicht. In Kombination mit konventioneller Betonstahl- oder Spannbewehrung ermöglicht UHPC die Ausführung sehr schlanker, weitgespannter Konstruktionen und eröffnet zugleich neue Anwendungsgebiete, wie zum Beispiel die flächenhafte Beschichtung von Brückendecks. Durch das Zusammenwirken kontinuierlicher Bewehrungselemente und diskontinuierlich verteilter kurzer Fasern ergeben sich unter Zugbeanspruchung Unterschiede gegenüber dem bekannten Stahl- und Spannbeton. In der vorliegenden Arbeit wird hierzu ein Modell entwickelt und durch eine umfangreiche Versuchsreihe abgesichert. Ausgangspunkt sind experimentelle und theoretische Untersuchungen zum Verbundverhalten von Stabstählen in einer UHPC-Matrix und zum Einfluss einer Faserzugabe auf das Reiß- und Zugtragverhalten von UHPC. Die Modellbildung für UHPC-Zugelemente mit gemischter Bewehrung aus Stabstahl und Fasern erfolgt auf der Grundlage der Vorgänge am diskreten Riss, die daher sehr ausführlich behandelt werden. Für den elastischen Verformungsbereich der Stabbewehrung (Gebrauchslastbereich) kann damit das Last-Verformungs-Verhalten für kombiniert bewehrte Bauteile mechanisch konsistent unter Berücksichtigung des bei UHPC bedeutsamen hohen Schwindmaßes abgebildet werden. Für die praktische Anwendung wird durch Vereinfachungen ein Näherungsverfahren abgeleitet. Sowohl die theoretischen als auch die experimentellen Untersuchungen bestätigen, dass der faserbewehrte UHPC bei Kombination mit kontinuierlichen Bewehrungselementen selbst kein verfestigendes Verhalten aufweisen muss, um insgesamt verfestigendes Verhalten und damit eine verteilte Rissbildung mit sehr keinen Rissbreiten und Rissabständen zu erzielen. Diese Beobachtungen können mit Hilfe der bisher zur Verfügung stehenden Modelle, die im Wesentlichen eine Superposition isoliert ermittelter Spannungs-Dehnungs-Beziehungen des Faserbetons und des reinen Stahls vorsehen, nicht nachvollzogen werden. Wie die eigenen Untersuchungen zeigen, kann durch ausreichend dimensionierte Stabstahlbewehrung zielgerichtet und ohne unwirtschaftlich hohe Fasergehalte ein gutmütiges Verhalten von UHPC auf Zug erreicht werden. Die sichere Begrenzung der Rissbreiten auf deutlich unter 0,1 mm gewährleistet zugleich die Dauerhaftigkeit auch bei ungünstigen Umgebungsbedingungen. Durch die Minimierung des Material- und Energieeinsatzes und die zu erwartende lange Nutzungsdauer lassen sich so im Sinne der Nachhaltigkeit optimierte Bauteile realisieren.
Resumo:
Die Verordnung des Europäischen Rates (EC) 834/2007 erkennt das Recht des Konsumenten auf eine Entscheidung basierend auf vollständiger Information bezüglich der enthaltenen Zutaten im Produkt und deren Herkunft (Qualität der Verarbeitung). Die primäre Kennzeichnungsverordnung betont „organische“ Produktionsstandards ebenso wie die Notwendigkeit zur Kontrolle und Aufsicht. Jedoch ist zurzeit keine validierte Methode zur analytischen Diskriminierung zwischen „organischer“ und „konventioneller“ Herkunft von angebotenen Lebensmitteln verfügbar. Das Ziel der Dissertationsarbeit war die Überprüfung der Möglichkeit mit ausgewählten analytischen und holistischen Methoden zwischen organisch und konventionell angebautem Weizen objektiv zu unterscheiden. Dies beinhaltete die Bestimmung des Gesamtstickstoff (Protein) nach Dumas, zweidimensionale Fluoreszenzdifferenz Gelelektrophorese (2D DIGE) und die Kupferchloridkristallisation. Zusätzlich wurde die Anzahl der Körner pro Ähre (Kornzahl) bestimmt. Alle Bestimmungen wurden an rückverfolgbaren in den Jahren 2005 – 2007 in Belgien gesammelten Proben des Winterweizen (Triticum aestivum L. cv. Cubus) durchgeführt. Statistisch signifikante (p < 0.05) Unterschiede wurden innerhalb der untersuchten Probengruppen sowohl in der Kornzahl, dem Gesamtsticksoff (Eiweißgehalt), als auch in der Gesamtausbeute gefunden, wobei in den meisten Fällen die konventionellen Proben höhere Kornzahlen und Gesamtsticksoff (Eiweißgehalte) aufwiesen. Eine mit der 2D DIGE kompatible Probenvorbereitungsmethode für Winterweizen wurde entwickelt und auf einen internen Winterweizenstandard sowie die entsprechenden Proben angewendet. Die organischen Proben waren im Vergleich mit den konventionellen Gegenstücken in allen Fällen durch eine kleinere Anzahl von signifikant (p < 0.05) stärker exprimierten Proteinspots gekennzeichnet. Gewisse Tendenzen in Richtung der Bevorzugung bestimmter Regionen von stärker ausgeprägten Proteinspots auf aufeinanderfolgenden 2D Abbildungen in Abhängigkeit von der landwirtschaftlichen Methode konnten zwar beobachtet werden, jedoch konnte kein universelles Markerprotein zur Unterscheidung von konventionell und biologisch angebautem Winterweizen identifiziert werden. Die rechnergestützte Verarbeitung der digitalisierten Kristallisierungsbilder mittels multivariater statistischer Analyse und der Regression partieller kleinster Quadrate ermöglichte eine 100%ig korrekte Vorhersage der landwirtschaftlichen Methode unbekannter Proben sowie der Beschreibung der Kristallisierungsbilder. Diese Vorhersage bezieht sich nur auf den hier verwendeten Datensatz (Proben einer Sorte von drei Standorten über zwei Jahre) und kann nicht ohne weiteres übertragen (generalisiert) werden. Die Ergebnisse deuten an, dass die Quantifizierung der beschriebenen Parameter ein hohes Potential zur Lösung der gestellten Aufgabe besitzt.
Resumo:
Neue Leitbilder bedeuten nicht automatisch neue Qualitäten. Diesem Phänomen geht die vorliegende Arbeit anhand städtebaulicher Leitbilder und daraus erfolgten Siedlungsentwürfen seit den 1920er Jahren nach. Die Begriffe 'Hausen' und 'Wohnen' werden genutzt, unterschiedliche Beurteilungsstränge der Arbeit darzulegen. Die Hartnäckigkeit, mit der 'Wohnen' immer wieder neu in Szene gesetzt wird, wird ersichtlich in der Beschreibung verschiedener städtebaulicher Leitbilder. Egal ob modern, organisch, autogerecht, urban, nachhaltig oder frauengerecht - deutlich wird, dass mit dem 'Wohnen' zugleich monolithische und spezialisierte Siedlungsorganisationen beabsichtigt und gebaut werden. Anhand wesentlicher Prinzipien von Erschließung, Parzellierung und Bebauung wird ausgeführt, welche Formen Voraussetzungen dafür bieten, dass viele verschiedene ökonomische und soziale Lebensweisen darin eingerichtet werden können. In einem theoretischen Anhang werden einzelne Themenschwerpunkte vertieft. Vorgestellt wird darin auch, wie Gender und Diversity sinnvoll für die Freiraumplanung nutzbar gemacht werden kann.
Resumo:
Im Rahmen der vorliegenden Arbeit wurde eine detaillierte phylogenetische Analyse der Ameisenpflanzen aus der Gattung Macaranga (Euphorbiaceae) und ihres verwandtschaftlichen Umfelds mit Hilfe von AFLP-Fingerprinting („amplified fragment length polymorphisms“) sowie vergleichender Analyse von mehreren nichtkodierenden Chloroplasten-DNA-Loci vorgenommen. Anhand dieser Untersuchungen sollten im Wesentlichen die folgenden Fragen geklärt werden: (1) Wie stellen sich die Verwandtschaftsverhältnisse zwischen den myrmekophytischen Macaranga-Sektionen Pachystemon, Winklerianae und Pruinosae dar? (2) Wie sind die einzelnen Arten dieser Sektionen miteinander verwandt? (3) Wie oft ist die Lebensweise ”Myrmekophytie” unabhängig voneinander entstanden? Gibt es Hinweise auf Reversionen? (4) Wo liegt genealogisch und auch geographisch der Ursprung der Symbiose zwischen den myrmekophytischen Macaranga-Arten und ihren Partnerameisen? (5) Welche Bedeutung spielen koevolutive Entwicklungen für das Macaranga-Crematogaster-Symbiosesystem? Ist Myrmekophytie im Sinne einer Schlüsselinnovation (Givnish, 1997) als Stimulus für eine adaptive Radiation zu betrachten? (1) Für die AFLP-Analyse wurden 108 Proben aus 43 Macaranga-Arten und 5 unbeschriebenen Morphospezies in die phylogenetische Untersuchung einbezogen. Auf der Basis von 426 Merkmalen wurden Phänogramme sowie Kladogramme rekonstruiert. Zur statistischen Absicherung wurden Bootstrap-Analysen durchgeführt und im Falle der Kladogramme darüber hinaus der „consistency“-Index bestimmt. Die AFLP-Datensätze wurden zusätzlich einer Hauptkomponentenanalyse unterzogen. Mit Hilfe der verschiedenen Untersuchungsmethoden konnten weitgehend übereinstimmende Gruppierungen bzw. evolutive Linien identifiziert werden. Die Sektionen Pachystemon und Pruinosae bilden eine jeweils gut gestützte monophyletische Gruppe. Beide sind vermutlich Schwestergruppen und damit gleich alt. Für die Monophylie der nur aus zwei Arten bestehenden Sektion Winklerianae ergab sich keine Unterstützung. Die Arten der Sektion Pruinosae sind im AFLP-Baum gut aufgelöst. Die nicht myrmekophytische M. gigantea sitzt dabei an der Basis und ist Schwestergruppe zu den myrmekophytischen Arten. Innerhalb der Sektion Pachystemon wurden mit Hilfe der AFLP-Analyse vier gut gestützte Gruppen identifiziert. Für die puncticulata-Gruppe konnte hier erstmals auf molekularer Ebene eine Zugehörigkeit zur Sekt. Pachystemon nachgewiesen werden. Der von Davies (2001) vorgenommene Ausschluss von M. recurvata aus der Sekt. Pachystemon konnte bestätigt werden. Die Verwandtschaftsbeziehungen einzelner Arten zueinander sind in den AFLP-Bäumen nicht aufgelöst. (2) Für die vergleichende Chloroplasten-Sequenzierung wurden nach Maßgabe der Sequenzvariabilität in Testsequenzierungen die Bereiche atpB-rbcL und psbI-trnS für die phylogenetische Untersuchung ausgewählt. Für die Chloroplasten-Phylogenie wurden für jeden Locus mehr als 100 Sequenzen analysiert. Neben 29 Pachystemon-Arten inkl. vier unbekannter Morphospezies, acht Pruinosae-Arten inkl. eines möglichen Hybriden und den beiden Arten der Sekt. Winklerianae wurden 22 weitere Macaranga- und 10 Mallotus-Arten in die Untersuchung einbezogen. Zwischen den südostasiatischen Arten bestanden nur geringe Sequenzunterschiede. Maximum-Parsimonie-Kladogramme wurden rekonstruiert und die Sequenzen der beiden Loci wurden sowohl einzeln, als auch kombiniert ausgewertet. Indels wurden kodiert und als separate Merkmalsmatrix an die Sequenzdaten angehangen. Innerhalb von Macaranga konnten nur wenige abgesicherte Gruppen identifiziert werden. Deutlich war die Zusammengehörigkeit der afrikanischen Arten und ihr Entstehung aus den südostasiatischen Arten. Die von Davies (2001) der Sektion Pruinosae zugeordnete M. siamensis steht deutlich außerhalb dieser Sektion. Die Arten der Sektionen Pruinosae, Pachystemon und Winklerianae bilden keine statistisch gesicherten monophyletischen Gruppen. Während der Pilotstudien stellte sich heraus, dass die Chloroplastensequenzen nahe verwandter Arten der Sektion Pachystemon weniger nach den Artgrenzen, sondern vielmehr nach geographischen Kriterien gruppierten. (3) Es wurde daher zusätzlich eine phylogeographische Analyse der Chloroplasten-Sequenzen auf der Basis eines Parsimonie-Netzwerks durchgeführt. Neben dem atpB-rbcL-Spacer und einer Teilsequenze des psbI-trnS-Locus (ccmp2) wurde dafür zusätzlich der ccmp6-Locus (ein Abschnitt des ycf3-Introns) sequenziert. Die phylogeographische Untersuchung wurde mit 144 Proben aus 41 Macaranga-Arten durchgeführt. Darin enthalten waren 29 Arten (inkl. vier Morphospezies) mit 112 Proben der Sektion Pachystemon, sieben 7 Arten (inkl. eines potentiellen Hybriden) mit 22 Proben der Sekt. Pruinosae und zwei Arten mit 5 Proben der Sekt. Winklerianae. Das voll aufgelöste statistische Parsimonie-Netzwerk umfasste 88 Haplotypen. Die Sektionen Pachystemon und Pruinosae bilden jeweils eine monophyletische Gruppe. Das geographische Arrangement der Haplotypen unabhängig von der Artzugehörigkeit könnte durch Introgression und/oder „lineage sorting“ bedingt sein. Mit Hilfe der im Rahmen dieser Arbeit gewonnenen Ergebnisse kann man davon ausgehen, dass eine enge Ameisen-Pflanzen-Symbiose innerhalb der Gattung Macaranga mindestens drei-, möglicherweise viermal unabhängig voneinander entstanden ist Eine Reversion hat mindestens einmal, möglicherweise häufiger in der bancana-Gruppe stattgefunden. Ob sich die Symbiose dabei in Westmalaysia oder in Borneo entwickelt hat, kann man nicht sicher sagen; Ob und inwieweit die große Artenzahl in der bancana-Gruppe als eine Folge der Myrmekophytie anzusehen ist, bleibt zunächst offen. Wesentliche Teile der vorliegenden Arbeit liegen bereits in publizierter Form vor (AFLP-Analyse: Bänfer et al. 2004; Chloroplasten-Analyse: Vogel et al. 2003; Bänfer et al. 2006).
Resumo:
Diese Arbeit entstand vor dem Hintergrund einer zunehmenden Hinwendung der wissenschaftlichen Didaktiken zum Konstruktivismus und der damit verbundenen Forderung nach schülerzentrierten Lehr- und Lernarrangements. Die Gründe für diese Entwicklung liegen u. a. in der Vorstellung, dass sich Schüler durch eigenes Konstruieren von Problemlösungen intensiver und verständiger mit dem Lernstoff auseinandersetzen. Im Bereich des Wirtschaftslehreunterrichts ergeben sich aufgrund einer nicht unproblematischen Bezugsdisziplin und ihrer begrifflichen Grundlagen Besonderheiten. Diese begründen sich in einem stark an der klassischen Physik angenäherten Grundverständnis der neoklassischen Ökonomik. Hier setzte die Arbeit an einem typischen ökonomischen Konzept, dem Produktlebenszyklus, beispielhaft an. Wenngleich dieser nicht die radikale Stringenz zwischen gesetzten Annahmen und den daraus abgeleiteten logisch wahren Folgerungen aufweist und somit nicht als originär neoklassisches Konzept gelten kann, weist dieser dennoch deutliche Kompatibilitäten zur Machart der Neoklassik auf, wie beispielsweise weit reichende Komplexitätsreduzierungen. Der Umgang mit dem Produktlebenszyklus durch Lernende wird analytisch-experimentell sowie interpretativ in den didaktischen Spannungsfeldern von Instruktion und Konstruktion untersucht. Im Rahmen einer Schulbuchanalyse konnte gezeigt werden, dass die Leistungsfähigkeit des Produktlebenszyklus in den Lehrwerken durch besonders plausible Beispiele und einen auf Instruktionen setzenden Vermittlungsstil besonders deutlich hervorgehoben wird, obwohl dies empirisch nicht haltbar ist. Dies wirkt verengend auf die differenzierte Wahrnehmung von Märkten und Produkten, wie in Testreihen mit angehenden Wirtschaftslehrern gezeigt werden konnte. Diese Experimente machten am Beispiel des Produktlebenszyklus deutlich, wie prägend instruierende und plausibilisierende Unterrichte wirken können, wenn die behandelten Modelle einen plausiblen Kern haben. Trotz offensichtlicher Inkompatibilitäten zur Realität verteidigten die Probanden mehrheitlich das Modell und immunisierten es gegen Kritik. Eine zweite, stärker auf Konstruktionen setzende Experimentreihe konnte diese Haltung zwar aufweichen und legte den Grundstein für einen konstruktiv-kritischen Umgang mit dem Produktlebenszyklus. Es wurde allerdings auch hier deutlich, welch große Hürde es darstellt, durch instruierende und plausibilisierende Unterrichte erworbene Schemata später noch zu korrigieren. Aus diesen Befunden wurden Empfehlungen für die wesentlichen an der Lehrerausbildung beteiligten Institutionen abgeleitet.
Resumo:
Die q-Analysis ist eine spezielle Diskretisierung der Analysis auf einem Gitter, welches eine geometrische Folge darstellt, und findet insbesondere in der Quantenphysik eine breite Anwendung, ist aber auch in der Theorie der q-orthogonalen Polynome und speziellen Funktionen von großer Bedeutung. Die betrachteten mathematischen Objekte aus der q-Welt weisen meist eine recht komplizierte Struktur auf und es liegt daher nahe, sie mit Computeralgebrasystemen zu behandeln. In der vorliegenden Dissertation werden Algorithmen für q-holonome Funktionen und q-hypergeometrische Reihen vorgestellt. Alle Algorithmen sind in dem Maple-Package qFPS, welches integraler Bestandteil der Arbeit ist, implementiert. Nachdem in den ersten beiden Kapiteln Grundlagen geschaffen werden, werden im dritten Kapitel Algorithmen präsentiert, mit denen man zu einer q-holonomen Funktion q-holonome Rekursionsgleichungen durch Kenntnis derer q-Shifts aufstellen kann. Operationen mit q-holonomen Rekursionen werden ebenfalls behandelt. Im vierten Kapitel werden effiziente Methoden zur Bestimmung polynomialer, rationaler und q-hypergeometrischer Lösungen von q-holonomen Rekursionen beschrieben. Das fünfte Kapitel beschäftigt sich mit q-hypergeometrischen Potenzreihen bzgl. spezieller Polynombasen. Wir formulieren einen neuen Algorithmus, der zu einer q-holonomen Rekursionsgleichung einer q-hypergeometrischen Reihe mit nichttrivialem Entwicklungspunkt die entsprechende q-holonome Rekursionsgleichung für die Koeffizienten ermittelt. Ferner können wir einen neuen Algorithmus angeben, der umgekehrt zu einer q-holonomen Rekursionsgleichung für die Koeffizienten eine q-holonome Rekursionsgleichung der Reihe bestimmt und der nützlich ist, um q-holonome Rekursionen für bestimmte verallgemeinerte q-hypergeometrische Funktionen aufzustellen. Mit Formulierung des q-Taylorsatzes haben wir schließlich alle Zutaten zusammen, um das Hauptergebnis dieser Arbeit, das q-Analogon des FPS-Algorithmus zu erhalten. Wolfram Koepfs FPS-Algorithmus aus dem Jahre 1992 bestimmt zu einer gegebenen holonomen Funktion die entsprechende hypergeometrische Reihe. Wir erweitern den Algorithmus dahingehend, dass sogar Linearkombinationen q-hypergeometrischer Potenzreihen bestimmt werden können. ________________________________________________________________________________________________________________