978 resultados para performative Arbeit
Resumo:
Im Mittelpunkt der Arbeit steht die Frage, ob bei psychogenen Störungen Geschwistererfahrungen klinische Relevanz haben und ob die erfahrene Geschwisterposition und –konstellation auch im Erwachsenenalter psychodynamisch wirksam ist. Die Arbeit gliedert sich in drei Teile. Im ersten Teil werden in einem metatheoretischen Vorgehen psychoanalytische Konzepte, psychoanalytische Entwicklungstheorien aus der Objekt- und Selbstpsychologie und empirische Forschungsergebnisse zur Geschwisterbeziehung vorgestellt. Darauf aufbauend werden Annahmen formuliert, welche psychodynamischen Konflikte sich in einer pathologischen Entwicklung als psychische Störungen im Erwachsenenalter manifestieren können.Im zweiten Teil der Arbeit werden acht Einzelfälle psychoanalytischer Behandlungen von erwachsenen Patienten unterschiedlicher Geschwisterpositionen und -konstellationen dargestellt, die die in Teil 1 beschriebenen pathogenen Geschwistereinflüsse illustrieren. In den untersuchten Einzelfällen ist die erfahrene Geschwisterposition der Patienten konfliktbesetzt und psychodynamisch wirksam gewesen. Dabei haben die Erfahrungen mit den primären Objekten die Basis für die pathologische Beziehungsdynamik der Geschwister gebildet. Den dritten extra-klinisch empirischen Teil der Arbeit stellt eine explorative Pilotstudie dar, die ebenfalls das Ziel verfolgt, persistierende Geschwisterkonflikte in ihren langandauernden Effekten zu explorieren. Es handelt sich um eine Dokumentenanalyse von 215 Patientenakten aus einer psychosomatischen Klinik. Aus den Akten werden als Variablen ICD - und OPD - Diagnosen als auch inhaltsanalytisch ermittelte psychodynamische Konflikte herausgefiltert und mit den Variablen Geschwisterposition und –konstellation korreliert. Dabei wird erstens der Frage nachgegangen, ob es in den Akten von psychisch erkrankten Patienten zwischen Einzel- und Geschwisterkindern Unterschiede in Bezug auf die Diagnosen und hinsichtlich der formulierten psychodynamischen Konflikte gibt. Zweitens geht es um eine weitergehende Exploration dieser Variablen in Bezug auf die erfahrene Geschwisterposition bzw. –konstellation. Es zeigt sich, dass die ICD-10 Diagnostik aufgrund ihres deskriptiven Charakters und ihrer psychiatrischen Orientierung wenig brauchbar ist, diesbezügliche Hypothesen zu formulieren. Im Unterschied zur ICD-10 ergibt sich in Bezug auf die OPD-Diagnostik, besonders aber in Hinsicht auf die psychodynamischen Konflikte ein differenzierteres Bild. So sind z.B. Parentifizierung am häufigsten von Einzelkindern und Erstgeborenen benannt worden. Gleichzeitig berichten Patienten, die mit Geschwistern aufgewachsen sind, am stärksten von erlebtem emotionalem Mangel in der Familie. Unter Dominanzkonflikten leiden die Patienten am meisten, die als jüngstes Kind aufgewachsen sind. Bei Patienten mit der jüngsten und mittleren Geschwisterposition ist als weiteres Beispiel auffallend oft Altruismus ermittelt worden. Fazit der Arbeit ist, dass ungelöste Geschwisterkonflikte langandauernde Effekte haben können und dass - im Gegensatz zur Birth-Order-Forschung - die Variable der Geschwisterposition unter Berücksichtigung geschlechtsspezifischer Aspekte als ein intra- und interpsychisches dynamisches Geschehen begriffen werden kann.
Resumo:
Selbstbestimmung und -gestaltung des eigenen Alltages gewinnen immer mehr an Bedeutung, insbesondere für ältere Mitmenschen in ländlichen Regionen, die auf ärztliche Versorgung angewiesen sind. Die Schaffung sogenannter smart personal environments mittels einer Vielzahl von, nahezu unsichtbar installierten Sensoren im gewohnten Lebensraum liefert dem Anwender (lebens-) notwendige Informationen über seine Umgebung oder seinen eigenen Körper. Dabei gilt es nicht den Anwender mit technischen Daten, wie Spektren, zu überfordern. Vielmehr sollte die Handhabung so einfach wie möglich gestaltet werden und die ausgewertete Information als Indikationsmittel zum weiteren Handeln dienen. Die Anforderungen an moderne Technologien sind folglich eine starke Miniaturisierung, zur optimalen Integration und Mobilität, bei gleichzeitig hoher Auflösung und Stabilität. Die Zielsetzung der vorliegenden Arbeit ist die Miniaturisierung eines spektroskopischen Systems bei gleichzeitig hohem Auflösungsvermögen für die Detektion im sichtbaren Spektralbereich. Eine Möglichkeit für die Herstellung eines konkurrenzfähigen „Mini-„ oder „Mikrospektrometers“ basiert auf Fabry-Pérot (FP) Filtersystemen, da hierbei die Miniaturisierung nicht wie üblich auf Gittersysteme limitiert ist. Der maßgebliche Faktor für das spektrale Auflösungsvermögen des Spektrometers ist die vertikale Präzision und Homogenität der einzelnen 3D Filterkavitäten, die die unterschiedlichen Transmissionswellenlängen der einzelnen Filter festlegen. Die wirtschaftliche Konkurrenzfähigkeit des am INA entwickelten Nanospektremeters wurde durch die maximale Reduzierung der Prozessschritte, nämlich auf einen einzigen Schritt, erreicht. Erstmalig wird eine neuartige Nanoimprint Technologie, die sog. Substrate Conformal Imprint Lithography, für die Herstellung von wellenlängen-selektierenden Filterkavitäten von stark miniaturisierten Spektrometern eingesetzt. Im Zuge dieser Arbeit wird das Design des FP Filtersystems entwickelt und technologisch mittels Dünnschichtdeposition und der Nanoimprinttechnologie realisiert. Ein besonderer Schwerpunkt liegt hierbei in der Untersuchung des Prägematerials, dessen optische Eigenschaften maßgeblich über die Performance des Filtersystems entscheiden. Mit Hilfe eines speziell gefertigten Mikroskopspektrometers werden die gefertigten Filterfelder hinsichtlich ihrer Transmissionseigenschaften und ihres Auflösungsvermögens hin untersucht. Im Hinblick auf publizierte Arbeiten konkurrierender Arbeitsgruppen konnte eine deutliche Verbesserung des miniaturisierten Spektrometers erreicht werden. Die Minimierung der Prozessschritte auf einen einzigen Prägeschritt sorgt gleichzeitig für eine schnelle und zuverlässige Replikation der wellenlängenselektierenden Filterkavitäten. Im Rahmen dieser Arbeit wurde aufgezeigt, dass das angestrebte Nanospektrometer, trotz der sehr geringen Größe, eine hohe Auflösung liefern kann und gerade wegen der starken Miniaturisierung mit kommerziellen Mini- und Mikro-spektrometern konkurrenzfähig ist.
Resumo:
Laut dem Statistischen Bundesamts ist die Zahl der im Straßenverkehr getöteten Personen zwar rückläufig, jedoch wurden in 2010 in Deutschland noch immer 3648 Personen bei Unfällen im Straßenverkehr getötet, 476 davon waren Fußgänger. In den letzten Dekaden lag der Schwerpunkt der Forschungsarbeiten zur Reduzierung der Verkehrstoten besonders im Bereich des Insassenschutzes. Erst in den letzten Jahren rückte die Thematik des Fußgängerschutzes mehr in den Fokus des öffentlichen Interesses und der Automobilhersteller. Forschungsarbeiten beschäftigen sich mit unterschiedlichen Ansätzen die Folgen einer Kollision zwischen einem Auto und einem Fußgänger zu reduzieren. Hierzu zählen z.B. weiche Aufprallzonen im Frontbereich eines Autos, aufstellende Motorhaube oder auch Fußgängerairbags im Bereich der Frontscheibe. Da passive Ansätze aber nur die Folgen eines Aufpralls am Fahrzeug, nicht aber die Folgen eines Sekundäraufpralls auf dem Boden verringern können, werden parallel Ansätze zur aktiven Kollisionsvermeidung untersucht. Die bisher verfolgten, ebenso wertvollen Ansätze, zeigen jedoch jeweils Schwachpunkte in Ihrer Lösung. So ist der Einsatz der bisherigen bordautonomen Ansätze auf Grund der Anforderungen der verschiedenen Systeme, wie der Notwendigkeit einer direkten, ungestörten Sichtverbindung zwischen Auto und Fußgänger, leider nur eingeschränkt möglich. Kooperative Systeme, die ein zusätzliches, vom Fußgänger mitzuführendes Sende-Empfänger Gerät zur Ermittlung der Fußgängerposition benötigen sind hingegen mit zusätzlichem Aufwand für den Fußgänger verbunden. Auch fehlen den bisher verfolgten Ansätzen Informationen über den Fußgänger, wodurch es schwierig ist, wenn nicht gar manchmal unmöglich, eine Situation korrekt bewerten zu können. Auch sehen diese Systeme keine Warnung des Fußgängers vor. In dieser Arbeit wird ein Verfahren zum Fußgängerschutz betrachtet, welches per Funk ausgetauschte Informationen zur Risikobewertung eines Szenarios nutzt. Hierbei werden neben den vom Auto bekannten Informationen und Parameter, die vom Smartphone des Fußgängers zur Verfügung gestellten Kontextinformationen verwendet. Es werden zum einen die Parameter, Bedingungen und Anforderungen analysiert und die Architektur des Systems betrachtet. Ferner wird das Ergbnis einer Untersuchung zur generellen Umsetzbarkeit mit bereits heute in Smartphone verfügbaren Funktechnolgien vorgestellt. Final werden die bereits vielversprechenden Ergebnisse eines ersten Experiments zur Nutzbarkeit von Sensorinformationen des Smartphones im Bereich der Kollisionsvermeidung vorgestellt und diskutiert.
Resumo:
Diese Dissertation hat das Ziel, zum einen die Transformation des Handelssystems von der GATT zur Welthandelsorganisation (WTO) im Kontext einer veränderten Weltordnung und zum anderen die Rollen von transnationalen Unternehmen im Rahmen dieser Transformation zu untersuchen und zu verstehen. Die Arbeit wird theoretisch vom Neogramscianismus angeleitet, da die etablierten Ansätzen in den Internationalen Beziehungen und der International Politischen Ökonomie nur unzureichend die intersubjektive Natur von Regimen und nicht-staatlichen Akteuren darstellen. Für Anhänger des Neogramscianismus sind internationale Regime intersubjektive Einheiten, deren Zusammenspiel von Ideen und Machtkonfigurationen historische Strukturen prägen. Die Hegemonie ist ein Konzept, das soziale Einflüsse als Agenten historischen Wandels in international Regimen und der Weltordnung zusammenbindet. Mit dem Konzept der Hegemonie wird eine Machtsituation beschrieben, in der politische Macht in legitime Autorität übersetzt wird, indem die Zustimmung subalterner Akteure eingeholt wird. Hegemonie beinhaltet die konsensuellen Aspekte von Machtausübung in einer jeweiligen Weltordnung. Diese Dissertation argumentiert vor allem, dass die Transformation des Handelssystems als hegemonisch bezeichnet werden kann, da sie parallel mit der Transformation der Weltordnung von einer von den USA dominierten Nachkriegszeit zu einer neoliberalen Hegemonie stattfand. Mit der Transformation zur Welthandlungsorganisation wird der legale Rahmen des Handelssystems neu strukturiert und ihre normative Grundlagen neu definiert, wodurch der ethische Rahmen des Neoliberalismus reflektiert wird. Diese Änderungen werden in der neuartigen Anerkennung der legitimen Autorität des Marktes gegenüber Nationalstaaten und der Anerkennung von der Notwendigkeit von bindenden Disziplinen, die Regierungen übergeordnet sind, reflektiert. Diese Dissertation analysiert zwei Fälle, um die Rolle von transnationalen Unternehmen innerhalb diese Transformationsprozesses zu erklären. Dabei wird der Fokus vor allem auf die Aktivitäten und Fähigkeiten der Unternehmen gerichtet, die Ausrichtung des Handelsregimes zu bestimmen. Die erste Studie untersucht die Eingliederung von Dienstleistungen in das GATT Regime vor und während der Uruguay-Runde (1986 – 1994) und argumentiert, dass diese Eingliederung zu einer Neudefinierung von Liberalisierung und Normen der Nichtdiskriminierung führte. Die zweite Studie analysiert den gescheiterten Versuch, ausländische Direktinvestitionen noch bevor und während der 2001 begonnenen Doha Runde in die Welthandelsorganisation zu integrieren. Letztendlich wird in dieser Dissertation argumentiert, dass transnationale Unternehmen, die in den Vereinigten Staaten ansässig sind, hegemonische Agenten der Regimetransformation waren und eine wichtige Rolle dabei gespielt haben, Dienstleistungen in das GATT einzubinden. Und zwar gelang ihnen dies durch eine in den späten 1970er Jahren begonnenen Kampagne. Auf der einen Seite war die Kampagne darin erfolgreich, etablierte Denkstrukturen zu Handelsthemen systematisch im Sinne des Neoliberalismus zu verändern – und zwar sowohl hinsichtlich der normativen Inhalte als auch der intersubjektiven Bedeutungen des Regimes. Auf der anderen Seite deutet der Fall des Investitionsabkommens die Grenzen der hegemonischen Ideen, Institutionen, und Strömungen seit den frühen 90er Jahren an. Transnationale Unternehmen, die in Europa ansässig waren, sind mit ihren Bemühungen gescheitert, das Regime weiter zu transformieren und das Thema Investitionen in die legalen und normativen Rahmenbedingungen der WTO zu integrieren. Die Prioritäten und Strategien der transnationalen Unternehmen, die Agenda der WTO zu beeinflussen, waren beschränkt und wurden im Kontext einer angefochtenen neoliberalen Hegemonie geformt, die wiederum von dem Widerstand und anti-hegemonischen Kampagnen der Zivilgesellschaft beeinflusst wurden. Die Analyse in dieser Dissertation wurde durch eine qualitative Diskursanalyse von Sekundär- und Primärquellen durchgeführt: Regierungsvorschläge, Verhandlungstexte, Konferenzzusammenfassungen und Statements von Unternehmen.
Resumo:
Der liberale Theologe Arthur Titius (1864 – 1936) wirkte an entscheidenden Wegmarken des deutschen Protestantismus und der politischen Entwicklung in Deutschland zwischen 1895 und 1936 gestaltend und orientierend mit. Durch sein herausragendes ökumenisches Engagement wurde er auch außerhalb Deutschlands geschätzt. Er stammte aus einer bürgerlichen Familie in Sendsberg bei Königsberg und studierte dort und in Berlin. Dort trat er in engen Kontakt mit Julius Kaftan und Bernhard Weiss. Von 1895 bis 1906 war er Professor für Neues Testament an der Universität Kiel, wo er mit Otto Baumgarten zusammenarbeitete. 1906 wurde er auf einen systematischen Lehrstuhl an die Fakultät in Göttingen berufen. Von 1921 bis 1934 war er Lehrstuhlinhaber an der Universität Berlin. Mit seiner intensiven Beschäftigung mit naturwissenschaftlichen Themen konnte sich diese Arbeit leider nicht befassen. Er war verheiratet mit Emma Brandstetter, die Ehe blieb kinderlos. Titius war von 1910 bis 1921 Herausgeber der „Theologischen Literaturzeitung“. Nach der ökumenischen Versammlung in Stockholm im Jahr 1925 wurde er einer der Herausgeber der internationalen sozialwissenschaftlichen Zeitschrift „Stockholm“. Mit Georg Wobbermin begründete er die Zeitschrift „Studien zur systematischen Theologie“. In den neunziger Jahren des 19. Jahrhunderts engagierte er sich stark im Evangelisch-sozialen Kongress auf der Seite der „Jungen“ trotz kaiserlicher und kirchlicher Kritik an sozialpolitischen Aktivitäten. Er diente dem Kongress in leitender Position bis in die Zeit des Nationalsozialismus. Mit Friedrich Naumann gehörte er zu den Gründungsmitgliedern des politisch orientierten National-sozialen Vereins. Während Naumann immer stärker auf eine christliche Begründung seiner Sozialpolitik verzichtete, arbeitete Titius in einem umfassenden neutestamentlichen Werk an einer zeitgemäßen Interpretation des Begriffs der Seligkeit, um Intellektuelle und Arbeitermassen wieder zum Glauben und in die Kirche zurückzuführen. Trotz seiner durchaus nationalen Einstellung trat er während des Ersten Weltkrieg sehr bald versöhnlich auf. Nach dem Zusammenbruch von Kaiserreich und Summepiskopat kämpfte Titius für eine demokratische Erneuerung der Kirche. Er gründete den Volkskirchenbund, um in der unübersichtlichen politischen Lage politisch einwirken zu können und arbeitete an Verfassungsfragen mit. Auf dem ersten Deutschen Evangelischen Kirchentag rechnete er als einer der beiden Hauptredner mit dem Krieg und aller rückwärtsgewandten Verherrlichung militärischer Größe ab. Er trat für Abrüstung, Versöhnung und den Völkerbund ein, wofür er dort niedergezischt wurde. Dennoch wurde er praktisch als einziger Liberaler Mitglied im Deutschen Evangelischen Kirchenausschuss. Sein Amt endete 1935. Anfang der zwanziger Jahre sah er in der beginnenden ökumenischen Zusammenarbeit eine Möglichkeit, die staatlichen Bemühungen um einen friedlichen Ausgleich zwischen den Völkern durch eine kirchliche Kooperation zu unterstützen. Darum arbeitete er engagiert in der ökumenischen Bewegung mit. Leidenschaftlich setzte er sich 1925 auf der Stockholmer Konferenz für ein internationales sozialwissenschaftliches Institut als permanente Einrichtung der ökumenischen Bewegung und für die Zeitschrift „Stockholm“ ein, die dem Austausch sozialpolitischer Ideen dienen sollte. Mit dem Nationalsozialismus und Vertretern des Deutschen Glaubens setzte er sich Anfang der dreißiger Jahre sehr kritisch auseinander. Er erwartete verheerende Folgen, wenn der Faschismus, wie er den Nationalsozialismus ausdrücklich nannte, zum Gestaltungsprinzip des Staates würde. Bei der Konferenz des Ökumenischen Rates für Praktisches Christentum auf der dänischen Insel Fanö 1934 verteidigte Titius aber die Situation in Deutschland gegenüber kritischen Anfragen aus dem Ausland. Im weiteren Verlauf des Jahres versuchte er den deutschen Kirchenkonflikt durch ein Treffen von Vertretern der Hauptrichtungen vor allem aus den Arbeitsorganisationen zu überwinden. Allerdings blieb dieser Versuch ohne Erfolg. Nach dem Herbst 1934 wird auch seine theologische Position allmählich aufgeweicht. In den Schriften, die noch bis zu seinem Tod erschienen, kam er schließlich 1935 zu der Auffassung, dass die Rasse für alles geschichtliche und geistige Leben von erheblicher Bedeutung sei, eine Auffassung, die er 1933 und 1934 noch klar abgelehnt hatte.
Resumo:
Im Zuge der Novellierung der Gasnetzzugangsverordnung sowie des Erneuerbare-Energien-Gesetzes entwickelte sich die Einspeisung von Biomethan in das Erdgasnetz als alternative Investitionsmöglichkeit der Erneuerbare-Energien-Branche. Als problematisch erweist sich dabei die Identifikation und Strukturierung einzelner Risikofaktoren zu einem Risikobereich, sowie die anschließende Quantifizierung dieser Risikofaktoren innerhalb eines Risikoportfolios. Darüber hinaus besteht die Schwierigkeit, diese Risikofaktoren in einem cashflowbasierten und den Ansprüchen der Investoren gewachsenem Risikomodell abzubilden. Zusätzlich müssen dabei Wechselwirkungen zwischen einzelnen Risikofaktoren berücksichtigt werden. Aus diesem Grund verfolgt die Dissertation das Ziel, die Risikosituation eines Biomethanprojektes anhand aggregierter und isolierter Risikosimulationen zu analysieren. Im Rahmen einer Diskussion werden Strategien und Instrumente zur Risikosteuerung angesprochen sowie die Implementierungsfähigkeit des Risikomodells in das Risikomanagementsystem von Investoren. Die Risikomaße zur Beschreibung der Risikoauswirkung betrachten die Shortfälle einer Verteilung. Dabei beziehen sich diese auf die geplanten Ausschüttungen sowie interne Verzinsungsansprüche der Investoren und die von Kreditinstituten geforderte minimale Schuldendienstdeckungsrate. Im Hinblick auf die Risikotragfähigkeit werden liquiditätsorientierte Kennzahlen hinzugezogen. Investoren interessieren sich vor dem Hintergrund einer gezielten Risikosteuerung hauptsächlich für den gefahrvollsten Risikobereich und innerhalb dessen für den Risikofaktor, der die größten Risikoauswirkungen hervorruft. Zudem spielt der Zeitpunkt maximaler Risikoauswirkung eine große Rolle. Als Kernaussage dieser Arbeit wird festgestellt, dass in den meisten Fällen die Aussagefähigkeit aggregierter Risikosimulationen durch Überlagerungseffekte negativ beeinträchtigt wird. Erst durch isoliert durchgeführte Risikoanalysen können diese Effekte eliminiert werden. Besonders auffällig gestalten sich dabei die Ergebnisse der isoliert durchgeführten Risikoanalyse des Risikobereichs »Politik«. So verursacht dieser im Vergleich zu den übrigen Risikobereichen, wie »Infrastruktur«, »Rohstoffe«, »Absatzmarkt« und »Finanzmarkt«, die geringsten Wahrscheinlichkeiten avisierte Planwerte der Investoren zu unterschreiten. Kommt es jedoch zu einer solchen Planwert-Unterschreitung, nehmen die damit verbundenen Risikoauswirkungen eine überraschende Position im Risikoranking der Investoren ein. Hinsichtlich der Aussagefähigkeit des Risikomodells wird deutlich, dass spezifische Risikosichtweisen der Investoren ausschlaggebend dafür sind, welche Strategien und Instrumente zur Risikosenkung umgesetzt werden. Darüber hinaus wird festgestellt, dass die Grenzen des Risikomodells in der Validität der Expertenmeinungen und dem Auffinden einer Optimallösung zu suchen sind.
Resumo:
Die Auszeichnungssprache XML dient zur Annotation von Dokumenten und hat sich als Standard-Datenaustauschformat durchgesetzt. Dabei entsteht der Bedarf, XML-Dokumente nicht nur als reine Textdateien zu speichern und zu transferieren, sondern sie auch persistent in besser strukturierter Form abzulegen. Dies kann unter anderem in speziellen XML- oder relationalen Datenbanken geschehen. Relationale Datenbanken setzen dazu bisher auf zwei grundsätzlich verschiedene Verfahren: Die XML-Dokumente werden entweder unverändert als binäre oder Zeichenkettenobjekte gespeichert oder aber aufgespalten, sodass sie in herkömmlichen relationalen Tabellen normalisiert abgelegt werden können (so genanntes „Flachklopfen“ oder „Schreddern“ der hierarchischen Struktur). Diese Dissertation verfolgt einen neuen Ansatz, der einen Mittelweg zwischen den bisherigen Lösungen darstellt und die Möglichkeiten des weiterentwickelten SQL-Standards aufgreift. SQL:2003 definiert komplexe Struktur- und Kollektionstypen (Tupel, Felder, Listen, Mengen, Multimengen), die es erlauben, XML-Dokumente derart auf relationale Strukturen abzubilden, dass der hierarchische Aufbau erhalten bleibt. Dies bietet zwei Vorteile: Einerseits stehen bewährte Technologien, die aus dem Bereich der relationalen Datenbanken stammen, uneingeschränkt zur Verfügung. Andererseits lässt sich mit Hilfe der SQL:2003-Typen die inhärente Baumstruktur der XML-Dokumente bewahren, sodass es nicht erforderlich ist, diese im Bedarfsfall durch aufwendige Joins aus den meist normalisierten und auf mehrere Tabellen verteilten Tupeln zusammenzusetzen. In dieser Arbeit werden zunächst grundsätzliche Fragen zu passenden, effizienten Abbildungsformen von XML-Dokumenten auf SQL:2003-konforme Datentypen geklärt. Darauf aufbauend wird ein geeignetes, umkehrbares Umsetzungsverfahren entwickelt, das im Rahmen einer prototypischen Applikation implementiert und analysiert wird. Beim Entwurf des Abbildungsverfahrens wird besonderer Wert auf die Einsatzmöglichkeit in Verbindung mit einem existierenden, ausgereiften relationalen Datenbankmanagementsystem (DBMS) gelegt. Da die Unterstützung von SQL:2003 in den kommerziellen DBMS bisher nur unvollständig ist, muss untersucht werden, inwieweit sich die einzelnen Systeme für das zu implementierende Abbildungsverfahren eignen. Dabei stellt sich heraus, dass unter den betrachteten Produkten das DBMS IBM Informix die beste Unterstützung für komplexe Struktur- und Kollektionstypen bietet. Um die Leistungsfähigkeit des Verfahrens besser beurteilen zu können, nimmt die Arbeit Untersuchungen des nötigen Zeitbedarfs und des erforderlichen Arbeits- und Datenbankspeichers der Implementierung vor und bewertet die Ergebnisse.
Resumo:
Das Thema „Modellierung“ nimmt einen großen Bestandteil der aktuellen mathematikdidaktischen Diskussion ein, nicht zuletzt durch die verbindliche Einführung der von der Kultusministerkonferenz (KMK) beschlossenen Bildungsstandards 2005/2006. Auch den Sichtweisen oder Vorstellungen der Lernenden bezüglich der Mathematik kam in den vergangenen Jahren ein reges Interesse der mathematikdidaktischen Diskussion entgegen, in deren Verlauf sich der Begriff „Belief“ manifestierte, der eine filternde Funktion aufweist und in Kapitel 2.1 aufgegriffen wird. Es stellt sich nun die Frage, ob Modellierungen die Beliefs der Lernenden beeinflussen und somit verändern können.Nach der Einleitung werden im zweiten Kapitel theoretische Grundlagen der Beliefs, die Aspekte mathematischer Weltbilder sowie Modellierungen aufgegriffen. Die anschließenden Aspekte mathematischer Weltbilder werden aus den Perspektiven von Grigutsch (1998) und Maaß (2004) betrachtet und daraufhin für den hiesigen Gebrauch definiert. Um zu erklären, was sich hinter der mathematischen Modellierung verbirgt, wird zunächst der darin enthaltene Begriff „Modell“ beleuchtet, um dann zur mathematischen Modellierung zu gelangen. Nachdem festgehalten wurde, dass diese die Beziehung zwischen der Mathematik und dem „Rest der Welt“ (Pollak 1979, 233; zitiert nach Blum 1996, 18) bezeichnet, steht der Stellenwert in den Bildungsstandards im Vordergrund. Es schließt sich eine Diskussion der Ziele mathematischer Modellierung an, die in eine Beschreibung der Modellierungskompetenzen mündet, da diese ein beachtliches Ziel des Einsatzes von Modellierungen darstellen. Den Abschluss des zweiten Kapitels bilden eine allgemeine Auseinandersetzung mit der mathematischen Modellierung in der Grundschule und die Präzisierung der Forschungsfragen. Das dritte Kapitel beschäftigt sich mit der in dieser Arbeit relevanten Methodik. Der allgemeinen Beschreibung qualitativer Forschung folgt eine Darstellung der Datenerhebung, indem auf das Sampling eingegangen wird. Der nachfolgenden Beleuchtung der Erhebungsmethoden - Fragebogen, Interview, Hospitation - schließt sich eine Auseinandersetzung mit den Auswertungsmethoden an. In Kapitel 4 wird die praktische Umsetzung der Studie beschrieben. Das fünfte Kapitel stellt die Ergebnisse der Erhebungsmethoden dar und diskutiert diese. Die abschließende Schlussbetrachtung fasst die Hauptaussagen der Arbeit noch einmal zusammen und beantwortet die Forschungsfragen, um somit ein Fazit zu ziehen und einen Ausblick geben zu können. Die Forschungsfragen leiten sich von der Hauptfrage dieser Arbeit ab, die sich folgendermaßen stellt: Veränderung der Sichtweise von Grundschulkindern zur Mathematik durch Modellierung? Die Komplexität der Forschungsfragen ergibt sich im weiteren Verlauf der Arbeit und wird an passender Stelle festgehalten.
Resumo:
Inhalt dieser Arbeit ist ein Verfahren zur numerischen Lösung der zweidimensionalen Flachwassergleichung, welche das Fließverhalten von Gewässern, deren Oberflächenausdehnung wesentlich größer als deren Tiefe ist, modelliert. Diese Gleichung beschreibt die gravitationsbedingte zeitliche Änderung eines gegebenen Anfangszustandes bei Gewässern mit freier Oberfläche. Diese Klasse beinhaltet Probleme wie das Verhalten von Wellen an flachen Stränden oder die Bewegung einer Flutwelle in einem Fluss. Diese Beispiele zeigen deutlich die Notwendigkeit, den Einfluss von Topographie sowie die Behandlung von Nass/Trockenübergängen im Verfahren zu berücksichtigen. In der vorliegenden Dissertation wird ein, in Gebieten mit hinreichender Wasserhöhe, hochgenaues Finite-Volumen-Verfahren zur numerischen Bestimmung des zeitlichen Verlaufs der Lösung der zweidimensionalen Flachwassergleichung aus gegebenen Anfangs- und Randbedingungen auf einem unstrukturierten Gitter vorgestellt, welches in der Lage ist, den Einfluss topographischer Quellterme auf die Strömung zu berücksichtigen, sowie in sogenannten \glqq lake at rest\grqq-stationären Zuständen diesen Einfluss mit den numerischen Flüssen exakt auszubalancieren. Basis des Verfahrens ist ein Finite-Volumen-Ansatz erster Ordnung, welcher durch eine WENO Rekonstruktion unter Verwendung der Methode der kleinsten Quadrate und eine sogenannte Space Time Expansion erweitert wird mit dem Ziel, ein Verfahren beliebig hoher Ordnung zu erhalten. Die im Verfahren auftretenden Riemannprobleme werden mit dem Riemannlöser von Chinnayya, LeRoux und Seguin von 1999 gelöst, welcher die Einflüsse der Topographie auf den Strömungsverlauf mit berücksichtigt. Es wird in der Arbeit bewiesen, dass die Koeffizienten der durch das WENO-Verfahren berechneten Rekonstruktionspolynome die räumlichen Ableitungen der zu rekonstruierenden Funktion mit einem zur Verfahrensordnung passenden Genauigkeitsgrad approximieren. Ebenso wird bewiesen, dass die Koeffizienten des aus der Space Time Expansion resultierenden Polynoms die räumlichen und zeitlichen Ableitungen der Lösung des Anfangswertproblems approximieren. Darüber hinaus wird die wohlbalanciertheit des Verfahrens für beliebig hohe numerische Ordnung bewiesen. Für die Behandlung von Nass/Trockenübergangen wird eine Methode zur Ordnungsreduktion abhängig von Wasserhöhe und Zellgröße vorgeschlagen. Dies ist notwendig, um in der Rechnung negative Werte für die Wasserhöhe, welche als Folge von Oszillationen des Raum-Zeit-Polynoms auftreten können, zu vermeiden. Numerische Ergebnisse die die theoretische Verfahrensordnung bestätigen werden ebenso präsentiert wie Beispiele, welche die hervorragenden Eigenschaften des Gesamtverfahrens in der Berechnung herausfordernder Probleme demonstrieren.
Resumo:
Spätestens seit der Formulierung der modernen Portfoliotheorie durch Harry Markowitz (1952) wird den aktiven Portfoliomanagementstrategien besondere Aufmerksamkeit in Wissenschaft und Anlagepraxis gewidmet. Diese Arbeit ist im Schnittstellenbereich zwischen neoklassischer Kapitalmarkttheorie und technischer Analyse angesiedelt. Es wird untersucht, inwieweit eine passive Buy&Hold-Strategie, die als einzige im Einklang mit der Effizienzmarkthypothese nach Fama (1970) steht, durch Verwendung von aktiven Strategien geschlagen werden kann. Der Autor präsentiert einen Wavelet-basierten Ansatz für die Analyse der Finanzzeitreihen. Die Wavelet-Transformation wird als ein mathematisches Datenaufbereitungstool herangezogen und ermöglicht eine Multiskalendarstellung einer Datenreihe, durch das Aufspalten dieser in eine Approximationszeitreihe und eine Detailszeitreihe, ohne dass dadurch Informationen verloren gehen. Diese Arbeit beschränkt sich auf die Verwendung der Daubechies Wavelets. Die Multiskalendarstellung dient als Grundlage für die Entwicklung von zwei technischen Indikatoren. Der Wavelet Stochastik Indikator greift auf die Idee des bekannten Stochastik-Indikators zurück und verwendet nicht mehr die Kurszeitreihe, sondern die Approximationszeitreihe als Input. Eine auf diesem Indikator basierende Investmentstrategie wird umfangreicher Sensitivitätsanalyse unterworfen, die aufzeigt, dass eine Buy&Hold-Strategie durchaus outperformt werden kann. Die Idee des Momentum-Indikators wird durch den Wavelet Momentum Indikator aufgegriffen, welcher die Detailszeitreihen als Input heranzieht. Im Rahmen der Sensitivitätsanalyse einer Wavelet Momentum Strategie wird jedoch die Buy&Hold -Strategie nicht immer geschlagen. Ein Wavelet-basiertes Prognosemodell verwendet ähnlich wie die technischen Indikatoren die Multiskalendarstellung. Die Approximationszeitreihen werden dabei durch das Polynom 2. Grades und die Detailszeitreihen durch die Verwendung der Sinusregression extrapoliert. Die anschließende Aggregation der extrapolierten Zeitreihen führt zu prognostizierten Wertpapierkursen. Kombinierte Handelsstrategien zeigen auf, wie Wavelet Stochastik Indikator, Wavelet Momentum Indikator und das Wavelet-basierte Prognosemodell miteinander verknüpft werden können. Durch die Verknüpfung einzelner Strategien gelingt es, die Buy&Hold-Strategie zu schlagen. Der letzte Abschnitt der Arbeit beschäftigt sich mit der Modellierung von Handelssystem-portfolios. Angestrebt wird eine gleichzeitige Diversifikation zwischen Anlagen und Strategien, die einer ständigen Optimierung unterworfen wird. Dieses Verfahren wird als ein systematischer, an bestimmte Optimierungskriterien gebundener Investmentprozess verstanden, mit welchem es gelingt, eine passive Buy&Hold-Strategie zu outperformen. Die Arbeit stellt eine systematische Verknüpfung zwischen der diskreten Wavelet Transformation und technisch quantitativen Investmentstrategien her. Es werden auch die Problemfelder der durchaus viel versprechenden Verwendung der Wavelet Transformation im Rahmen der technischen Analyse beleuchtet.
Resumo:
Als Kräuter werden alle krautigen Pflanzen, die nicht zu den Gehölzen und zu den Gräsern zählen, bezeichnet. Sie erfüllen wichtige Funktionen bei der Förderung von Insekten und der Ästhetik von Landschaften und tragen zur Verbesserung des Grundfutters landwirtschaftlicher Nutztiere bei. Ansaaten von Kräutern in geschlossene Vegetationsdecken und bei Neuanlagen sind durch deren langandauernde Entwicklungsphasen sehr schwierig zu realisieren. Eine innovative Option zur Etablierung in Grünlandbeständen kann die Herstellung von Kräutersoden sein. Ziel dieser Arbeit ist die Untersuchung der Eignung von Kräutern zur Sodenproduktion. Durch unterschiedliche Merkmale von Kräutern und Gräsern können Probleme bei der Entwicklung von Kräutersoden auftreten. In dieser Arbeit sind verschiedene Anbauversuche mit Wurzelkürzungen und Ertragsbestimmungen sowie Sodenverpflanzungen, die Ermittlung eines optimalen Trägermaterials und Untersuchungen zur Entwicklung eines Sodenschneidersystems durchgeführt worden. Wurzelkürzungen an Kräutern ergaben, dass die Bildung der Gesamtwurzelmasse, der Wurzelneubildung und der Masse des Oberbewuchses bei einzelnen Kräutern nur z.T. im Zusammenhang mit der Schnitttiefe stehen und die Entwicklungsstadien der Kräuter keine signifikanten Unterschiede aufzeigen. Hieraus ergibt sich, dass ein Wurzelschnitt generell möglich ist, jedoch verschiedenen Arte von Kräutern unterschiedlich stark auf diesen reagieren. Zu den Entwicklungsstadien, zum Ertrag des Bewuchses und zum Anwurzelungsverhalten von Kräutersoden können in Abhängigkeit vom Vorzuchtsort und im Vergleich zu Fertigrasen keine abschließenden Aussagen getroffen werden. Es besteht daher weiterer Forschungsbedarf. Ein kombinierter Anbau mit Untergräsern eignet sich durch die wuchsverdrängende Wirkung nicht zur Stabilisierung von Kräutersoden. Es konnte aber gezeigt werden, dass Trägermaterial aus Kokosfaser durch die hohe Zugfestigkeit und der Langlebigkeit des Materials geeignet ist. Demzufolge könnte es bei der Produktion von Kräutersoden eine wichtige Rolle spielen. Das Design von Sodenschneidertechnik aus dem Fertigrasenanbau kann nicht auf die Erzeugung von Kräutersoden übertragen werden, da Kräuter andere Wurzelmerkmale als Gräser haben und sich daher spezielle Anforderungen ergeben. Für einen erfolgreichen Schälvorgang von Kräutersoden bedarf es der Entwicklung einer speziell angepassten Technik. Denkbar währe die Verwendung oszillierender Schneideorgane, welche den Schneidevorgang besser ermöglichen könnten. Dadurch, dass ein flacher Wurzelschnitt bei Kräutern erfolgen kann, ist eine Erzeugung von Kräutersoden möglich. Aufgrund von morphologischen Unterschieden zwischen Kräutern und Gräsern unterscheiden sich diese in ihren Anforderungsprofilen, die Techniken der Fertigrasenproduktion können somit nicht direkt auf eine Kräutersodenproduktion übertragen werden. Mit dieser Arbeit fand ein erster Ansatz zur technischen Entwicklung einer Kräutersodenproduktion statt. Die Versuche haben gezeigt, dass noch viele Fragen bei der Entwicklung von Kräutersoden offen sind.
Resumo:
The present thesis is about the inverse problem in differential Galois Theory. Given a differential field, the inverse problem asks which linear algebraic groups can be realized as differential Galois groups of Picard-Vessiot extensions of this field. In this thesis we will concentrate on the realization of the classical groups as differential Galois groups. We introduce a method for a very general realization of these groups. This means that we present for the classical groups of Lie rank $l$ explicit linear differential equations where the coefficients are differential polynomials in $l$ differential indeterminates over an algebraically closed field of constants $C$, i.e. our differential ground field is purely differential transcendental over the constants. For the groups of type $A_l$, $B_l$, $C_l$, $D_l$ and $G_2$ we managed to do these realizations at the same time in terms of Abhyankar's program 'Nice Equations for Nice Groups'. Here the choice of the defining matrix is important. We found out that an educated choice of $l$ negative roots for the parametrization together with the positive simple roots leads to a nice differential equation and at the same time defines a sufficiently general element of the Lie algebra. Unfortunately for the groups of type $F_4$ and $E_6$ the linear differential equations for such elements are of enormous length. Therefore we keep in the case of $F_4$ and $E_6$ the defining matrix differential equation which has also an easy and nice shape. The basic idea for the realization is the application of an upper and lower bound criterion for the differential Galois group to our parameter equations and to show that both bounds coincide. An upper and lower bound criterion can be found in literature. Here we will only use the upper bound, since for the application of the lower bound criterion an important condition has to be satisfied. If the differential ground field is $C_1$, e.g., $C(z)$ with standard derivation, this condition is automatically satisfied. Since our differential ground field is purely differential transcendental over $C$, we have no information whether this condition holds or not. The main part of this thesis is the development of an alternative lower bound criterion and its application. We introduce the specialization bound. It states that the differential Galois group of a specialization of the parameter equation is contained in the differential Galois group of the parameter equation. Thus for its application we need a differential equation over $C(z)$ with given differential Galois group. A modification of a result from Mitschi and Singer yields such an equation over $C(z)$ up to differential conjugation, i.e. up to transformation to the required shape. The transformation of their equation to a specialization of our parameter equation is done for each of the above groups in the respective transformation lemma.
Resumo:
Betriebliche Anti-Stress-Strategien zur Motivationsförderung und Leistungssteigerung von Arbeitnehmern und Arbeitnehmerinnen setzt sich mit Maßnahmen zur Stressverhütung in Unternehmen auseinander. Die Diplomarbeit wurde bereits im Jahr 1997 verfasst, als der Bereich betriebliche Gesundheitsförderung noch in der Anfangsphase stand. Bis zum heutigen Tag, also knapp 15 Jahre nach verfassen dieser Arbeit hat der Inhalt höchsten Aktualitätsgehalt. Es wird hierin der Stressbegriff, inkl. Ursachenforschung diesbezüglich beleuchtet, sogegannte Live-Events (als einschneidende Lebensereignisse), die Bewertung individueller Stressoren sowie die Begriffe Hypostress und Hyperstress, akute Stressreaktionen und Langzeitfolgen von Stress. Im empirischen Teil dieser Arbeit werden sogenannte Anti-Stress-Strategien vorgestellt, die Notwendigkeit von Stressmanagement in Betrieben diskutiert sowie Ansätze für die praktische Realisierung aufgezeigt.
Resumo:
In der Diplomarbeit "Medizinische und psychologische Betrachtung von Genuss und Sucht" werden beide Begriffe in Bezug zu einander gestellt und als mögliche Antagonisten (Gegenspieler) betrachtet. Dabei soll bewußt gelebter Genuss - der als Fähigkeit trainierter ist- auch als ein Gegenspieler im Umgang mit Sucht dienen. Aus der psychologischen Verhaltenstrainingsrichtung ist bekannt, dass Genußtrainings u. a. bei Depressionen eingesetzt werden. In dieser Arbeit wird auch die Komponente der Präventionsfähigkeit von Genuss betrachtet, die als stressreduzierende Komponente auch im Rahmen eines persönlichen Zeitmanangements zum Einsatz kommen kann. Ein hierfür entwickeltes Training "Power mit Genuss" wird u. a. in dieser Arbeit vorgestellt.
Resumo:
Bei der Arbeit an sicherheitsgerichteten Kommunikationsprotokollen stellten sich immer wieder die Fragen nach der Eignung von einzelnen Mechanismen der Protokolle, um den Gefährdungen entsprechende Maßnahmen zur Beherrschung entgegenzusetzen. Dabei waren durchweg die Anforderungen der IEC 61508 mit dem Safety Integrity Level 3 zu erfüllen. Die IEC 61508-2 ist mit 5 Zeilen Umfang für die wesentlichen Anforderungen an die sicherheitsgerichtete Kommunikation sehr kurz gehalten und die IEC 61784-3 war zu Beginn der Arbeiten noch nicht veröffentlicht. Aber die IEC 61784-3 stellt auch heute nur einen unvollständigen Kriterienkatalog zusammen. Insbesondere die in IEC 61508-2 geforderte quantitative Analyse wird in der IEC 61784-3 nicht ausreichend thematisiert. In bisherigen sicherheitsgerichteten Protokollen und den relevanten Normen des Anwendungsbereichs fanden die Gefährdungspotentiale, wie Masquerading und Adressierung in offenen Übertragungssystemen, absichtliche Unterminierung der Sicherheitsmechanismen und fehlerhafte Konfiguration keine ausreichende Beachtung und die Gefährdungen durch absehbaren Missbrauch, absehbare Fehlbedienung und unberechtigter Zugriff auf sichere Kommunikationseinrichtungen wurde nur in Randgebieten diskutiert. Hier zeigt die vorliegende Arbeit die Bedeutung dieser für den Einsatz von sicherheitsgerichteten Kommunikationsprotokollen im industriellen Umfeld auf und folgert daraus die entsprechenden Maßnahmen, die in der Verantwortung des Anwenders liegen, bzw. zum Teil auch durch Protokollmechanismen beherrscht werden können. Die Arbeit stellt einen umfassenden Gefährdungskatalog auf und bewertet nach diesem Katalog die am weitest verbreiteten sicherheitsgerichteten Kommunikationsprotokolle nach einem einheitlichen Maßstab. Weiter zeigt die vorgelegte Arbeit, dass auch ein existierendes Zertifikat gemäß IEC 61508 SIL3 nicht in jedem Fall ausreichend ist, um die Eignung eines Protokolls für den Einsatz gemäß dem aktuellen Stand der Normen zu bestätigen. Hervor zu heben ist insbesondere die quantitative Bewertung jeder einzelnen Maßnahme der Protokolle. Bislang wurde diese nur für die Beherrschung von verfälschten Nachrichten durchgeführt. Die Arbeit führt diese quantitative Bewertung der eingesetzten Maßnahmen systematisch durch und zeigt dabei, dass diese Bewertung dringend erforderlich ist, da die betrachteten öffentlichen Protokolle nicht die für SIL3 notwendige Güte für alle ihre Maßnahmen aufweisen, bzw. aufwiesen. Einer der Schwerpunkte dieser Arbeit ist die Definition von Verarbeitungsmodellen für die Berechnung der maximalen Reaktionszeit und der Worst-Case Reaktionszeit. Dazu wurde ein Modell aus 5 Komponenten erstellt, dass geeignet ist, die Reaktionszeit über ein Kommunikationssystem für die im industriellen Umfeld gebräuchlichen Anwendungen zu untersuchen. Diese 5 Komponenten, das Eingangsmodul, die Sicherheitssteuerung, die Kommunikation zwischen beiden, sowie das Ausgangsmodul und die Kommunikation zwischen diesem und der Sicherheitssteuerung. Anhand dieses Modells wurde die maximale Reaktionszeit definiert. Dies ist die Zeit, die von der Änderung eines physikalischen Eingangssignals der Eingangskomponente, bis zur zugehörigen Reaktion des physikalischen Ausgangssignals der Ausgangskomponente, über die Sicherheitssteuerung hinweg, benötigt wird. Die maximale Reaktionszeit betrachtet dabei den Fall, dass im gesamten System aus diesen 5 Komponenten kein Fehler eine Wirkung entfaltet. Die Worst-Case Reaktionszeiten der Protokolle sind auf Grund der verschiedenen Konzepte sehr differenziert zu betrachten. Erschwerend kommt hier noch hinzu, dass die im konkreten System erreichte minimale Worst-Case Reaktionszeit stark von der Implementierung des jeweiligen Herstellers abhängt. Ebenso problematisch ist die unterschiedliche Modellbildung der jeweiligen Protokoll-Organisationen. Es werden Fehlerausschlüsse gemacht, wie die Annahme, dass nur ein Fehler auftritt und dieser Fehler sich nicht auf die Verbindung zwischen Eingangsmodul und Sicherheitssteuerung und auf die Verbindung zwischen Sicherheitssteuerung und Ausgangsmodul gleichzeitig auswirken kann. Da für den sicherheitsgerichteten Einsatz die maximale Reaktionszeit mit Fehlern die relevante Betrachtungseinheit darstellt, wurden anhand des Modells die Worst-Case 1 und 2 Reaktionszeiten definiert. Die erste definiert die Zeit die eine Reaktion maximal benötigt, wenn im Kommunikationssystem eine Fehlerwirkung vorliegt und bei der zweiten wird angenommen, dass mehrere der 5 Komponenten von Fehlerwirkungen betroffen sein können. Um einen vertieften Einblick in die Thematik zu erhalten, wurde im Rahmen dieser Arbeit ein eigenes sicherheitsgerichtetes Kommunikationsprotokoll spezifiziert, entworfen und realisiert. Hierbei wurde besonderer Augenmerk auf die Wirksamkeit des Verfälschungsschutzes mittels CRCs für kurze Nachrichten gelegt und ebenso die Wirksamkeit gekoppelter CRCs betrachtet.