573 resultados para Entstehung
Resumo:
Das virtuelle soziale Netzwerk Facebook feiert seinen zehnten Geburtstag. Mit über einer Milliarde aktiver Nutzer ist es seit seiner Entstehung zur weltweit größten Internetplattform zur Kommunikation avanciert. Dennoch gibt es in Deutschland eine große Anzahl an Menschen, die sich zwar täglich im Internet bewegt, aber auf eine Mitgliedschaft bei Facebook verzichtet. In dieser Arbeit werden die Gründe untersucht, warum manche Personen Facebook nicht nutzen. Die Leitfrage der Arbeit lautet: „Warum nutzen ausgewählte deutsche Internetnutzer Facebook nicht?“. Es wird zwischen zwei unterschiedlichen Personenkreisen, den Nicht- und den Ex-Nutzern, unterschieden. Basierend auf Leitfadeninterviews mit 25 Befragten, die mittels einer qualitativen Inhaltsanalyse ausgewertet werden, werden elf verschiedene Gründe für eine Verweigerung von Facebook identifiziert. Für die Nicht-Nutzer stellt die Art der Kommunikation den zentralen Grund dar, Facebook nicht zu verwenden. Die Ex-Nutzer wiederum sehen den fehlenden Nutzen der Anwendung als wichtigstes Argument gegen Facebook.
Resumo:
In der vorliegenden Arbeit, deren erster Teil in Heft 2 dieser Zeitschrift veröffentlicht wurde, werden die Kosten der “Schnittkäserei” am Beispiel der Herstellung von Gouda-Käse modellhaft bestimmt, wobei die vor 17 Jahren durchgeführten Modellkalkulationen für Edamerkäse hinsichtlich der Funktionsinhalte der Abteilung ausgedehnt und dem neuesten Stand der Technik sowie heutigen Schnittkäsereiproduktionsstrukturen angepaßt wurden. Zudem sind die generell für alle Modellabteilungen geltenden methodischen Weiterentwicklungen in den Kalkulationen berücksichtigt worden. In den sechs Unterabteilungen Vorstapelung, Bruchbereitung und Pressen, Salzbad, Käsebehandlung und Reifungslager, Abpackung sowie Versandkühlraum und Expedition wird ein rindengereifter Gouda-Käse (12-kg-Laib) hergestellt und hinsichtlich seiner Kostenverursachung untersucht. Zur Bestimmung der Modellkosten wurden vier Modelle gebildet, deren Kapazitäten in der Kesselmilchverarbeitung zwischen 8.000 und 48.000 l/h liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 21 und 100% simuliert wurde, können so die Kosten für Käsemengen zwischen rd. 5.100 und 30.8001 Käse/Jahr bestimmt werden. Gemäß den vorgegebenen Kapazitäten müssen die technischen Voraussetzungen für die Ausgestaltung der einzelnen Unterabteilungen modellspezifisch festgelegt werden, wobei eine Anpassung der technischen Auslegung an eine verringerte Auslastung bei 33%iger Beschäftigung erfolgt. Die zu tätigenden Investitionen für die Grundversion betragen 10,6 Mio. DM in Modell 1 und 40,3 Mio. DM in Modell 4. Bezogen auf die jeweilige Rohstoffeinsatzmenge ergeben sich hieraus spezifische Investitionen, die mit zunehmender Modellgröße erheblich sinken: Machen sie im Modell 1 noch 215,6 Tsd. DM/1 Mio. kg jährlicher Rohstoffeinsatzmenge aus, so verringern sie sich im Modell 4 auf 135,3 Tsd. DM/1 Mio. kg. Produktspezifische Investitionen und Faktormengenverbräuche führen zu den Einzelkosten des Produktes Gouda, die je nach Modellgröße und Beschäftigungsgrad zwischen 510,8 und 538,5 Pf/kg Käse liegen. Die Gesamtkosten der “Schnittkäserei”, die sich aus den Einzelkosten des Produktes Gouda und den Einzelkosten der Abteilung zusammensetzen, betragen 530,9 bis 654,3 Pf/kg Käse. Den größten Anteil an den Gesamtkosten haben die Rohstoffkosten (73 bis 90%). Der Anteil der Anlagekosten schwankt je nach Beschäftigung zwischen 4 und 18%, während die Personal- und sonstige Betriebskosten im Vergleich zu den beiden vorgenannten Kostenartengruppen in allen Modellen nur eine geringere Bedeutung haben. Betrachtet man die Gesamtkosten (ohne Rohstoffkosten) hinsichtlich ihrer Entstehung in den Unterabteilungen, so ist festzustellen, daß die höchsten Kosten in der Unterabteilung Bruchbereitung und Pressen anfallen: Bei einer 100%igen Beschäftigung betragen sie z.B. in Modell 3 42% der Gesamtkosten (ohne Rohstoff). Die geringsten Kosten (2%) fallen dagegen in der Unterabteilung Versandkühlraum und Expedition an. Die Kostenanalyse zeigt deutlich, daß mit zunehmender Modellgröße und steigender Produktionsmenge erhebliche Stückkostendegressionen zu erzielen sind, wobei der Einfluß des Beschäftigungsgrades auf die Kostendegression deutlich höher ist als derjenige der Modellgröße.
Resumo:
In der vorliegenden Arbeit, deren erster und zweiter Teil in den vorangegangenen Heften dieser Zeitschrift veröffentlicht wurden, werden die Kosten der “Weichkäserei” am Beispiel der Herstellung von Camembert- und Brie-Käse modellhaft bestimmt. Damit werden die im Jahr 1970 in gleicher Zeitschrift (Heft 5, Band 22) veröffentlichten Analysen der Produktionskosten in Camembertkäsereien hinsichtlich der Funktionsinhalte ausgedehnt und dem neuesten Stand der Technik sowie heutigen Produktionsstrukturen im Weichkäsesektor angepaßt. Gleichzeitig sind die generell für alle Modellabteilungen geltenden methodischen Weiterentwicklungen (2) in den Kalkulationen berücksichtigt worden. In den sechs Unterabteilungen Vorstapelung, Bruchbereitung/Portionierung, Umhorden/Salzen, Reifung, Abpackung und Fertiglager werden aus der Produktgruppe Weichkäse die Sorten Camembert mit 30 und 60 % F.i.Tr. sowie Brie mit 45 % F.i.Tr. in unterschiedlichen Stückgrößen hergestellt und hinsichtlich ihrer Kostenverursachung untersucht. Zur Bestimmung der Modellkosten wurden vier Modelle gebildet, deren Kapazitäten in der Kesselmilchverarbeitung zwischen 8.000 und 30.000 l/h liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wurde, können so die Kosten für Käsemengen zwischen rd. 700-17.0001 Käse/Jahr bestimmt werden.Nach den vorgegebenen Kapazitäten sind die technischen Voraussetzungen der einzelnen Unterabteilungen modellspezifisch festgelegt worden, wobei die technische Auslegung an eine verringerte Auslastung bei 65 und 33%iger Beschäftigung angepaßt wurde. Die zu tätigenden Investitionen für die Grundversion betragen 25,0 Mio DM im Modell 1 und 54,5 Mio DM im Modell 4. Bezogen auf die jeweilige Outputmenge an Käse ergeben sich hieraus spezifische Investitionen, die sich mit zunehmender Modellgröße von 5.125 auf 3.205 DM/t jährliche Käsemenge erheblich senken. Produktspezifische Investitionen und Faktormengenverbräuche führen zu den Einzelkosten der ausgewählten Weichkäseprodukte, die z.B. für den Camembert mit 60 % F.i.Tr. je nach Modellgrößeund Beschäftigungsgrad zwischen 500,7 Pf/kg und 620,2 Pf/kg Käse liegen. Die Gesamtkosten der Abteilung “Weichkäserei”, die sich aus den Einzelkosten der Produkte und den Einzelkosten der Abteilung zusammensetzen, betragen im größten Modell bei 100%iger Beschäftigung 522,1 Pf/kg Käse, die sich im kleinsten Modell bei nur 15%iger Beschäftigung auf 1.027,6 Pf/kg Käse erhöhen. Bei einem Beschäftigungsgrad von 65 %, dem die Produktionsmenge eines 2-Schichtbetriebes zugeordnet ist, entfallen von den Gesamtkosten der Abteilung je nach Modellgröße 62-72 % auf die Rohstoffkosten, 14-20 % auf die Anlagekosten und 4-7 % auf die Personalkosten, während die übrigen Kostenartengruppen nur von geringerer Bedeutung sind. Betrachtet man die Gesamtkosten (ohne Rohstoffkosten) hinsichtlich ihrer Entstehung in den Unterabteilungen, so ist festzustellen, daß die Unterabteilungen Bruchbereitung/Portionierung sowie Abpackung die höchsten Kosten verursachen. Für einen Beschäftigungsgrad von 65 % betragen die Kosten in den Unterabteilungen Bruchbereitung/Portionierung im Modell 1 85,8 Pf/kg, die mit zunehmender Modellgröße auf 45,9 Pf/kg im Modell 4 zurückgehen. Die Kosten für die Abpackung liegen im Modell 1 bei 76,2 Pf/kg, während sie im Modell 4 nur noch 58,3 Pf/kg betragen. Die geringsten Kosten verursacht die Unterabteilung Fertiglager mit 2,6 Pf/kg im kleinsten und 1,5 Pf/kg im größten Modell bei 65%iger Beschäftigung. Die Ergebnisse der Modellabteilungsrechnung lassen erkennen, daß mit zunehmender Kapazitätsgröße und ansteigendem Beschäftigungsgrad erhebliche Stückkostendegressionen zu erreichen sind, die bei betriebsindividuellen oder branchenbedingten Entscheidungen genutzt werden sollten. So empfiehlt es sich, daß auf eine dem Markt angepaßte Produktion auch eine auf die geplante Tagesproduktionsmenge angepaßte Ausstattung der Abteilung folgt, da sich, wie in den Modellkostenkurven bei 65 und 33 % Beschäftigung dargestellt, die Kosten sprunghaft senken können. Kostendegressionseffekte werden auch erreicht, wenn durch Spezialisierung der Stückkäse-Produktion die Vielfalt der Formatgrößen eingeschränkt werden kann. Das höchste Kosteneinsparungspotential ist aber durch Strukturveränderungen im Weichkäsesektor zu erwarten, die, wie an zwei Beispielen erläutert, der Branche langfristige Kosteneinsparungen von rd.25 bzw. 95 Mio DM/Jahr ermöglichen können.
Resumo:
Souvent laissée pour contre par les théoriciens, longtemps associée à la littérature populaire, la littérature fantastique a su depuis se tailler une place parmi les grands genres de la littérature. Depuis le milieu du XXe siècle, les chercheurs et le public découvrent ou redécouvrent un genre qui a toujours fait parti du paysage littéraire. Une œuvre majeure contribuera à la redécouverte scientifique du genre : Écrite en 1970 l’œuvre de Tzvetan Todorov Introduction à la littérature fantastique donne tant au néophyte qu’au chercheur un ouvrage qui trouve encore des échos aujourd’hui. Sa définition du fantastique, son approche du rôle du narrateur et du lecteur sont une référence, un point de départ et surtout un incontournable pour ceux et celles qui désirent comprendre et apprendre le fantastique. Dans ce mémoire, nous nous concentrerons particulièrement sur le rôle et la problématique du narrateur dans l’œuvre de deux représentants majeurs de la littérature fantastique de langue allemande du début du XXe siècle : Leo Perutz (1882-1957) et Alexander Lernet-Holenia (1897-1976). Le narrateur semble jouer un rôle prédominant dans la littérature fantastique. En effet, par son discours souvent présenté au « je », il semble créer une dynamique très particulière : il manipule son propre discours, il agit sur le lecteur en étant narrateur et personnage dans le récit, il crée une tension entre les différentes couches narratives par son état instable. Bref, il semble contribuer à l’apparition du fantastique dans le texte et également provoquer une certaine hésitation chez le lecteur. Le texte joue également un rôle : Leo Perutz produit un modèle de texte qui semble marquer aussi son collègue Alexander Lernet-Holenia. La structure presque mathématique des textes de Perutz rappelle que le fantastique peut jouer même à l’intérieur de paramètres rigides avec l’ordre et le chaos, les frontières entre le réel et le rêve. Nous étudierons des œuvres de Leo Perutz et d’Alexander Lernet-Holenia qui ont été publiées entre 1915 et 1937. Les théories qui serviront à appuyer mon travail sont tirées entre autre des études de Tzvetan Todorov et Uwe Durst sur la littérature fantastique et de Gérard Genette sur le narrateur.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Den Schwerpunkt dieser Dissertation bildet zum einen die Entwicklung eines theoretischen Modells zur Beschreibung des Strukturbildungsprozesses in organisch/anorganischen Doppelschichtsystemen und zum anderen die Untersuchung der Übertragbarkeit dieser theoretisch gewonnenen Ergebnisse auf reale Systeme. Hierzu dienen systematische experimentelle Untersuchungen dieses Phänomens an einem Testsystem. Der Bereich der selbstorganisierenden Systeme ist von hohem wissenschaftlichen Interesse, erlaubt er doch die Realisierung von Strukturen, die nicht den Begrenzungen heutiger Techniken unterliegen, wie etwa der Beugung bei lithographischen Verfahren. Darüber hinaus liefert ein vertieftes Verständnis des Strukturbildungsprozesses auch eine Möglichkeit, im Falle entsprechender technischer Anwendungen Instabilitäten innerhalb der Schichtsysteme zu verhindern und somit einer Degradation der Bauteile entgegenzuwirken. Im theoretischen Teil der Arbeit konnte ein Modell im Rahmen der klassischen Elastizitätstheorie entwickelt werden, mit dessen Hilfe sich die Entstehung der Strukturen in Doppelschichtsystemen verstehen läßt. Der hier gefundene funktionale Zusammenhang zwischen der Periode der Strukturen und dem Verhältnis der Schichtdicken von organischer und anorganischer Schicht, wird durch die experimentellen Ergebnisse sehr gut bestätigt. Die Ergebnisse zeigen, daß es technologisch möglich ist, über die Vorgabe der Schichtdicke in einem Materialsystem die Periodizität der entstehenden Strukturen vorzugeben. Darüber hinaus liefert das vorgestellte Modell eine Stabilitätsbedingung für die Schichtsysteme, die es ermöglicht, zu jedem Zeitpunkt die dominierende Mode zu identifizieren. Ein Schwerpunkt der experimentellen Untersuchungen dieser Arbeit liegt auf der Strukturbildung innerhalb der Schichtsysteme. Das Testsystem wurde durch Aufbringen einer organischen Schicht - eines sog. Molekularen Glases - auf ein Glassubstrat realisiert, als Deckschicht diente eine Siliziumnitrid-Schicht. Es wurden Proben mit variierenden Schichtdicken kontrolliert erwärmt. Sobald die Temperatur des Schichtsystems in der Größenordnung der Glasübergangstemperatur des jeweiligen organischen Materials lag, fand spontan eine Strukturbildung auf Grund einer Spannungsrelaxation statt. Es ließen sich durch die Wahl einer entsprechenden Heizquelle unterschiedliche Strukturen realisieren. Bei Verwendung eines gepulsten Lasers, also einer kreisförmigen Wärmequelle, ordneten sich die Strukturen konzentrisch an, wohingegen sich ihre Ausrichtung bei Verwendung einer flächenhaften Heizplatte statistisch verteilte. Auffällig bei allen Strukturen war eine starke Modulation der Oberfläche. Ferner konnte in der Arbeit gezeigt werden, daß sich durch eine gezielte Veränderung der Spannungsverteilung innerhalb der Schichtsysteme die Ausrichtung der Strukturen (gezielt) manipulieren ließen. Unabhängig davon erlaubte die Variation der Schichtdicken die Realisierung von Strukturen mit einer Periodizität im Bereich von einigen µm bis hinunter zu etwa 200 nm. Die Kontrolle über die Ausrichtung und die Periodizität ist Grundvoraussetzung für eine zukünftige technologische Nutzung des Effektes zur kontrollierten Herstellung von Mikro- bzw. Nanostrukturen. Darüber hinaus konnte ein zunächst von der Strukturbildung unabhängiges Konzept eines aktiven Sensors für die optische Raster-Nahfeld-Mikroskopie vorgestellt werden, das das oben beschriebene System, bestehend aus einem fluoreszierenden Molekularen Glas und einer Siliziumnitrid-Deckschicht, verwendet. Erste theoretische und experimentelle Ergebnisse zeigen das technologische Potential dieses Sensortyps.
Gemeinsam selbständig. Eine Analyse kooperativen Handelns bei partnerschaftlichen Existenzgründungen
Resumo:
Im Zentrum der empirischen Arbeit steht einerseits eine besondere Form der Unternehmensgründung, andererseits eine besondere Form der Kooperation: die partnerschaftliche Existenzgründung. Das Forschungsvorhaben geht dem Ziel nach, Kooperationsprozesse in solchen unternehmerischen Partnerschaften zu explorieren. Um letztendlich eine praktisch nutzbare Grundlage für Maßnahmen zur Förderung beruflicher Selbständigkeit zu gewinnen, werden Merkmale und Rahmenbedingungen erfolgreicher partnerschaftlicher Existenzgründungen aufgezeigt. Die Empirie stützt sich auf qualitative Interviews mit Personen, die erfolgreich im Team ein Unternehmen gegründet haben und führen. In einem ersten Schritt werden anhand der Interviews konkrete alltägliche Kooperationsprozesse präzise beschrieben. Darauf aufbauend zeichnen tiefer gehende qualitative Analysen Entwicklungen auf einer abstrakteren Handlungsebene nach. Das Spektrum der Betrachtung umfasst neben individuellen Entwicklungen der Unternehmensgründer auch Prozesse auf der Teamebene sowie auf unternehmerischer Ebene. Zur Exploration der Handlungsprozesse werden die eigenen Ergebnisse durch ausgewählte theoretische Ansätze aus Kognitions- und Sozialpsychologie, aus soziologischer Handlungstheorie und Betriebswirtschaftslehre bereichert. Als relevant auf individueller Ebene erweisen sich insbesondere Prozesse der Identitätsentwicklung hin zu einer unternehmerisch-partnerschaftlichen Identität. Auf der Teamebene sind die Bewahrung und Überwindung von Eigensinn in der Interaktion sowie der Aufbau einer vertrauensvollen Beziehung zentral. Auf Unternehmensebene schließlich spielen Prozesse der Sinnfindung zwischen individuellen Erwerbsentwürfen und ökonomischen Strukturen, die Entstehung von Ordnung sowie Problemlösungsprozesse eine entscheidende Rolle. Insgesamt wird deutlich, dass der Weg in eine partnerschaftliche Selbständigkeit ein vielschichtiger Lernprozess ist, der aus der Praxis heraus entsteht, im Wesentlichen von den Gründern selbst organisiert und von gemeinsamen Reflexionen getragen wird. Diese Erkenntnisse stellen erste Ansatzpunkte dar zur Förderung beruflicher Selbständigkeit in Hochschule und im beruflichen Bildungswesen.
Resumo:
Die Privatisierung im Hochschulwesen ist eine neue internationale Tendenz, die in der Welt in den letzten 25 Jahren zu umfangreichen wissenschaftlichen Diskussionen zwischen den Experten dieses Gebietes geführt hat. Die private Hochschulbildung erstreckt sich über ein großes Feld der verschiedenen Studiengänge. Ihre Ziele und Aufgaben sowie ihre Bedeutung unterscheiden sich von Staat zu Staat. Ebenso ist die private Hochschulbildung unterschiedlich aufgebaut hinsichtlich ihrer Größe, Finanzierung usw. Die Errichtung einiger privater Hochschulen in Ägypten beeinflusste ebenfalls die wissenschaftliche Diskussion zwischen den Experten bis heute. Um die ägyptische Erfahrung in diesem Gebiet beurteilen zu können, wurde die deutsche Situation vergleichend betrachtet. Das Ziel der Dissertation ist die Beschreibung und Analyse des aktuellen Standes der Entwicklung des privaten Hochschulwesens in Ägypten und in Deutschland, um Ähnlichkeiten und Unterschiede herauszuarbeiten, Nachteile und Vorteile der Entwicklung in beiden Ländern zu bewerten sowie Vorschläge zur Verbesserung der Lage zu machen. Als Untersuchungsmethode wurde die Fallstudie benutzt, dabei wurden jeweils fünf repräsentative Hochschulen ausgewählt. Sie unterschieden sich in den Studienangeboten, der regionalen Lage, der Größe, der Hochschulart, der fachlichen Ausrichtung und dem Gründungsdatum. Das Thema wurde in zwei Teilen behandelt, in einem theoretischen und in einem praktischen Teil. Im theoretischen Teil werden die Geschichte des Hochschulwesens allgemein und seine Entwicklung, Ziele und Aufgaben sowie die gegenwärtige Situation behandelt. In diesem Kontext werden auch die Bedeutung der privaten Hochschulen, ihre Entstehung und Entwicklung, ihre Ziele und Aufgaben, ihre Finanzierung und ihre gesetzliche Lage untersucht; die ausgewählten privaten Hochschulen werden detailliert beschrieben. Der praktische Teil dieser Untersuchung erfolgte vorwiegend in Form von Befragungen an den ausgewählten privaten Hochschulen. Die wichtigsten behandelten Bereiche der Befragungen waren: - Beziehungen zwischen Staat und Hochschule, - Ziel und Aufgaben der Leistungsbewertung, - Finanzierung, - Auswahl der Studienbewerber, - Lehrkörper, - Lehrpläne und -programme. Ergebnisse: Die privaten Hochschulen in Ägypten konnten bis zum heutigen Tag ihre Ziele hinsichtlich der Lehre und der Forschung nicht erreichen. Aufgrund der häufigen Veränderungen bei den staatlichen Rahmenbedingungen wurde die angestrebte Flexibilität nicht erreicht. Zusätzlich leiden die neugegründeten privaten Hochschulen unter der mangelhaften Finanzierung, da sie sich vorwiegend aus Studiengebühren tragen. Deshalb leisten sie keinen Beitrag für die Gesamtfinanzierung des ägyptischen Hochschulsektors. Eine Ausnahme stellt die Französische Universität in Kairo dar. Die deutschen privaten Hochschulen haben ihre Ziele hinsichtlich der Lehre und der Forschung zu einem großen Anteil erreicht. Dies erfolgte vor allem durch eine größere Flexibilität, eine bessere finanzielle Ausstattung sowie zusätzliche unterschiedliche Quellen der Finanzierung. Der Beitrag einiger privater Hochschulen an der Gesamtfinanzierung des deutschen Hochschulwesens ist groß. Generell beruht die Qualität des privaten Hochschulwesens auf der Bildungsphilosophie sowie der allgemeinen Politik des Staates und darauf, wie weit den Anforderungen der Gesellschaft entsprochen wird und ob ein Beitrag zu Entwicklung des Hochschulwesens geleistet wird. Weiterhin ist deren Erfolg von einer ausreichenden Finanzierung abhängig.
Resumo:
Aufgrund der breiten aktuellen Verwendung des Mythen-Begriffs in Kunst und Werbung, aber darüber hinaus auch in nahezu allen Bereichen gesellschaftlichen Lebens und vor allem in der Philosophie ergibt sich die Notwendigkeit, einen erweiterten Mythos-Begriff über das Historisch-Authentische hinaus zu verfolgen. Ausgehend von einer strukturalen Annäherung an den Mythos-Begriff im Sinne des von Roland Barthes vorgeschlagenen sekundären semiologischen Systems, d.h. einer semiologischen Sinnverschiebung zur Schaffung einer neuen – mythischen – Bedeutung, fordert diese neue Bedeutung eine Analyse, eine Mythenanalyse heraus. Dies ist deshalb so entscheidend, weil eben diese neue Bedeutung ihr mythisches Profil im Sinne von Hans Blumenberg durch forcierte Bedeutsamkeit für Individuen oder für bestimmte gesellschaftliche Gruppierungen unterlegt, z.B. durch bewusst intensive Wiederholung eines Themas oder durch unerwartete Koinzidenzen von Ereignissen oder durch Steigerung bzw. Depotenzierung von Fakten. Der erweiterte Mythen-Begriff verlangt nach einer Strukturierung und führt dabei zu unterschiedlichen Mythen-Ansätzen: zum Ursprungsstoff des authentischen Mythos und darauf basierender Geisteslage, zum Erkennen eines reflektierten Mythos, wenn es um das Verhältnis Mythos/Aufklärung geht, zum Zeitgeist-Mythos mit seinen umfangreichen Ausprägungen ideologischer, affirmativer und kritischer Art oder zu Alltagsmythen, die sich auf Persönlichkeitskulte und Sachverherrlichungen beziehen. Gerade der letztere Typus ist das Terrain der Werbung, die über den Gebrauchswert eines Produktes hinaus Wert steigernde Tauschwerte durch symbolische Zusatzattribute erarbeiten möchte. Hierbei können Markenmythen unterschiedlichster Prägung entstehen, denen wir täglich im Fernsehen oder im Supermarkt begegnen. Die Manifestation des Mythos in der Kunst ist einerseits eine unendliche Transformationsgeschichte mythischer Substanzen und andererseits ein überhöhender Bezug auf Zeitgeisterscheinungen, etwa bei dem Mythos des Künstlers selbst oder der durch ihn vorgenommenen „Verklärung des Gewöhnlichen“. Die Transformationsprozesse können u.a . prototypisch an zwei Beispielketten erläutert werden, die für den Kunst/Werbung-Komplex besonders interessant sind, weil ihr Charakter sich in einem Fall für die Werbung als äußerst Erfolg versprechend erwiesen hat und weil sich im zweiten Fall geradezu das Gegenteil abzeichnet: Zum einen ist es die Mythengestalt der Nymphe, jene jugendliche, erotisch-verführerische Frauengestalt, die über ihre antiken Wurzeln als Sinnbild der Lebensfreude und Fruchtbarkeit hinaus in und nach der Renaissance ihre Eignung als Verbildlichung der Wiederzulassung des Weiblichen in der Kunst beweist und schließlich der Instrumen-talisierung der Werbung dient. Im anderen Fall ist es die Geschichte der Medusa, die man idealtypisch als die andere Seite der Nympha bezeichnen kann. Hier hat Kunst Auf-klärungsarbeit geleistet, vor allem durch die Verschiebung des medusischen Schreckens von ihr weg zu einer allgemein-medusischen Realität, deren neue Träger nicht nur den Schrecken, sondern zugleich ihre Beteiligung an der Schaffung dieses Schreckens auf sich nehmen. Mythosanalyse ist erforderlich, um die Stellungnahmen der Künstler über alle Epochen hinweg und dabei vor allem diese Transformationsprozesse zu erkennen und im Sinne von Ent- oder Remythologisierung einzuordnen. Die hierarchische Zuordnung der dabei erkannten Bedeutungen kann zu einem Grundbestandteil einer praktischen Philosophie werden, wenn sie einen Diskurs durchläuft, der sich an Jürgen Habermas’ Aspekt der Richtigkeit für kommunikatives Handeln unter dem Gesichtspunkt der Toleranz orientiert. Dabei ist nicht nur zu beachten, dass eine verstärkte Mythenbildung in der Kunst zu einem erweiterten Mythen-begriff und damit zu dem erweiterten, heute dominierenden Kunstbegriff postmoderner Prägung geführt hat, sondern dass innerhalb des aktuellen Mythenpakets sich die Darstellungen von Zeitgeist- und Alltagsmythen zu Lasten des authentischen und des reflektierten Mythos entwickelt haben, wobei zusätzlich werbliche Markenmythen ihre Entstehung auf Verfahrensvorbildern der Kunst basieren. Die ökonomische Rationalität der aktuellen Gesellschaft hat die Mythenbildung keines-wegs abgebaut, sie hat sie im Gegenteil gefördert. Der neuerliche Mythenbedarf wurde stimuliert durch die Sinnentleerung der zweckrationalisierten Welt, die Ersatzbedarf anmeldete. Ihre Ordnungsprinzipien durchdringen nicht nur ihre Paradedisziplin, die Ökonomie, sondern Politik und Staat, Wissenschaft und Kunst. Das Umschlagen der Aufklärung wird nur zu vermeiden sein, wenn wir uns Schritt für Schritt durch Mythenanalyse unserer Unmündigkeit entledigen.
Resumo:
Die Dissertation beschäftigt sich mit der komparativen Analyse der deutschen und französischen Innovationssysteme. Ausgehend von der evolutorisch-orientierten Innovationsforschung und der Institutionenökonomik werden die Akteure und deren Interaktionen in den jeweiligen institutionellen Rahmenbedingungen in beiden Innovationssystemen untersucht. Die Arbeit beleuchtet dieses Thema aus verschiedenen Perspektiven und zeichnet sich durch ein breites Methodenspektrum aus. Die Grenzen und Defizite des linearen Innovationsmodells werden aufgezeigt und für ein systemisches, interaktives Verständnis der Entstehung von Innovationen plädiert. Dieses interaktive Modell wird auf die Ebene des nationalen Innovationssystems transponiert, und damit wird der konzeptionelle Rahmen für die weitere Analyse geschaffen. Für die Gestaltung der Innovationssysteme wird die Bedeutung der institutionellen Konfigurationen betont, die von den Innovationsakteuren gewählt werden. Hierfür werden jeweils die Fallbeispiele Frankreich und Deutschland ausführlich untersucht und nach der gleichen Systematik empirisch betrachtet und schließlich werden beide Innovationssysteme systematisch verglichen. Dabei wird auch auf die Pfadabhängigkeiten in beiden Innovationssystemen eingegangen, sowie auf die Notwendigkeit der Berücksichtigung kultureller und historischer Eigenarten der verglichenen Länder. Expertengespräche mit deutschen und französischen Experten, ergänzen die zuvor erzielten Ergebnisse der Arbeit: Durch eine interdisziplinäre Herangehensweise werden politikwissenschaftliche und ökonomische Ansätze miteinander verknüpft, sowie kulturelle Eigenarten berücksichtigt, die Innovationssysteme beeinflussen können. In seinen Schlussfolgerungen kommt der Verfasser zu dem Ergebnis, dass „lernende Politik“ über institutionellen Wandel und Wissenstransfer ein wichtiger Faktor bei der Gestaltung hybrider Institutionen und der staatlichen Innovationspolitik von der „Missions- zur Diffusionsorientierung“ hin ist. Die Betrachtung zweier nationaler Systeme sowie deren Einbindung in internationale Kontexte führt zum Ergebnis, dass die Steuerung der Schnittstelle „Forschung-Industrie“, insbesondere die Rolle der Universitäten und Forschungseinrichtungen in heterogenen Kooperationspartnerschaften, über neue forschungs-und technologiepolitische Instrumente über transnationales Lernen von Institutionen geschehen kann. Dieser institutionelle Wandel wird als Lernprozess betrachtet, der im Übergang zur wissensbasierten Wirtschaft als “comparative institutional advantage“ ein wichtiger Faktor bei der Gestaltung der Institutionen und der staatlichen Technologiepolitik ist.
Resumo:
In der Arbeit wird ein Ansatz für die destabilisierende Wirkung von adaptiven Hedge-Fonds Aktivitäten diskutiert und mit einer konkreten Implementation für den USD-JPY Carry Trade illustriert. Die sich dabei entwickelnde Marktdynamik wird systemtheoretisch durch den Prozess einer kollektiven Selbstorganisation erklärt. Die Neuerung des vorgestellten Ansatzes liegt darin, dass durch die Kombination von Fallstudien-/Simulations- und systemtheoretischer Methodik ein besserer Zugang zur Erklärung der Entstehung exzessiver Preisentwicklungen in Währungsmärkten gefunden werden konnte, als bisher mit traditionellen Ansätzen möglich war. In der Dissertation wird gezeigt, dass Hedge-Fonds nicht die alleinige Schuld für das Entstehen von Finanzmarktinstabilitäten trifft.
Resumo:
Der Endocytoseweg in Dictyostelium verläuft über definierte endosomale Reifestadien. Dabei werden die reifenden Endosomen im letzten Stadium durch eine Schicht aus filamentösem Aktin umhüllt. Über die biologische Funktion dieser Aktin-Hülle ist derzeit wenig bekannt. Zum weiteren Erkenntnisgewinn sollten daher unterschiedliche Aktin-interagierende Proteine an die endosomale Aktin-Hülle dirigiert und die sich daraus ergebenden Folgen untersucht werden. Dabei wurde der in Drengk et al., 2003 beschriebene Ansatz aufgegriffen, in dem Proteine durch die Fusion an Vacuolin an die späte endosomale Membran transportiert wurden. Die endosomale Lokalisation von DAip1 bewirkte den vollständigen Verlust der endosomalen Aktin-Hülle, ohne dabei das restliche zelluläre Cytoskelett zu beeinträchtigen. Dabei wird die Depolymerisation vermutlich über die nachgewiesene Interaktion von DAip1 mit dem Aktin-depolymerisierenden Protein Cofilin bewirkt. Einhergehend damit trat eine Aggregation der betroffenen Kompartimente, eine Verzögerung des endocytotischen Transits, sowie eine verstärkte Retention lysosomaler Enzyme auf. Diese Ergebnisse ließen auf eine Funktion der endosomalen Aktin-Hülle als Fusionsinhibitor oder in der Regulation von Recycling-Prozessen an späten Endosomen schließen. Die Verlängerung der endosomalen Verweilzeit des den Arp2/3-Komplex negativ regulierenden Proteins Coronin bewirkte dagegen keine offensichtlichen Veränderungen in den betroffenen Zellen. Diese Beoachtung könnte ein Indiz dafür sein, dass nach der Ausbildung der Aktin-Hülle keine weiteren essentiellen Arp2/3-abhängigen mehr an der endosomalen Membran auftreten. Die endosomale Lokalisation des Aktin-Crosslinkers ABP34 induzierte ebenfalls keine Abweichungen vom Wildtyp-Verhalten. Hierbei besteht allerdings die Möglichkeit, dass die Aktivität des Proteins durch die bereits zuvor beschriebene Calcium-Sensitivität beeintächtigt vorliegt. Eine Verstärkung der endosomalen Hülle konnte trotz der Verwendung unterschiedlicher Ansätze nicht hervorgerufen werden. Offensichtlich wirkt die zusätzliche Expression zentraler Regulatoren der Aktin-Polymerisation in der Zelle cytotoxisch. Die Bindung von VASP an die endosomale Membran bewirkte in den Zellen die Ausbildung voluminöser, cytoplasmatischer „Aktin-Bälle“. Diese riefen in den betroffenen Zellen Defekte in unterschiedlichen Aktin-abhängigen Prozessen, wie der Phago- und Pinocytose, sowie der Cytokinese hervor. Dabei gehen die beobachteten Veränderungen vermutlich auf die nachgewiesene Störung im Gleichgewicht zwischen G- und F-Aktin zurück. Obwohl die Aktin-Bälle an der endosomalen Membran entstehen, weisen sie nach vollendeter Entstehung keine inneren oder äußeren Membranen mehr auf und nehmen nicht mehr aktiv am endocytotischen Geschehen teil. Die nähere Charakterisierung offenbarte große Ähnlichkeit zu den mit unterschiedlichen neurodegenerativen Erkrankungen assoziierten Hirano-Bodies. Über das beobachtbare Lokalisationsverhalten der unterschiedlichen im ersten Teil der Arbeit eingesetzten Vacuolin-Hybridproteine ließ sich die Stärke der Lokalisationsinformationen der fusionierten Aktin-interagierenden Proteine miteinander vergleichen. Dies wurde verwendet, um die einzelnen Proteine gemäß ihres Targeting-Potenzials hierarchisch anzuordnen. Im zweiten Teil der Arbeit wurden dieser Hierarchie die beiden cytoplasmatischen Targeting-Signale für Peroxisomen (PTS1) und den Zellkern (SV40-NLS) hinzugefügt. Der vorgenommene Vergleich dieser in vivo gewonnen Daten aus Dictyostelium mit unterschiedlichen in vitro-Bindungsstudien mit homologen Proteinen anderer Organismen zeigte eine erstaunlich gute Übereinstimmung. Diese Beobachtung lässt auf vergleichbare Targeting-Affinitäten innerhalb der Eukaryoten schließen und belegt, dass die zelluläre Lokalisation eines Proteins relativ sicher anhand der in ihm vorhandenen Bindungs-Affinitäten vorhergesagt werden kann. Durch die Kombination der in vivo- und in vitro-Daten war es auch ohne Kenntnis des Oligomerisierungsgrades und des Interaktionspartners erstmals möglich, die Bindungsstärke von Vacuolin an der endosomalen Membran auf einen definierten Bereich einzugrenzen.
Resumo:
Im Mittelpunkt der Arbeit steht die Entwicklung eines Konzeptes einer psychoanalytischen Prävention zur Verhinderung von psychischen und psychosomatischen Erkrankungen bei Kindern im Alter von 0-3 Jahre unter Einbeziehung ihrer Eltern. Dieses soll nicht lediglich die Entstehung von Symptomen bei Kindern in statu nascendi verhindern, sondern darüber hinausgehend der Entfaltung einer stabilen altersgemäßen Persönlichkeit im Rahmen einer adäquaten, kindlichen, psychischen und körperlichen Entwicklung dienen. Ohne mögliche genetische Kofaktoren in Abrede zu stellen, werden in dieser Arbeit die schon in der Säuglingszeit beginnenden, sozialen und familiendynamischen Entwicklungsbedingungen von Kindern als die entscheidenden Variablen in den Überlegungen zur Psychopathologie angesehen, die auch in der Entwicklung des Gehirns über die daraus resultierenden frühen Bindungserfahrungen mit den Eltern eine entscheidende Rolle spielen. So können die Wurzeln von später verdrängten kindlichen Konflikten mit den Wünschen nach einem emotionalen Austausch in Bezug auf Ohnmachtserlebnisse bis in die früheste Kindheit hinein reichen und später u.a. zu Symptomen von Unaufmerksamkeit und Bewegungsunruhe führen. In der vorliegenden Arbeit werden psychoanalytisch reflektierte Interviews als hypothesengenerierendes Forschungsinstrument angewandt, mit dem sich das in der Übertragung und Gegenübertragung vermittelnde, individuelle, zugrunde liegende, innere Erleben erschließen lässt. Die dabei generierten Hypothesen werden durch Evidenzerlebnisse und Erweiterungen der Handlungsspielräume der Betroffenen bestätigt oder verworfen. Anhand einer nach intrafamiliären Kommunikationsstörungen, sozialen Status, psychischer und körperlicher Komorbidität und Alter ausgewählten Anzahl von fünf Einzelfalldarstellungen von beteiligten Familien wird ein Einblick in die auf die inner familiären Konfliktkonstellationen ausgerichteten Interventionstechniken ermöglicht. Unter Berücksichtigung der Abwehrstruktur der beteiligten Personen und einer auf einem emotionalen Verstehen basierenden Begleitung kommen dabei Interventionen, Konfrontationen, Deutungen und gelegentlich auch Beratungen zur Anwendung. Bei allen Familien konnte durch neue Beziehungserfahrungen zunächst in den Sitzungen und danach auch außerhalb eine Symptom- und Konfliktreduzierung bzw. -auflösung bei den Kindern und einigen der Erwachsenen erreicht werden. Zwei Erwachsene begannen eine eigene Psychotherapie, um u.a. ihre emotionalen Handlungsspielräume ihren Kindern gegenüber zu erweitern. Die Replizierbarkeit der Ergebnisse der Studie müssen der Langzeituntersuchung an ausreichend großen und differenzierten Stichproben vorbehalten bleiben.
Resumo:
Die Erforschung der Biologie maligner Tumoren beschränkte sich über lange Zeit auf die Suche nach genetischen Veränderungen. Dies hat sich in den letzten Jahren grundlegend geändert, da sich aus dem Wissen um die molekularen Veränderungen in den frühesten histomorphologisch erkennbaren Vorläuferläsionen neue Möglichkeiten zur Früherkennung und Prävention maligner Tumoren ergeben. Darüber hinaus gewinnen Aspekte zur Aufklärung des Krebs- und Progressionsrisikos zunehmend an Bedeutung. Voraussetzung für die Beantwortung dieser medizinischen und tumorbiologischen Fragestellungen war die Etablierung zielgerichteter molekularbiologischer und zytogenetischer Untersuchungsverfahren, die sich auch an Gewebeproben mit geringer Zellzahl, vor allem aus formalinfixierten, in Paraffin eingebetteten Geweben durchführen lassen. Dabei sollten, wenn möglich zeitgleich, multiple Gene in ein und derselben Zellprobe analysierbar sein. Da die individuelle Mutationsbeladung (mutation load) einzelner morphologisch gesunder Gewebe, als Ausdruck eines möglicherweise erhöhten Krebsrisikos, zumeist nur an Einzelzellen bestimmt werden kann, waren hier zur Untersuchung einzelner Gene weitergehend optimierte molekulargenetische Untersuchungstechniken erforderlich. In vorliegender sollten neue Biomarker mittels der DNA-Mikroarray-Technik identifiziert werden, die für eine Aussage über den Krankheitsverlauf verwendet werden können. Dabei wurden Expressionsprofile von normaler Kolonschleimhaut mit Schleimhaut von Kolonkarzinom Patienten verglichen. An diesem Beispiel sollte ferner geprüft werden, in wie weit sich formalin-fixiertes Gewebe (FFPE-Gewebe) derselben Patienten zur Expressionsdiagnostik eignen, um eventuelle retrospektive Studien durchführen zu können. Des Weiteren wurden, ebenfalls mittels DNA-Mikroarray-Technik, Gen-Expressionsprofile am Beispiel des Prostatakarzinoms erstellt, um einen Hinweis auf die Entstehung der Hormon-Therapieresistenz im Verlauf dieser Erkrankung zu erhalten. Es sollte geklärt werden, ob es z.B. Hinweise auf irreguläre Stoffwechselprozesse gibt, chromosomale Translokationsprozesse bzw. differenziell regulierte Gencluster, die einen Hinweis auf die Therapieresistenz liefern könnten. Ferner sollte methodisch analysiert werden, ob die Art der Gewebegewinnung, d.h. transurethrale Resektion im Vergleich zur chirurgischen Totalresektion der Prostata, vergleichbare Gen-Expressionsdaten liefert.
Resumo:
Gegenüber anderen sensorischen Systemen wie z. B. optischer oder akustischer Wahrnehmung wurde der olfaktorische Sinn der Anuren von wissenschaftlicher Seite her in der Vergangenheit eher vernachlässigt. Dementsprechend gering sind auch die Erkenntnisse bezüglich der biologischen Bedeutung von Gerüchen für die Froschlurche sowie das Verständnis der damit verbundenen physiologischen Abläufe. Wie die meisten Tetrapoden besitzen auch Anuren ein mehrteiliges Geruchsorgan, welches im Wesentlichen aus dem klassischen olfaktorischen sowie dem vomeronasalen System besteht. Das klassische olfaktorische Organ nimmt bekanntermaßen flüchtige Geruchsstoffe aus der Atemluft wahr. Über die Aufgaben des Vomeronasalorgans - auch Jacobsonsches Organ genannt - herrscht allgemein noch Uneinigkeit. Es ist bekannt, dass dieses flüssigkeitsgefüllte Organ bei verschiedenen Gruppen der Landwirbeltiere durch die Wahrnehmung von Pheromonen sowohl an der sozialen Interaktion beteiligt ist, als auch auf andere olfaktorische Stimuli wie z. B. Futtergeruch reagiert. Verschiedene Untersuchungen am Vomeronasalorgan der Säuger konnten zeigen, dass bei diesen Tieren ein intranasales Pumpsystem existiert, welches Geruchsstoffe und Flüssigkeit innerhalb der Nase bewegt und so das blindsackförmige Organ mit Geruchsinformationen versorgt. Im Rahmen der vorliegenden Untersuchung wurde auf der Basis einer breit angelegten anatomischen Studie der nasalen Strukturen unterschiedlicher Anuren der Versuch einer tiefergehenden Funktionsanalyse der olfaktorischen Organe vorgenommen. Dabei wurden die nasalen Baupläne aller wichtigen systematischen Gruppen der anuren Amphibien verglichen. Zur Unterstützung der histologischen Daten wurde ein digitales dreidimensionales Modell der Nasenhöhlen erstellt, sowie Vitalfärbungen mit einem fluoreszierenden Farbstoff durchgeführt. Die anatomischen Befunde der Untersuchung liefern deutliche Hinweise darauf, dass Anuren - ähnlich wie Säuger - einen vasomotorischen Pumpmechanismus zur Befüllung des Vomeronasalorgans besitzen. Des Weiteren wurden basierend auf den hier gewonnenen Daten Theorien zu unterschiedlichen Details des intranasalen Transports sowie der Aufnahme olfaktorischer Stimuli bei Anura aufgestellt. Die Untersuchung macht außerdem deutlich, dass bei Anuren vier voneinander unabhängige olfaktorische Systeme existieren. Darüber hinaus werden anhand der gewonnenen Erkenntnisse einige Aspekte phylogenetischer Zusammenhänge bezüglich der Entstehung der verschiedenen Geruchssysteme innerhalb der Vertebraten neu diskutiert.