602 resultados para ansatz


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Nutzung des Like-Buttons wurde bisher nur oberflächlich und vor allem auf den US-Raum begrenzt erforscht. Dabei lag der Fokus ausschließlich auf wirtschaftlich orientierten Unternehmen und dem monetären Wert, den ein Fan für dieses hat. In der vorliegenden Untersuchung wird eine erweiterte Perspektive gewählt. Aus Sicht deutschsprachiger Nutzer wird erforscht, welche Motive und Bedürfnisse eine Person dazu veranlassen, sich freiwillig per Gefällt-mir zu verknüpfen. Hierzu wird der Uses and Gratifications-Ansatz herangezogen. Es stehen nicht Unternehmen, sondern generell alle Formen von Organisationen im Fokus. Gleichzeitig wird untersucht, wie diese Beziehungen verlaufen: Welche Erwartungen stellen Fans? Welche Handlungen nehmen sie wie häufig vor und welchen Effekt hat eine Fanbeziehung auf die Einstellung eines Nutzers gegenüber einer Organisation? Die Motive hinter der Nutzung des Gefällt mir-Buttons sind umfangreicher, als es bisherige Forschung vermuten ließ. Fans wollen informiert werden, sie wollen ihr Gefallen schnell und einfach bekunden und sich durch die Verknüpfung selbst darstellen. Weniger wichtig, aber dennoch von Relevanz sind die Motive der Partizipation und Unterstützung, der Empfehlung, der Vorteilssuche, der Unterhaltung sowie der Netzwerkerweiterung und Gruppenzugehörigkeit. Die Verwendung des Like-Buttons dient somit der Befriedigung einer ganzen Reihe von Nutzungsbedürfnissen. Der Verlauf der Beziehungen zwischen Organisationen und Usern ist eher von Passivität geprägt. Fans wollen zwar informiert werden und stellen konkrete Ansprüche an die Art und Form von Organisationsmeldungen, sie wollen aber nur selten wirklich direkt mit einem Unternehmen, einem Verein o.ä. interagieren. Langweilen die Meldungen einer Organisation, werden zu viele oder nicht relevante Informationen an die Fans weitergeben, zögern diese nicht, eine Verknüpfung zu beenden. Ein Effekt der Fanschaft auf die Einstellung von Nutzern gegenüber der jeweiligen Organisation konnte nur bedingt festgestellt werden. Letztere zieht einen Gewinn nicht aus einer erhöhten Ausgabebereitschaft seiner Fans, sondern aus deren stärkerer Aufmerksamkeit gegenüber Organisationsmeldungen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden die Grundlagen zur Bestimmung des Kostenverlaufs einzelner ausgewählter Molkereibetriebsabteilungen bei unterschiedlichen Kapazitätsgrößen und -auslastungen bestimmt. Den Produkten (Abteilungen) werden die mengenproportionalen Produkteinzelkosten zugerechnet sowie die Gemeinkosten der Abteilung, die sich aus jahresfixen, tagesfixen und chargenfixen Kosten zusammensetzen. Für Energie werden lediglich mengenproportionale Kosten in Ansatz gebracht. Die sonstigen Kosten der Hilfskostenstellen werden grundsätzlich nicht auf die Produkte bzw. Abteilungen umgelegt; sie werden im letzten Teil dieser Veröffentlichungsreihe behandelt. Die objektive Vergleichbarkeit der Kosten kann so gewährleistet werden. Ein wichtiger Bestandteil dieser Arbeit war die Entwicklung eines für alle Abteilungen brauchbaren Simulationsmodells, das für den Einsatz in der EDV konzipiert wurde. Neben der Berechnung der anfallenden Kosten bei unterschiedlichen Anlagengrößen sind bei dem Computermodell beliebige Variationen der folgenden Faktoren möglich. Dadurch können die Auswirkungen eines veränderten Beschäftigungsgrades bzw. einer anderen Kapazitätsauslastung auf die Stückkosten der einzelnen Produkte ermittelt werden. Es ist vorgesehen, die Daten über Jahre hinaus auf dem neuesten Stand zu halten und zu veröffentlichen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dem vorliegenden Teil 1 der Arbeit werden die Grundlagen und die Rohstoffmengenrechnung zur Ermittlung der Modellkosten in der Abteilung Weichkäserei dargestellt. In sechs Unterabteilungen - Vorstapelung, Bruchbereitung und Portionierung, Umhorden/Salzen, Reifung, Abpackung, Fertiglager - werden aus der Produktgruppe Weichkäse die Sorten Camembert 30 und 60 % F.i.Tr. sowie Brie 45 % F.i.Tr. mit unterschiedlichen Stückgewichten hergestellt und diese hinsichtlich ihrer Kostenverursachung untersucht. Zur Kalkulation der Modellkosten werden 4 Modelle gebildet, deren Verarbeitungskapazität an Kesselmilch zwischen 8.000 und 30.000 l/h liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 % und 100 % simuliert wurde, können so Kosten für Käsemengen zwischen rd. 700 und 17.0001 Käse/Jahr bestimmt werden. Da der Rohstoff Milch im kostenrechnerischen Ansatz als der wichtigste Kostenfaktor gilt, wird der verursachungsgerechten Rohstoffverbrauchsbestimmung in diesem Teil ein gesondertes Kapitel gewidmet. Die Arbeit wird mit dem Teil 2 ''Modellspezifischer Faktoreinsatz'' fortgesetzt, dem abschließend der Teil 3 "Ergebnisse und Interpretation der Modellkalkulation" folgt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mit der Analyse des Kostenverlaufes in der Abteilung „Milchtrocknung“ wird die Aktualisierung der Modellabteilungsrechnung fortgeführt. In fünf Unterabteilungen - Vorstapelung, Eindampfung, Trocknung, Absackung und Lager - wird verursachungsgerecht untersucht, welche Kosten bei der Herstellung von Sprühmagermilchpulver, abgefüllt in 25-kg-Säcken, auf Abteilungsebene entstehen. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung des Verdampfers für Verarbeitungsmengen zwischen 10.800 und 55.000 kg Magermilch/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wird, lassen sich Kosten für Produktionsmengen zwischen 1.000 und 35.300 t Magermilchpulver/Jahr ermitteln. Die in Ansatz gebrachten Investitionen betragen im Modell 1 8,1 Mio. DM, die sich im Modell 3 auf 20,3 Mio. DM erhöhen. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 1.177 DM auf 576 DM/t Magermilchpulver abfallen. Bei einer Beschäftigung von 100 % mit 340 Produktionstagen im Jahr errechnen sich in den Modellkalkulationen modellspezifische Gesamtkosten in Höhe von 371,28 Pf im Modell 1,358,74 Pf im Modell 2 und 351,06 Pf im Modell 3 je kg Magermilchpulver. Kostenanalysen bei einem Beschäftigungsgrad von 80 % mit 280 Produktionstagen im Jahr zeigen, daß die modellspezifischen Gesamtkosten zu 86 % (Modell 1) bis 92 % (Modell 3) von den Rohstoffkosten bestimmt werden. 3 - 6 % entfallen auf die Anlagekosten, 1 - 3 % auf die Personalkosten, und mit 4 % sind die Kosten für Energie und Betriebsstoffe an den modellspezifischen Gesamtkosten beteiligt. Die Verpackungskosten werden in allen Modellen mit einem Anteil von 1 % an den Gesamtkosten ausgewiesen. Unter dem Einfluß von Kapazitätsauslastung und Kapazitätsgröße lassen sich auffallende Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen, Produktionstagen und -Zeiten belegt werden. Die Kostenanalyse zeigt deutlich, daß mit zunehmender Modellgröße und steigender Produktionsmenge erhebliche Stückkostendegressionen zu erzielen sind, wobei der Einfluß des Beschäftigungsgrades auf die Kostendesgression merklich höher ist als derjenige der Modellgröße.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mit der Analyse des Kostenverlaufes in der Abteilung "Speisequark" wird die Aktualisierung der Modellabteilungsrechnungen fortgeführt. In drei Unterabteilungen - Reifungslager, Produktion und Abpackung - werden aus der Produktgruppe Speisequark die drei Produkte Speisequark mager, 500-g-Becher (P1), Speisequark mager, 250-g-Becher (P2) und Speisequark 40 % Fett i. Tr., 250-g-Becher (P3) hergestellt und hinsichtlich ihrer Produktionskosten untersucht. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung des Quarkseparators für Quarkmengen zwischen 1.100 und 4.400 kg Quark/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 28 und 100 % simuliert wird, werden Kosten für Produktionsmengen zwischen 1.600 und 33.100 t Quark/Jahr ermittelt. Die in Ansatz gebrachten Investitionen betragen im Modell 1 4,8 Mio. DM, die sich im Modell 3 auf 7,9 Mio. DM erhöhen. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 768 DM auf 323 DM/t Quark abfallen. Kostenanalysen für einen 2-Schicht-Betrieb an 250 Produktionstagen im Jahr zeigen, daß die modellspezifischen Gesamtkosten z. B. für P1 zu 67 % (Modell 1) bis 78 % (Modell 3) von den Rohstoffkosten bestimmt werden. 14-6 % entfallen auf die Anlagekosten, 11-12 % auf die Verpackungskosten, und mit 6-2 % sind die Personalkosten an den modellspezifischen Gesamtkosten beteiligt. Die Kosten für Energie sowie Hilfs- und Betriebsstoffe werden in allen Modellen nur mit einem Anteil von 1 % an den Gesamtkosten ausgewiesen. Unter dem Einfluß von Kapazitätsauslastung und Kapazitätsgröße lassen sich Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen belegt werden. Die Kostenanalyse macht deutlich, daß mit zunehmender Modellgröße und steigender Produktionsmenge erhebliche Stückkostendegressionen zu erzielen sind, wobei der Einfluß der Modellgröße auf die Kostendegression höher ist als derjenige des Beschäftigungsgrades.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mit der Analyse des Kostenverlaufs in der Abteilung "Joghurt" wird die Aktualisierung der Modellabteilungsrechnung fortgeführt. In drei Unterabteilungen - Joghurtbereitung, Abfüllung, Lager - wird untersucht, welche Kosten bei der Herstellung von Rührjoghurt mit Früchten, abgefüllt in 150-g-Kunststoffbechern, nach ihrer Verursachung auf Abteilungsebene entstehen. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung der Abfülllinie 27.900 und 167.400 Becher/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 20 und 100% simuliert wird, lassen sich Kosten für 138,2 Mio. bis 829,3 Mio. Becher/Jahr ermitteln, die Produktionsmengen von rd. 20.800 t bis 124.700 t Joghurt entsprechen. Die in Ansatz gebrachten Investitionen betragen im Modell 1 12 Mio. DM und erhöhen sich im Modell 3 auf 43,4 Mio. DM. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 87 DM auf 52 DM/1000 Becher abfallen. Bei einer Beschäftigung von 100% mit 250 Produktionstagen im Jahr errechnen sich modellspezifische Gesamtkosten in Höhe von 27,57 Pf im ModelH, 25,66 Pf im Modell 2 und 24,78 Pf im Modell 3 je Becher Fruchtjoghurt. Kostenanalysen bei einem Beschäftigungsgrad von 60% mit 250 Produktionstagen im Jahr zeigen, dass die modellspezifischen Gesamtkosten zu 45% von den Kosten für Hilfs-und Zusatzstoffe bestimmt werden. 22-24% entfallen auf die Verpackungsmaterialkosten, 20-23% auf die Rohstoffkosten, und mit 5-8% sind die Anlagekosten an den modellspezifischen Gesamtkosten beteiligt. Die Kosten für Energie und Betriebsstoffe sowie Personal werden je nach Modellgröße mit einem Anteil von 1-3% an den Gesamtkosten ausgewiesen. Der Kostenanalyse ist zu entnehmen, dass mit zunehmender Modellgröße und steigender Produktionsmenge Stückkostendegressionen zu erzielen sind, wobei der Einfluss des Beschäftigungsgrades auf die Kostendegression höher ist als derjenige der Modellgröße. Unter dem Einfluss von Kapazitätsauslastung und Kapazitätsgröße lassen sich nur im Bereich bis zu 100 Mio. Becher/Jahr starke Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen belegt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit entwickelt einen Ansatz, mit dem Aktienkursreaktionen auf Unternehmensmeldungen untersucht werden können. Die Vorgehensweise entstammt der Forschungsfrage, ob Investoren im Sinne einer Kontrollfunktion des Kapitalmarktes angemessen auf Unternehmensmeldungen reagieren, die auf den Stand einer M&A-Integration hinweisen. Vermutet wird, dass Synergieeffekte vom Management im Vorfeld versprochen werden, um M&A-Transaktionen zu rechtfertigen. Anschließend würdigen bzw. kontrollieren Investoren die Entwicklung der Integration jedoch nicht ausreichend. Dies soll bewiesen werden, indem gezeigt wird, dass Kursreaktionen in Form von bereinigten Tagesrenditen und -volatilitäten, Handelsvolumen und Hoch-Tief-Spannen auf M&A-Meldungen vergleichsweise geringer ausfallen. Um eine Vergleichbarkeit von Unternehmensmeldungen verschiedener Gruppen (M&A, Produkte usw.) herstellen zu können, werden die Handlungsanreize der Meldungen mittels der qualitativen Inhaltsanalyse kategorisiert. Im Rahmen einer exemplarischen Anwendung zeigte sich, dass der Ansatz, dessen Besonderheit in der systematischen Auswahl probater Beobachtungen liegt, nicht für eine praktische Übertragung geeignet ist. Demnach konnte die Vermutung weder verworfen noch bestätigt werden. Theoretisch kann aufgrund der Betrachtung eines einzelnen Ereignistages, an dem neben der zu untersuchenden Meldung keine weiteren Informationen über das Unternehmen veröffentlicht worden sind, ein relativ starker Kausalitätsbezug zwischen Meldung und Reaktion hergestellt werden. Allerdings bestehen immer noch zu viele Störereignisse und Überlagerungseffekte, die eine kritische Validierung der Ergebnisse verhindern.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zusammenfassung: Max Frisch und Friedrich Dürrenmatt, als Dioskuren der Schweizer Literatur zeitlebens aneinandergekettet, haben auf der Suche nach ihrem Selbst immer auch den anderen im Blick. Aus ihrer pointierten, gelegentlich polemischen wechselseitigen Abgrenzung entsteht ein künstlerisch höchst produktiver, impliziter Dialog. Er wird hier erstmals explizit gemacht. Unter den Gesichtspunkten von Polyphonie und Dialogizität wird die Konstruktion und Auflösung des autobiographischen Subjekts untersucht. Diese Fallstudien an einzelnen, repräsentativen Texten der beiden Autoren stellen neue Fragen, die für die gesamte Autobiographiediskussion relevant sind: Bei Dürrenmatts großem ,,Stoffe"-Komplex wird, unter Einbezug der textgenetischen Perspektive, der autobiographische Prozess als das Anprobieren von multiplen Ichs analysiert. Das Problem des Subjekts radikalisiert sich als Problem der Sprache, der "vielen Namen", mit denen sich das Subjekt selbst tauft. Bei Frisch deckt die Studie mit ihrem neuen Ansatz die architektonischen und musikalischen Kompositionsverfahren in "Montauk" und "Holozän" auf, eine Textarchitektur in der Zeit und im Medium der Sprache. Dabei werden bisher unbekannte Entwürfe zu diesen wichtigen Spätwerken Frischs erstmals genutzt und publiziert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper we study the extended Tanh method to obtain some exact solutions of KdV-Burgers equation. The principle of the Tanh method has been explained and then apply to the nonlinear KdV- Burgers evolution equation. A finnite power series in tanh is considered as an ansatz and the symbolic computational system is used to obtain solution of that nonlinear evolution equation. The obtained solutions are all travelling wave solutions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es werde das lineare Regressionsmodell y = X b + e mit den ueblichen Bedingungen betrachtet. Weiter werde angenommen, dass der Parametervektor aus einem Ellipsoid stammt. Ein optimaler Schaetzer fuer den Parametervektor ist durch den Minimax-Schaetzer gegeben. Nach der entscheidungstheoretischen Formulierung des Minimax-Schaetzproblems werden mit dem Bayesschen Ansatz, Spektralen Methoden und der Darstellung von Hoffmann und Laeuter Wege zur Bestimmung des Minimax- Schaetzers dargestellt und in Beziehung gebracht. Eine Betrachtung von Modellen mit drei Einflussgroeßen und gemeinsamen Eigenvektor fuehrt zu einer Strukturierung des Problems nach der Vielfachheit des maximalen Eigenwerts. Die Bestimmung des Minimax-Schaetzers in einem noch nicht geloesten Fall kann auf die Bestimmung einer Nullstelle einer nichtlinearen reellwertigen Funktion gefuehrt werden. Es wird ein Beispiel gefunden, in dem die Nullstelle nicht durch Radikale angegeben werden kann. Durch das Intervallschachtelungs-Prinzip oder Newton-Verfahren ist die numerische Bestimmung der Nullstelle moeglich. Durch Entwicklung einer Fixpunktgleichung aus der Darstellung von Hoffmann und Laeuter war es in einer Simulation moeglich die angestrebten Loesungen zu finden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mikrooptische Filter sind heutzutage in vielen Bereichen in der Telekommunikation unersetzlich. Wichtige Einsatzgebiete sind aber auch spektroskopische Systeme in der Medizin-, Prozess- und Umwelttechnik. Diese Arbeit befasst sich mit der Technologieentwicklung und Herstellung von luftspaltbasierenden, vertikal auf einem Substrat angeordneten, oberflächenmikromechanisch hergestellten Fabry-Perot-Filtern. Es werden zwei verschiedene Filtervarianten, basierend auf zwei verschiedenen Materialsystemen, ausführlich untersucht. Zum einen handelt es sich dabei um die Weiterentwicklung von kontinuierlich mikromechanisch durchstimmbaren InP / Luftspaltfiltern; zum anderen werden neuartige, kostengünstige Siliziumnitrid / Luftspaltfilter wissenschaftlich behandelt. Der Inhalt der Arbeit ist so gegliedert, dass nach einer Einleitung mit Vergleichen zu Arbeiten und Ergebnissen anderer Forschergruppen weltweit, zunächst einige theoretische Grundlagen zur Berechnung der spektralen Reflektivität und Transmission von beliebigen optischen Schichtanordnungen aufgezeigt werden. Auß erdem wird ein kurzer theoretischer Ü berblick zu wichtigen Eigenschaften von Fabry-Perot-Filtern sowie der Möglichkeit einer mikromechanischen Durchstimmbarkeit gegeben. Daran anschließ end folgt ein Kapitel, welches sich den grundlegenden technologischen Aspekten der Herstellung von luftspaltbasierenden Filtern widmet. Es wird ein Zusammenhang zu wichtigen Referenzarbeiten hergestellt, auf denen diverse Weiterentwicklungen dieser Arbeit basieren. Die beiden folgenden Kapitel erläutern dann ausführlich das Design, die Herstellung und die Charakterisierung der beiden oben erwähnten Filtervarianten. Abgesehen von der vorangehenden Epitaxie von InP / GaInAs Schichten, ist die Herstellung der InP / Luftspaltfilter komplett im Institut durchgeführt worden. Die Herstellungsschritte sind ausführlich in der Arbeit erläutert, wobei ein Schwerpunktthema das trockenchemische Ä tzen von InP sowie GaInAs, welches als Opferschichtmaterial für die Herstellung der Luftspalte genutzt wurde, behandelt. Im Verlauf der wissenschaftlichen Arbeit konnten sehr wichtige technische Verbesserungen entwickelt und eingesetzt werden, welche zu einer effizienteren technologischen Herstellung der Filter führten und in der vorliegenden Niederschrift ausführlich dokumentiert sind. Die hergestellten, für einen Einsatz in der optischen Telekommunikation entworfenen, elektrostatisch aktuierbaren Filter sind aus zwei luftspaltbasierenden Braggspiegeln aufgebaut, welche wiederum jeweils 3 InP-Schichten von (je nach Design) 357nm bzw. 367nm Dicke aufweisen. Die Filter bestehen aus im definierten Abstand parallel übereinander angeordneten Membranen, die über Verbindungsbrücken unterschiedlicher Anzahl und Länge an Haltepfosten befestigt sind. Da die mit 357nm bzw. 367nm vergleichsweise sehr dünnen Schichten freitragende Konstrukte mit bis zu 140 nm Länge bilden, aber trotzdem Positionsgenauigkeiten im nm-Bereich einhalten müssen, handelt es sich hierbei um sehr anspruchsvolle mikromechanische Bauelemente. Um den Einfluss der zahlreichen geometrischen Strukturparameter studieren zu können, wurden verschiedene laterale Filterdesigns implementiert. Mit den realisierten Filter konnte ein enorm weiter spektraler Abstimmbereich erzielt werden. Je nach lateralem Design wurden internationale Bestwerte für durchstimmbare Fabry-Perot-Filter von mehr als 140nm erreicht. Die Abstimmung konnte dabei kontinuierlich mit einer angelegten Spannung von nur wenigen Volt durchgeführt werden. Im Vergleich zu früher berichteten Ergebnissen konnten damit sowohl die Wellenlängenabstimmung als auch die dafür benötigte Abstimmungsspannung signifikant verbessert werden. Durch den hohen Brechungsindexkontrast und die geringe Schichtdicke zeigen die Filter ein vorteilhaftes, extrem weites Stopband in der Größ enordnung um 550nm. Die gewählten, sehr kurzen Kavitätslängen ermöglichen einen freien Spektralbereich des Filters welcher ebenfalls in diesen Größ enordnungen liegt, so dass ein weiter spektraler Einsatzbereich ermöglicht wird. Während der Arbeit zeigte sich, dass Verspannungen in den freitragenden InPSchichten die Funktionsweise der mikrooptischen Filter stark beeinflussen bzw. behindern. Insbesondere eine Unterätzung der Haltepfosten und die daraus resultierende Verbiegung der Ecken an denen sich die Verbindungsbrücken befinden, führte zu enormen vertikalen Membranverschiebungen, welche die Filtereigenschaften verändern. Um optimale Ergebnisse zu erreichen, muss eine weitere Verbesserung der Epitaxie erfolgen. Jedoch konnten durch den zusätzlichen Einsatz einer speziellen Schutzmaske die Unterätzung der Haltepfosten und damit starke vertikale Verformungen reduziert werden. Die aus der Verspannung resultierenden Verformungen und die Reaktion einzelner freistehender InP Schichten auf eine angelegte Gleich- oder Wechselspannung wurde detailliert untersucht. Mittels Weisslichtinterferometrie wurden lateral identische Strukturen verglichen, die aus unterschiedlich dicken InP-Schichten (357nm bzw. 1065nm) bestehen. Einen weiteren Hauptteil der Arbeit stellen Siliziumnitrid / Luftspaltfilter dar, welche auf einem neuen, im Rahmen dieser Dissertation entwickelten, technologischen Ansatz basieren. Die Filter bestehen aus zwei Braggspiegeln, die jeweils aus fünf 590nm dicken, freistehenden Siliziumnitridschichten aufgebaut sind und einem Abstand von 390nm untereinander aufweisen. Die Filter wurden auf Glassubstraten hergestellt. Der Herstellungsprozess ist jedoch auch mit vielen anderen Materialien oder Prozessen kompatibel, so dass z.B. eine Integration mit anderen Bauelemente relativ leicht möglich ist. Die Prozesse dieser ebenfalls oberflächenmikromechanisch hergestellten Filter wurden konsequent auf niedrige Herstellungskosten optimiert. Als Opferschichtmaterial wurde hier amorph abgeschiedenes Silizium verwendet. Der Herstellungsprozess beinhaltet die Abscheidung verspannungsoptimierter Schichten (Silizium und Siliziumnitrid) mittels PECVD, die laterale Strukturierung per reaktiven Ionenätzen mit den Gasen SF6 / CHF3 / Ar sowie Fotolack als Maske, die nasschemische Unterätzung der Opferschichten mittels KOH und das Kritisch-Punkt-Trocken der Proben. Die Ergebnisse der optischen Charakterisierung der Filter zeigen eine hohe Ü bereinstimmung zwischen den experimentell ermittelten Daten und den korrespondierenden theoretischen Modellrechnungen. Weisslichtinterferometermessungen der freigeätzten Strukturen zeigen ebene Filterschichten und bestätigen die hohe vertikale Positioniergenauigkeit, die mit diesem technologischen Ansatz erreicht werden kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zur Senkung von Kosten werden in vielen Unternehmen Dienstleistungen, die nicht zur Kernkompetenz gehören, an externe Dienstleister ausgelagert. Dieser Prozess wird auch als Outsourcing bezeichnet. Die dadurch entstehenden Abhängigkeiten zu den externen Dienstleistern werden mit Hilfe von Service Level Agreements (SLAs) vertraglich geregelt. Die Aufgabe des Service Level Managements (SLM) ist es, die Einhaltung der vertraglich fixierten Dienstgüteparameter zu überwachen bzw. sicherzustellen. Für eine automatische Bearbeitung ist daher eine formale Spezifikation von SLAs notwendig. Da der Markt eine Vielzahl von unterschiedlichen SLM-Werkzeugen hervorgebracht hat, entstehen in der Praxis Probleme durch proprietäre SLA-Formate und fehlende Spezifikationsmethoden. Daraus resultiert eine Werkzeugabhängigkeit und eine limitierte Wiederverwendbarkeit bereits spezifizierter SLAs. In der vorliegenden Arbeit wird ein Ansatz für ein plattformunabhängiges Service Level Management entwickelt. Ziel ist eine Vereinheitlichung der Modellierung, so dass unterschiedliche Managementansätze integriert und eine Trennung zwischen Problem- und Technologiedomäne erreicht wird. Zudem wird durch die Plattformunabhängigkeit eine hohe zeitliche Stabilität erstellter Modelle erreicht. Weiteres Ziel der Arbeit ist, die Wiederverwendbarkeit modellierter SLAs zu gewährleisten und eine prozessorientierte Modellierungsmethodik bereitzustellen. Eine automatisierte Etablierung modellierter SLAs ist für eine praktische Nutzung von entscheidender Relevanz. Zur Erreichung dieser Ziele werden die Prinzipien der Model Driven Architecture (MDA) auf die Problemdomäne des Service Level Managements angewandt. Zentrale Idee der Arbeit ist die Definition von SLA-Mustern, die konfigurationsunabhängige Abstraktionen von Service Level Agreements darstellen. Diese SLA-Muster entsprechen dem Plattformunabhängigen Modell (PIM) der MDA. Durch eine geeignete Modelltransformation wird aus einem SLA-Muster eine SLA-Instanz generiert, die alle notwendigen Konfigurationsinformationen beinhaltet und bereits im Format der Zielplattform vorliegt. Eine SLA-Instanz entspricht damit dem Plattformspezifischen Modell (PSM) der MDA. Die Etablierung der SLA-Instanzen und die daraus resultierende Konfiguration des Managementsystems entspricht dem Plattformspezifischen Code (PSC) der MDA. Nach diesem Schritt ist das Managementsystem in der Lage, die im SLA vereinbarten Dienstgüteparameter eigenständig zu überwachen. Im Rahmen der Arbeit wurde eine UML-Erweiterung definiert, die eine Modellierung von SLA-Mustern mit Hilfe eines UML-Werkzeugs ermöglicht. Hierbei kann die Modellierung rein graphisch als auch unter Einbeziehung der Object Constraint Language (OCL) erfolgen. Für die praktische Realisierung des Ansatzes wurde eine Managementarchitektur entwickelt, die im Rahmen eines Prototypen realisiert wurde. Der Gesamtansatz wurde anhand einer Fallstudie evaluiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Von der Idee zum Mythos. Die Rezeption des Bauhaus in beiden Teilen Deutschlands in Zeiten des Neuanfangs (1945 und 1989) Das Bauhaus wird 1919 durch Zusammenlegung der Großherzoglich Sächsischen Kunstgewerbeschule und der Hochschule für Bildende Kunst von Walter Gropius gegründet. Dabei geht es in seinem programmatischen Ansatz weit über seine institutionellen Vorgänger hinaus. Das Bauhaus-Konzept zielt nicht auf die Erschaffung einer zeitgemäßen Formsprache, sondern auf die Veränderung der gesellschaftlichen Wirklichkeit mit den Mitteln der Kunst. Diese Haltung ist eine Reaktion auf die Bewusstseinskrise, die durch den Ersten Weltkrieg ausgelöst worden war: Der zunehmenden Entfremdung von Kunst und Leben soll entgegengewirkt und dabei die versprengten Einzelkünste unter dem Primat der Architektur wieder zusammengeführt werden: Weil sich dieser sozial-moralische Impetus, der gemeinhin mit dem Schlagwort ‚Bauhaus-Idee’ umschrieben wird, äußerst vielschichtig darstellt, lässt er sich in die verschiedensten Kulturkonzepte einpassen. Die Arbeit legt die Bauhaus-Rezeption in Deutschland zu zwei verschiedenen Zeiten vergleichend dar. Im ersten Schritt wird die Ost- mit der Westrezeption verglichen. Dieser synchrone Vergleich wird zu zwei epochalen Umbruchsituationen durchgeführt; zum einen von 1945 bis Mitte der 50er Jahre, zum anderen von 1989 bis Mitte der 90er Jahre. Auf dieser Grundlage wird geprüft, wie sich die östliche als auch die westliche Wahrnehmung des Bauhaus von 1945-1955 gegenüber der Bauhausrezeption nach 1989 abhebt (diachroner Vergleich). Die Jahre 1945-1955 beschreiben die Entwicklung des Auseinanderbrechens der deutschen Nation in zwei autonome deutsche Staaten. Mit dem Jahr 1989 wird die Entwicklung umgekehrt: Deutschland wächst zu einer Kulturnation zusammen. Durch die Periodisierung (1945/1989) wird geklärt, wie das wiedervereinigte Deutschland auf kultureller Ebene mit der Vergangenheit des Kalten Krieges umgeht. Weil sich an der Bauhaus-Pädagogik am ehesten die reale Umsetzung der ‚Bauhaus-Idee’ ablesen lässt, analysiert meine Arbeit die pädagogischen Konzeptionen an deutschen Kunstschulen. Dabei wird in den Institutionsgeschichten der politisch-gesellschaftliche Rahmen stets mitgedacht, der Restituierungsversuche ermöglicht oder scheitern lässt. Im Zentrum meiner Arbeit steht nicht die Analyse der Sache ‚Bauhaus, sondern dessen Missdeutung und Umdeutung in politisch divergenten Zeiten. Für die Zeit 1945-1955 beschreibe ich auf westdeutscher Seite die Hochschule für Gestaltung in Ulm und die Werkakademie bzw. Werkkunstschule in Kassel. Im Osten konzentriert sich der Blick auf die historischen Bauhaus-Stätten: Weimar und Dessau. Nach der Wende vermischen sich die bis dahin getrennten Rezeptionsstränge von Ost und West. In der wiedervereinigten Bundesrepublik existieren neben dem Bauhaus-Archiv nunmehr zwei zusätzliche Institutionen: die Bauhaus-Universität in Weimar und die Stiftung Bauhaus Dessau. Wie wird in dieser historischen Situation das Bauhaus-Erbe aufgeteilt und verwaltet?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Management von Kundenbeziehungen hat sich in der klassischen Ökonomie unter dem Begriff »Customer Relationship Management« (kurz: CRM) etabliert und sich in den letzten Jahren als erfolgreicher Ansatz erwiesen. In der grundlegenden Zielsetzung, wertvolle, d.h. profitable und kreditwürdige Kunden an ein Unternehmen zu binden, kommen Business-Intelligence Technologien zur Generierung von Kundenwissen aus kundenbezogenen Daten zum Einsatz. Als technologische Plattform der Kommunikation und Interaktion gewähren Business Communities einen direkten Einblick in die Gedanken und Präferenzen der Kunden. Von Business-Communitybasiertem Wissen der Kunden und über Kunden können individuelle Kundenbedürfnisse, Verhaltensweisen und damit auch wertvolle (potenzielle, profilgleiche) Kunden abgeleitet werden, was eine differenziertere und selektivere Behandlung der Kunden möglich macht. Business Communities bieten ein umfassendes Datenpotenzial, welches jedoch bis dato für das CRM im Firmenkundengeschäft respektive die Profilbildung noch nicht genutzt wird. Synergiepotenziale von der Datenquelle "Business Community" und der Technologie "Business Intelligence" werden bislang vernachlässigt. An dieser Stelle setzt die Arbeit an. Das Ziel ist die sinnvolle Zusammenführung beider Ansätze zu einem erweiterten Ansatz für das Management der irmenkundenbeziehung. Dazu wird ein BIgestütztes CRM-Konzept für die Generierung, Analyse und Optimierung von Kundenwissen erarbeitet, welches speziell durch den Einsatz einer B2B-Community gewonnen und für eine Profilbildung genutzt wird. Es soll durch die Anbindung von Fremddatenbanken Optimierung finden: In den Prozess der Wissensgenerierung fließen zur Datenqualifizierung und -quantifizierung externe (Kunden-) Daten ein, die von Fremddatenbanken (wie z.B. Information Provider, Wirtschaftsauskunftsdienste) bereitgestellt werden. Der Kern dieser Zielsetzung liegt in der umfassenden Generierung und stetigen Optimierung von Wissen, das den Aufbau einer langfristigen, individuellen und wertvollen Kundenbeziehung unterstützen soll.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die stereoskopische 3-D-Darstellung beruht auf der naturgetreuen Präsentation verschiedener Perspektiven für das rechte und linke Auge. Sie erlangt in der Medizin, der Architektur, im Design sowie bei Computerspielen und im Kino, zukünftig möglicherweise auch im Fernsehen, eine immer größere Bedeutung. 3-D-Displays dienen der zusätzlichen Wiedergabe der räumlichen Tiefe und lassen sich grob in die vier Gruppen Stereoskope und Head-mounted-Displays, Brillensysteme, autostereoskopische Displays sowie echte 3-D-Displays einteilen. Darunter besitzt der autostereoskopische Ansatz ohne Brillen, bei dem N≥2 Perspektiven genutzt werden, ein hohes Potenzial. Die beste Qualität in dieser Gruppe kann mit der Methode der Integral Photography, die sowohl horizontale als auch vertikale Parallaxe kodiert, erreicht werden. Allerdings ist das Verfahren sehr aufwendig und wird deshalb wenig genutzt. Den besten Kompromiss zwischen Leistung und Preis bieten präzise gefertigte Linsenrasterscheiben (LRS), die hinsichtlich Lichtausbeute und optischen Eigenschaften den bereits früher bekannten Barrieremasken überlegen sind. Insbesondere für die ergonomisch günstige Multiperspektiven-3-D-Darstellung wird eine hohe physikalische Monitorauflösung benötigt. Diese ist bei modernen TFT-Displays schon recht hoch. Eine weitere Verbesserung mit dem theoretischen Faktor drei erreicht man durch gezielte Ansteuerung der einzelnen, nebeneinander angeordneten Subpixel in den Farben Rot, Grün und Blau. Ermöglicht wird dies durch die um etwa eine Größenordnung geringere Farbauflösung des menschlichen visuellen Systems im Vergleich zur Helligkeitsauflösung. Somit gelingt die Implementierung einer Subpixel-Filterung, welche entsprechend den physiologischen Gegebenheiten mit dem in Luminanz und Chrominanz trennenden YUV-Farbmodell arbeitet. Weiterhin erweist sich eine Schrägstellung der Linsen im Verhältnis von 1:6 als günstig. Farbstörungen werden minimiert, und die Schärfe der Bilder wird durch eine weniger systematische Vergrößerung der technologisch unvermeidbaren Trennelemente zwischen den Subpixeln erhöht. Der Grad der Schrägstellung ist frei wählbar. In diesem Sinne ist die Filterung als adaptiv an den Neigungswinkel zu verstehen, obwohl dieser Wert für einen konkreten 3-D-Monitor eine Invariante darstellt. Die zu maximierende Zielgröße ist der Parameter Perspektiven-Pixel als Produkt aus Anzahl der Perspektiven N und der effektiven Auflösung pro Perspektive. Der Idealfall einer Verdreifachung wird praktisch nicht erreicht. Messungen mit Hilfe von Testbildern sowie Schrifterkennungstests lieferten einen Wert von knapp über 2. Dies ist trotzdem als eine signifikante Verbesserung der Qualität der 3-D-Darstellung anzusehen. In der Zukunft sind weitere Verbesserungen hinsichtlich der Zielgröße durch Nutzung neuer, feiner als TFT auflösender Technologien wie LCoS oder OLED zu erwarten. Eine Kombination mit der vorgeschlagenen Filtermethode wird natürlich weiterhin möglich und ggf. auch sinnvoll sein.