848 resultados para Anwendung
Resumo:
Die Arbeit beschäftigt sich mit der Frage, wie Bürger an der Inventarisierung historischer Kulturlandschaftselemente mitwirken können und welche Leistungen von ihnen erbracht werden können. Dabei wird der Fokus darauf gerichtet, ob mit einer optimalen organisatorischen und methodischen Herangehensweise ein Inventar historischer Kulturlandschaftselemente erstellt werden kann, das auch den Anforderungen für eine planerische Anwendung genügt. Forschungsschwerpunkte der Arbeit sind entsprechend die Inventarisierung historischer Kulturlandschaftselemente und die Anforderungen an die dabei erstellten Inventare sowie die Möglichkeiten für bürgerschaftliches Engagement bei der Inventarisierung. Darüber hinaus wird der Frage nachgegangen, ob mit dem bürgerschaftlichen Engagement bei der Inventarisierung ein sonstiger Mehrwert verbunden ist. Die Untersuchung wird anhand von Fallstudien durchgeführt. Empirische Grundlage sind acht ausgewählte Beispielprojekte, in denen Bürger an der Inventarisierung historischer Kulturlandschaftselemente mitwirken bzw. diese durchführen. Um einen möglichst großen Erfahrungspool zu erschließen wurden Fallbeispiele gewählt, die sich u. a. hinsichtlich der Rahmenbedingungen, der Organisationsstrukturen, dem Maß und der Art der Mitwirkung von Bürgern unterscheiden. Die detaillierte Analyse dieser Projekte und die Evaluierung der in ihrem Rahmen erstellten Inventare ist Hauptgegenstand dieser Arbeit und eine Grundlage für die Entwicklung von Empfehlungen für bürgerschaftliches Engagement bei der Inventarisierung historischer Kulturlandschaftselemente. Die Datenerhebung für die Analyse und Evaluierung erfolgt in erster Linie mittels Befragungen. Die Untersuchung zeigt, dass durch bürgerschaftliches Engagement wertvolle Beiträge zur Inventarisierung historischer Kulturlandschaftselemente geleistet werden können. In der Bevölkerung gibt es sowohl Interesse an der aktiven Mitwirkung als auch Kompetenzen, um unter Anleitung historische Kulturlandschaftselemente zu erfassen. Es müssen jedoch einige methodische Hinweise berücksichtigt und Maßnahmen getroffen werden, um Defizite, die sich durch die Erfassung durch Freiwillige ergeben können, zu vermeiden. So ist es bspw. zwingend notwendig, organisatorische Strukturen, Methoden und Standards vorzugeben, die Freiwilligen anzuleiten und ggf. zu unterstützen sowie die erhobenen Daten zu prüfen und in einem gewissen Umfang auch zu qualifizieren. Wenn die Inventarisierungen von Fachexperten aufgebaut und gesteuert werden, kann verhindert werden, dass die methodische Vorgehensweise von den fachlichen Anforderungen abweicht, und dass falsch erhobene und bewertete Daten verbreitet werden. Nicht von der Hand zu weisen ist der hohe Organisations- und Betreuungsaufwand sowie der Aufwand zur Prüfung und Nachbesserung der Daten, der mit der Beteiligung von Bürgern einhergeht. Doch selbst wenn die erfassten Daten der Bürger nur eine Grundlage bilden, die geprüft und für eine planerische Verwendung weiter qualifiziert werden muss, können durch die Einbindung von Bürgern wichtige Beiträge zum Erhalt der Kulturlandschaft geleistet werden. Neben der Datenerfassung werden zahlreiche Bürger für das Themenfeld Kulturlandschaft sensibilisiert, so dass die Anliegen zum Erhalt der Kulturlandschaft in weiten Teilen der Bevölkerung an Bedeutung gewinnen und verankert werden können. Um das Potenzial bürgerschaftlichen Engagements für die Inventarisierung historischer Kulturlandschaftselemente optimal nutzen zu können, und um möglichst bundes- oder landesweit einheitliche Inventare zu erstellen die Akzeptanz finden und für die Planung und weitere Anwendungszwecke genutzt werden, besteht noch Entwicklungs- und Abstimmungsbedarf. Manche Entwicklungen stehen nicht in Zusammenhang mit der Beteiligung von Bürgern, sondern sind generell notwendig, um einheitliche und möglichst landes- oder gar bundesweite Inventarisierungen historischer Kulturlandschaftselemente zu realisieren. Dies betrifft z. B. die Konsensfindung unter den Behörden und Fachstellen bezüglich methodischer Fragen und der Zuständigkeiten oder die Entwicklung eines geeigneten GIS-basierten Online-Inventars.
Resumo:
Die Trocknung ist eines der am häufigsten verwendeten Verfahren, um die Haltbarkeit von landwirtschaftlichen Gütern zu verlängern. Von den vielen gebräuchlichen Trocknungsarten ist die Konvektionstrocknung, die Luft als Energie- und Feuchteträger verwendet, weiterhin die wichtigste. Trotz ihrer Nachteile und ihres hohen spezifischen Energieverbrauchs sind Satztrockner für die Getreide-, Kräuter- und Heutrocknung noch weit verbreitet. Ferner werden Konvektionstrockner gemeinhin zur künstlichen Trocknung eingesetzt. Diese Arbeit ist Teil eines Forschungsprojekts, welches eine sorptionsgestützte solare Trocknung von landwirtschaftlichen Gütern untersucht. Bei dieser wird kühle feuchte Luft in Kontakt mit einer konzentrierten hygroskopischen Salzlösung gebracht. Während dieses Prozesses wird die Luft entfeuchtet und mit Hilfe der freigesetzten Verdampfungsenthalpie erwärmt. Die Anwendung dieses Verfahrens zur Trocknung landwirtschaftlicher Güter ist besonders interessant für Produkte, die bei niedrigen Temperaturen verarbeitet werden, um ihre Qualität nicht negativ zu beeinflussen. Bei allen energieintensiven Prozessen und vor allem bei der Verwendung von Solarenergie ist ein effizienter Energieverbrauch äußerst wichtig für den technischen und ökonomischen Erfolg. Eine ungleichmäßige Trocknung ist oftmals bei Satztrocknern zu beobachten, was die Energieeffizienz negativ beeinflusst. Aus diesem Grund lag im agrartechnischen Teil des Projekts der Schwerpunkt auf der Trocknung bei niedrigen Temperaturen und geringer Luftfeuchte, die der Sorptionsprozess liefert, sowie auf der Verbesserung der Luftverteilung und der Gleichmäßigkeit der Trocknung in lockeren und verdichteten Schüttungen. Es wurden Dünnschicht-Trocknungsexperminente für Blattsellerie bei unterschiedlichen Lufttemperaturen und unterschiedlicher relativer Luftfeuchte durchgeführt. Die Ergebnisse zeigen eindeutig, dass nicht nur die Lufttemperatur einen großen Einfluss auf die Trocknungsgeschwindigkeit hat, sondern auch die relative Luftfeuchte. Dies ist vor allem bei niedrigen Temperaturen, wie sie vom Sorptionssystem geliefert werden, der Fall. Um die Luftverteilung und Gleichmäßigkeit der Trocknung lockerer Schüttungen zu untersuchen, wurde ein Kistentrockner experimentell und in Strömungssimulationen getestet. Die Leistung des ursprünglichen Trockners wurde signifikant durch einfache Veränderungen des Designs verbessert. Diese stellten einen gleichmäßigeren Luftstrom durch das Produkt sicher. Die Trocknung von Heu-Rundballen stellt eine Herausforderung dar, da diese sehr stark verdichtet sind und die Dichte innerhalb eines Ballens stark schwankt. Strömungs- und Trocknungssimulationen so wie experimentelle Messungen zeigten, dass das Trocknerdesign einen großen Einfluss auf die Gleichmäßigkeit der Trocknung hat. Bei den einfachsten Trocknervarianten war die Verteilung auch bei optimal gepressten Ballen unzureichend, während komplexere Trockner eine gleichmäßigere Trocknung erzielten. Jedoch werden auch hier die Ergebnisse stark von der Verteilung der Dichte im Ballen beeinflusst, welche in der Praxis weiterhin nicht ideal ist. Abschließend wurde, um den Trocknungsfortschritt zu überwachen, eine Methodik getestet, bei der zur Messung des durchschnittlichen aktuellen Feuchtegehalts des Produktes psychrometrische Messungen und Messungen des Luftstroms in kurzen Abständen durchgeführt wurden. Die Menge des tatsächlich entfernten Wassers stimmte in den meisten Fällen gut mit der geschätzten Menge überein. Jedoch hängt der Erfolg dieser Methode stark von der Genauigkeit der Messfühler ab.
Resumo:
Vortragsfolien eines auf dem SAP ABAP-Jahrestreffen 20.-22.9.1995 in Ottrott/Elsaß gehaltenen Vortrags. - Zusammenfassung: Unter Pointer Swizzling versteht man eine Technik, persistente Zeiger in Datenbeständen zur Laufzeit so geschickt durch Hauptspeicherzeiger zu ersetzen, dass schnelles Durchlaufen komplexer Objektstrukturen möglich wird. Den Begriff umgibt ein Hauch von „Magie“, vielleicht auch wegen der Geheimniskrämerei, mit der eine Firma diese Technik in ihrem Datenbankprodukt umgibt. Der Vortrag soll zeigen, dass die Grundprinzipien des Pointer Swizzling eigentlich sehr einfach sind. Andererseits gibt es eine erstaunliche Vielfalt von recht unterschiedlichen Spielarten, was eine sachliche Diskussion über das Konzept und die Vor- und Nachteile erschwert. An einem durchgängigen Beispiel wird die Umsetzung in eine eigene Anwendung veranschaulicht, wobei - wie im Softwaregeschäft üblich - einige gut getarnte Fallgruben auf den Implementierer warten.
Resumo:
Die Strömung in Turboverdichtern ist geprägt von instationären Effekten. Ziel dieser experimentellen Arbeit ist die zeitlich aufgelöste Darstellung eines dieser Effekte: der rotierenden Instabilität. Hierbei handelt es sich um ein Phänomen, das dem Auftreten von rotierender Ablösung vorausgeht und bereits im stabilen Arbeitsbereich auftritt. Das bessere Verständnis der rotierenden Instabilität bietet somit auch einen Ansatz zur Klärung der Ursachen, die zu rotierender Ablösung führen. Zur Durchführung der zeitlich aufgelösten Untersuchung wird im Rahmen dieser Arbeit eine Messmethodik vorgestellt, welche erstmals bei der Strömungsuntersuchung in Turbomaschinen Anwendung findet. Die Methodik basiert auf simultanen Messungen mittels konventionellem PIV und zeitlich hochaufgelöster Hitzdrahtanemometrie. Über die Frequenzanalyse des Hitzdrahtsignals ist es im Postprocessing möglich, die einzelnen PIV-Bilder gemäß ihres Phasenwinkel zu ordnen. Dieser statistische Ansatz ermöglicht die Darstellung und Analyse der zeitlichen Entwicklung von rotierender Instabilität über einer Schwingungsperiode.
Resumo:
We are currently at the cusp of a revolution in quantum technology that relies not just on the passive use of quantum effects, but on their active control. At the forefront of this revolution is the implementation of a quantum computer. Encoding information in quantum states as “qubits” allows to use entanglement and quantum superposition to perform calculations that are infeasible on classical computers. The fundamental challenge in the realization of quantum computers is to avoid decoherence – the loss of quantum properties – due to unwanted interaction with the environment. This thesis addresses the problem of implementing entangling two-qubit quantum gates that are robust with respect to both decoherence and classical noise. It covers three aspects: the use of efficient numerical tools for the simulation and optimal control of open and closed quantum systems, the role of advanced optimization functionals in facilitating robustness, and the application of these techniques to two of the leading implementations of quantum computation, trapped atoms and superconducting circuits. After a review of the theoretical and numerical foundations, the central part of the thesis starts with the idea of using ensemble optimization to achieve robustness with respect to both classical fluctuations in the system parameters, and decoherence. For the example of a controlled phasegate implemented with trapped Rydberg atoms, this approach is demonstrated to yield a gate that is at least one order of magnitude more robust than the best known analytic scheme. Moreover this robustness is maintained even for gate durations significantly shorter than those obtained in the analytic scheme. Superconducting circuits are a particularly promising architecture for the implementation of a quantum computer. Their flexibility is demonstrated by performing optimizations for both diagonal and non-diagonal quantum gates. In order to achieve robustness with respect to decoherence, it is essential to implement quantum gates in the shortest possible amount of time. This may be facilitated by using an optimization functional that targets an arbitrary perfect entangler, based on a geometric theory of two-qubit gates. For the example of superconducting qubits, it is shown that this approach leads to significantly shorter gate durations, higher fidelities, and faster convergence than the optimization towards specific two-qubit gates. Performing optimization in Liouville space in order to properly take into account decoherence poses significant numerical challenges, as the dimension scales quadratically compared to Hilbert space. However, it can be shown that for a unitary target, the optimization only requires propagation of at most three states, instead of a full basis of Liouville space. Both for the example of trapped Rydberg atoms, and for superconducting qubits, the successful optimization of quantum gates is demonstrated, at a significantly reduced numerical cost than was previously thought possible. Together, the results of this thesis point towards a comprehensive framework for the optimization of robust quantum gates, paving the way for the future realization of quantum computers.
Resumo:
Ein Drittel des weltweiten gesamten Energiebedarfs wird durch Gebäude verbraucht. Um diesen Energiebedarf teilweise zu decken, den erheblichen Energieverbrauch zu reduzieren und weiterhin andere Gebäudefunktionen beizubehalten, ist Gebäudeintegrierte Photovoltaik (BIPV) eine der am besten geeigneten Lösungen für die Gebäudenanwendung. Im Bezug auf eine Vielzahl von Gestalltungsmöglichkeiten, sind die Randbedingungen der BIPV-Anwendungen eindeutig anders im Vergleich zu Standard-PV-Anwendungen, insbesondere bezüglich der Betriebstemperatur. Bisher gab es nicht viele Informationen zu den relevanten thermischen Auswirkungen auf die entsprechenden elektrischen Eigenschaften zusammen mit thermischen und mechanischen relevanten Gebäudenfunktionen. Die meisten Hersteller übernehmen diese Eigenschaften von entsprechenden PV-Modulen und konventionellen Bauprodukten Normen, die zur ungenauen System- und Gebäudeplanungen führen. Deshalb ist die Untersuchung des thermischen Einflusses auf elektrische, thermische sowie mechanische Eigenschaften das Hauptziel der vorliegenden Arbeit. Zunächst wird das Temperatur-Model mit dem Power-Balance-Konzept erstellt. Unter Berücksichtigung der variablen Installationsmöglichkeiten und Konfigurationen des Moduls wird das Model auf Basis dynamischer und stationär Eigenschaften entwickelt. Im Hinblick auf die dynamische Simulation können der Energieertrag und Leistung zusammen mit der thermischen Gebäudesimulation in Echtzeit simuliert werden. Für stationäre Simulationen können die relevanten Gebäudefunktionen von BIPV-Modulen sowohl im Sommer als auch im Winter simuliert werden. Basierend auf unterschiedlichen thermischen und mechanischen Last-Szenarien wurde darüber hinaus das mechanische Model zusammen mit Variationen von Belastungsdauer, Montagesystem und Verkapselungsmaterialien entwickelt. Um die Temperatur- und Mechanik-Modelle zu validieren, wurden die verschiedenen Prüfeinrichtungen zusammen mit neuen Testmethoden entwickelt. Bei Verwendung der Prüfanlage „PV variable mounting system“ und „mechanical testing equipment“ werden zudem die verschiedenen Szenarien von Montagesystemen, Modul-Konfigurationen und mechanischen Belastungen emuliert. Mit der neuen Testmethode „back-bias current concept“ können zum einen die solare Einstrahlung und bestimmte Betriebstemperaturen eingestellt werden. Darüber hinaus wurden mit den eingangs erwähnten validierten Modellen das jeweilige elektrische, thermische und mechanische Verhalten auf andere Konfigurationen bewertet. Zum Abschluss wird die Anwendung von Software-Tools bei PV-Herstellern im Hinblick auf die entsprechenden Modellentwicklungen thematisiert.
Resumo:
Since no physical system can ever be completely isolated from its environment, the study of open quantum systems is pivotal to reliably and accurately control complex quantum systems. In practice, reliability of the control field needs to be confirmed via certification of the target evolution while accuracy requires the derivation of high-fidelity control schemes in the presence of decoherence. In the first part of this thesis an algebraic framework is presented that allows to determine the minimal requirements on the unique characterisation of arbitrary unitary gates in open quantum systems, independent on the particular physical implementation of the employed quantum device. To this end, a set of theorems is devised that can be used to assess whether a given set of input states on a quantum channel is sufficient to judge whether a desired unitary gate is realised. This allows to determine the minimal input for such a task, which proves to be, quite remarkably, independent of system size. These results allow to elucidate the fundamental limits regarding certification and tomography of open quantum systems. The combination of these insights with state-of-the-art Monte Carlo process certification techniques permits a significant improvement of the scaling when certifying arbitrary unitary gates. This improvement is not only restricted to quantum information devices where the basic information carrier is the qubit but it also extends to systems where the fundamental informational entities can be of arbitary dimensionality, the so-called qudits. The second part of this thesis concerns the impact of these findings from the point of view of Optimal Control Theory (OCT). OCT for quantum systems utilises concepts from engineering such as feedback and optimisation to engineer constructive and destructive interferences in order to steer a physical process in a desired direction. It turns out that the aforementioned mathematical findings allow to deduce novel optimisation functionals that significantly reduce not only the required memory for numerical control algorithms but also the total CPU time required to obtain a certain fidelity for the optimised process. The thesis concludes by discussing two problems of fundamental interest in quantum information processing from the point of view of optimal control - the preparation of pure states and the implementation of unitary gates in open quantum systems. For both cases specific physical examples are considered: for the former the vibrational cooling of molecules via optical pumping and for the latter a superconducting phase qudit implementation. In particular, it is illustrated how features of the environment can be exploited to reach the desired targets.
Resumo:
Das Ziel der vorliegenden Arbeit bestand darin, detailliert Wechselwirkungen zwischen dem binären Gesundheitsmerkmal klinischer Mastitis auf der einen und Produktionsmerkmalen (z. B. Milch-kg) und funktionalen Merkmalen (z.B. somatischer Zellgehalt) auf der anderen Seite unter simultaner Berücksichtigung von Umwelt und genetisch bedingten Einflussgrößen auf phänotypischer und genetischer Ebene abzubilden. Die Studie fokussierte auf innovative Aspekte der genetisch-statistischen Modellierung bzgl. der Anwendung von rekursiver Pfadmodellmethodik und einer erstmalig durchgeführten detaillierten Beschreibung bzw. Aufteilung von Umwelteffekten im Kontext quantitativ genetischer Studien. Die Aufteilung der Umwelteffekte beinhaltete nicht nur herkömmliche bekannte Effekte wie den der Herde, des Herdentesttags oder der Laktationsnummer, sondern auch tierindividuelle antibiotische Applikationen. Diese antibiotischen Applikationen wurden als zusätzlicher Effekt in die statistische Modellierung integriert, um deren Einfluss auf Produktionsmerkmale und funktionale Merkmale im weiteren Laktationsverlauf abschätzen zu können. Unerwünschte Effekte einer antibiotischen Applikation auf andere Merkmale mit ökonomischer oder auch ethologischer Relevanz implizieren eine unerwünschte Nebenwirkung von antibiotischen Applikationen im weiteren Sinne, aber basierend auf einer objektiv erfassten und quantitativ und qualitativ hochwertigen Datengrundlage. Darüber hinausgehend erfolgte die direkte Evaluierung antibiotischer Applikationen zur Behandlung klinischer Mastitiden bzgl. etwaiger auftretender unerwünschter Arzneimittelwirkungen (UAW) im Sinne der klassischen Definition. Eine systematische Analyse mit der Definition einer UAW nicht als Effekt, sondern direkt als Merkmal, erfolgte basierend auf a) initiierter Versuchsdesigns b) der intensiven Zusammenarbeit mit kooperierenden externen Tierarztpraxen und c) bereits in Datenbanken elektronisch hinterlegter Information. Basis der direkten Analyse von UAW war die UAW Datenbank des Bundesamt für Verbraucherschutz und Lebensmittelsicherheit in Berlin, in der unerwünschte Arzneimittelwirkungen seit 2005 zentral erfasst werden. Die beiden weiteren Datensätze zur quantitativ genetischen Modellierung „zu indirekten UAW“ mittels Pfadmodellmethodik waren zum einen ein Datensatz von 19870 Holstein Friesian Kühen, die in 9 Testherden in Thüringen gehalten wurden (Datensatz II) sowie ein Datensatz von 1275 Braunviehkühen, die in 46 kleinstrukturierten Betrieben in der Schweiz gehalten wurden (Datensatz III). Insgesamt wurden in Rahmen der vorliegenden Arbeit sechs verschiedene wissenschaftliche Studien (siehe Kapitel III - Kapitel VIII) auf Grundlage von drei Datenbanken bzw. Datensätzen angefertigt. Diese Kapitel stehen im Gesamtkontext dieser Dissertationsschrift.
Resumo:
Short summary: This study was undertaken to assess the diversity of plant resources utilized by the local population in south-western Madagascar, the social, ecological and biophysical conditions that drive their uses and availability, and possible alternative strategies for their sustainable use in the region. The study region, ‘Mahafaly region’, located in south-western Madagascar, is one of the country’s most economically, educationally and climatically disadvantaged regions. With an arid steppe climate, the agricultural production is limited by low water availability and a low level of soil nutrients and soil organic carbon. The region comprises the recently extended Tsimanampetsotsa National Park, with numerous sacred and communities forests, which are threatened by slash and burn agriculture and overexploitation of forests resources. The present study analyzed the availability of wild yams and medicinal plants, and their importance for the livelihood of the local population in this region. An ethnobotanical survey was conducted recording the diversity, local knowledge and use of wild yams and medicinal plants utilized by the local communities in five villages in the Mahafaly region. 250 households were randomly selected followed by semi-structured interviews on the socio-economic characteristics of the households. Data allowed us to characterize sociocultural and socioeconomic factors that determine the local use of wild yams and medicinal plants, and to identify their role in the livelihoods of local people. Species-environment relationships and the current spatial distribution of the wild yams were investigated and predicted using ordination methods and a niche based habitat modelling approach. Species response curves along edaphic gradients allowed us to understand the species requirements on habitat conditions. We thus investigated various alternative methods to enhance the wild yam regeneration for their local conservation and their sustainable use in the Mahafaly region. Altogether, six species of wild yams and a total of 214 medicinal plants species from 68 families and 163 genera were identified in the study region. Results of the cluster and discriminant analysis indicated a clear pattern on resource, resulted in two groups of household and characterized by differences in livestock numbers, off-farm activities, agricultural land and harvests. A generalized linear model highlighted that economic factors significantly affect the collection intensity of wild yams, while the use of medicinal plants depends to a higher degree on socio-cultural factors. The gradient analysis on the distribution of the wild yam species revealed a clear pattern for species habitats. Species models based on NPMR (Nonparametric Multiplicative Regression analysis) indicated the importance of vegetation structure, human interventions, and soil characteristics to determine wild yam species distribution. The prediction of the current availability of wild yam resources showed that abundant wild yam resources are scarce and face high harvest intensity. Experiments on yams cultivation revealed that germination of seeds was enhanced by using pre-germination treatments before planting, vegetative regeneration performed better with the upper part of the tubers (corms) rather than the sets of tubers. In-situ regeneration was possible for the upper parts of the wild tubers but the success depended significantly on the type of soil. The use of manure (10-20 t ha¹) increased the yield of the D. alata and D. alatipes by 40%. We thus suggest the promotion of other cultivated varieties of D. alata found regions neighbouring as the Mahafaly Plateau.
Resumo:
1986 bis 1988 eintwickelte die Projektjektgruppe verfassungsverträgliche Technikgestaltung (provet) in einer konditionalen Prognose ein Szenario für die Entwicklung und Anwendung der Informationstechnik in Deutschland. Daraus wurden Thesen für die Verletzlichkeit der Gesellschaft und deren Folgen sowie Gestaltungsvorschläge abgeleitet, mit denen die Verletzlichkeit reduziert werden könne. Der Forschungsbericht "Die Verletzlichkeit der Informationsgesellschaft" wurde vor 25 Jahren publiziert. In dem vorliegenden Beitrag prüfen Mitglieder von provet, inwieweit das Szenario und die diesbezügliche angenommene Verletzlichkeit eingetreten sind, ob eine Gegensteuerung gegen zu viel Verletzlichkeit stattfand und welche Rolle die Gestaltungsvorschläge der Studie dabei spielten. Daraus lässt sich mittelbar auch erkennen, wie nützlich der methodische Ansatz der Technikfolgenforschung und die Gestaltungsvorschläge waren und heute sein können.
Resumo:
Die Berechnung des 1912 von Birkhoff eingeführten chromatischen Polynoms eines Graphen stellt bekanntlich ein NP-vollständiges Problem dar. Dieses gilt somit erst recht für die Verallgemeinerung des chromatischen Polynoms zum bivariaten chromatischen Polynom nach Dohmen, Pönitz und Tittmann aus dem Jahre 2003. Eine von Averbouch, Godlin und Makowsky 2008 vorgestellte Rekursionsformel verursacht durch wiederholte Anwendung im Allgemeinen einen exponentiellen Rechenaufwand. Daher war das Ziel der vorliegenden Dissertation, Vereinfachungen zur Berechnung des bivariaten chromatischen Polynoms spezieller Graphentypen zu finden. Hierbei wurden folgende Resultate erzielt: Für Vereinigungen von Sternen, für vollständige Graphen, aus welchen die Kanten von Sternen mit paarweise voneinander verschiedenen Ecken gelöscht wurden, für spezielle Splitgraphen und für vollständig partite Graphen konnten rekursionsfreie Gleichungen zur Berechnung des bivariaten chromatischen Polynoms mit jeweils linear beschränkter Rechenzeit gefunden werden. Weiterhin werden Möglichkeiten der Reduktion allgemeiner Splitgraphen, bestimmter bipartiter Graphen sowie vollständig partiter Graphen vorgestellt. Bei letzteren erweist sich eine hierbei gefundene Rekursionsformel durch eine polynomiell beschränkte Laufzeit als effektive Methode. Ferner konnte in einem Abschnitt zu Trennern in Graphen gezeigt werden, dass der Spezialfall der trennenden Cliquen, welcher im univariaten Fall sehr einfach ist, im bivariaten Fall sehr komplexe Methoden erfordert. Ein Zusammenhang zwischen dem bivariaten chromatischen Polynom und dem Matchingpolynom wurde für vollständige Graphen, welchen die Kanten von Sternen mit paarweise voneinander verschiedenen Ecken entnommen wurden, sowie für Bicliquen hergestellt. Die vorliegende Dissertation liefert darüber hinaus auch einige Untersuchungen zum trivariaten chromatischen Polynom, welches auf White (2011) zurückgeht und eine weitere Verallgemeinerung des bivariaten chromatischen Polynoms darstellt. Hierbei konnte gezeigt werden, dass dessen Berechnung selbst für einfache Graphentypen schon recht kompliziert ist. Dieses trifft sogar dann noch zu, wenn man die einzelnen Koeffizienten als bivariate Polynome abspaltet und einzeln berechnet. Abschließend stellt die Arbeit zu vielen Resultaten Implementierungen mit dem Computeralgebrasystem Mathematica bereit, welche zahlreiche Möglichkeiten zu eigenständigen Versuchen bieten.
Resumo:
Diese Arbeit weist Momentum-Renditen für europäische Aktien im Zeitraum von 1991 bis 2010 nach, die – je nach Top/Flop-Prozentsatz – vor Kosten zwischen 6 und 19% p.a. liegen. Gleichzeitig liegen mit hohen Standardabweichungen, negativen Schiefe-Werten und hohen Drawdowns drei wesentliche Risikofaktoren vor. Für die Kernuntersuchungen des Top/Flop-Wertes von 5% treten die höchsten Momentum-Renditen von mehr als 10% p.a. für Ranking-Perioden von 80 bis 100 und Holding-Perioden von 60 bis 90 Handelstagen auf. Grundsätzlich sind die extremsten Aktien der Ranking-Periode entscheidend für die Ausprägung des Momentum-Effekts. Gleichzeitig steigen mit zunehmender Eingrenzung des Top/Flop-Wertes die Risiken, was eine Erklärung hoher Momentum-Renditen aus Sicht der Risikoaversions-Theorie nahelegt. Auch die Berücksichtigung zusätzlicher Filterbedingungen (Gleitende Durchschnitte, Handelsvolumen, Low Volatility) ermöglicht leicht höhere Momentum-Renditen bei entsprechend höheren Risiken. Zwischen dem Momentum-Effekt und dem Auftreten von Kurslücken besteht dagegen kein klarer Zusammenhang. Für die praktische Anwendung sind Momentum-Strategien mit dynamischer Positionsverwaltung während der Haltedauer interessant. Untersucht wurden Strategien anhand der eigens programmierten Simulationsverfahren Stopout und Castout sowie eines kombinierten Verfahrens. Im Ergebnis sind – je nach Präferenz des Investors – das Castout- und das kombinierte Verfahren optimal. Für das Rebalancing der Portfolios empfiehlt es sich, zu den entsprechenden Terminen jeweils nur die Short-Seite auf den Startwert zurückzusetzen. Weiterhin zeigen die Untersuchungen, dass deutliche Long-Übergewichtungen bei Momentum-Strategien grundsätzlich von Vorteil sind. Potenzielle Verbesserungen der Ergebnisse können durch weitere Stopp-Abstände, eine Verringerung des Top/Flop-Wertes oder eine längere Ranking-Periode erzielt werden. Weiterhin sind für die Praxis Long-only-Strategien auf Basis von Doppelranking-Verfahren attraktiv, bei denen das Zweitranking nach Standardabweichung oder Rendite/Standardabweichungs-Ratio erfolgt.
Resumo:
In this work, we present an atomistic-continuum model for simulations of ultrafast laser-induced melting processes in semiconductors on the example of silicon. The kinetics of transient non-equilibrium phase transition mechanisms is addressed with MD method on the atomic level, whereas the laser light absorption, strong generated electron-phonon nonequilibrium, fast heat conduction, and photo-excited free carrier diffusion are accounted for with a continuum TTM-like model (called nTTM). First, we independently consider the applications of nTTM and MD for the description of silicon, and then construct the combined MD-nTTM model. Its development and thorough testing is followed by a comprehensive computational study of fast nonequilibrium processes induced in silicon by an ultrashort laser irradiation. The new model allowed to investigate the effect of laser-induced pressure and temperature of the lattice on the melting kinetics. Two competing melting mechanisms, heterogeneous and homogeneous, were identified in our big-scale simulations. Apart from the classical heterogeneous melting mechanism, the nucleation of the liquid phase homogeneously inside the material significantly contributes to the melting process. The simulations showed, that due to the open diamond structure of the crystal, the laser-generated internal compressive stresses reduce the crystal stability against the homogeneous melting. Consequently, the latter can take a massive character within several picoseconds upon the laser heating. Due to the large negative volume of melting of silicon, the material contracts upon the phase transition, relaxes the compressive stresses, and the subsequent melting proceeds heterogeneously until the excess of thermal energy is consumed. A series of simulations for a range of absorbed fluences allowed us to find the threshold fluence value at which homogeneous liquid nucleation starts contributing to the classical heterogeneous propagation of the solid-liquid interface. A series of simulations for a range of the material thicknesses showed that the sample width we chosen in our simulations (800 nm) corresponds to a thick sample. Additionally, in order to support the main conclusions, the results were verified for a different interatomic potential. Possible improvements of the model to account for nonthermal effects are discussed and certain restrictions on the suitable interatomic potentials are found. As a first step towards the inclusion of these effects into MD-nTTM, we performed nanometer-scale MD simulations with a new interatomic potential, designed to reproduce ab initio calculations at the laser-induced electronic temperature of 18946 K. The simulations demonstrated that, similarly to thermal melting, nonthermal phase transition occurs through nucleation. A series of simulations showed that higher (lower) initial pressure reinforces (hinders) the creation and the growth of nonthermal liquid nuclei. For the example of Si, the laser melting kinetics of semiconductors was found to be noticeably different from that of metals with a face-centered cubic crystal structure. The results of this study, therefore, have important implications for interpretation of experimental data on the kinetics of melting process of semiconductors.
Resumo:
Die vorliegende Dissertation untersucht das Leseverhalten thailändischer Deutschlernender mit dem Ziel, ihre Fähigkeit zum kritischen Lesen unter Anwendung des MURDER-Schemas im fremdsprachlichen Deutschunterricht zu fördern. Neben der Lesefertigkeit soll aufgrund der bestehenden Zusammenhänge zusätzlich das kritische Denken der Lernenden gefördert werden.