978 resultados para performative Arbeit
Resumo:
Während zum Genehmigungsrecht zahlreiche Abhandlungen in der juristischen Literatur und eine große Zahl von Urteilen veröffentlicht sind, hält sich die Forschung und praktische Behandlung zum Aufsichtsrecht in Grenzen. Diese Arbeit vertieft das Verständnis, für die spezifische Verknüpfung und gegenseitige Abhängigkeit der Eröffnungskontrollen und der begleitenden Kontrollen im deutschen Arbeits-, Umwelt- und Verbraucherschutzrecht. Zentraler Punkt dieser Arbeit ist die Entwicklung von Grundlinien der begleitenden Aufsicht im Gewerbeaufsichtsrecht. Dazu ist es erforderlich die verschiedenen Randbedingungen gewerbeaufsichtlichen Handelns in den Blick zu nehmen. Es ist ein Blick auf die zu erwartende Ausbildung eines neuen Rationalitätstyps der gesellschaftlichen Entwicklung (2.), auf die Typisierung von Staats-, Gewerbe- und Wirtschaftsaufsicht und deren spezifischen Handlungsmustern, den festgestellten Defiziten des Aufsichtsrechts und des Aufsichtshandelns der begleitenden Kontrollen und den festgestellten tatsächlichen Wirkungen des Aufsichtssystems (3.) zu werfen. Weitere Einflüsse auf das Aufsichtsmodell der Zukunft kommen aus der erwarteten und wünschenswerten Entwicklung des Genehmigungsrechts (4.), der Art und Weise wie die begleitende Aufsicht gehandhabt werden kann und soll (5.) und den Privatisierungstypen und deren verfassungsrechtlichen Grenzen (6.). Die Arbeit schließt mit der Formulierung eines Zukunftsmodells, dass die Gewichte zwischen der Eröffnungs- und der begleitender Kontrolle, sowie das Verhältnis zwischen Staat, Privaten Dritten und Unternehmen, neu ordnet. Insgesamt wird in dieser Arbeit für ein Aufsichtsmodell plädiert, indem der Staat stärker in die Verantwortung für eine risikoorientierte begleitende Aufsicht genommen wird. Maßstäbe für die Risikoregelung sind künftig komplett vom Staat aufzustellen. Staatliche Aufsicht kann sich zukünftig auf Rahmenregelungen und Rahmenprüfungen bei den risikoreichsten Anlagen, Tätigkeiten und Produkten beschränken. Private Dritte können die Detailermittlungen und Freigaben bearbeiten. Private Sachverständige können künftig die Hauptlast detaillierter und zeitintensiver Kontrolltätigkeiten bei Anlagen, Tätigkeiten und Produkten mit mittlerem Risiko übernehmen. Anlagen, Tätigkeiten und Produkte mit geringem Risiko können der Eigenüberwachung überlassen werden. Im Gegenzug muss der Staat in deutlich stärkeren Maß die Aufsicht über die Kontrolleure anhand einheitlicher Maßstäbe organisieren und durchführen. Die Anforderungen an die Kontrolleure müssen künftig allgemein, sowohl für die externen Kontrollpersonen als auch für die internen Aufsichtspersonen, gelten und überprüft werden.
Resumo:
The process of developing software that takes advantage of multiple processors is commonly referred to as parallel programming. For various reasons, this process is much harder than the sequential case. For decades, parallel programming has been a problem for a small niche only: engineers working on parallelizing mostly numerical applications in High Performance Computing. This has changed with the advent of multi-core processors in mainstream computer architectures. Parallel programming in our days becomes a problem for a much larger group of developers. The main objective of this thesis was to find ways to make parallel programming easier for them. Different aims were identified in order to reach the objective: research the state of the art of parallel programming today, improve the education of software developers about the topic, and provide programmers with powerful abstractions to make their work easier. To reach these aims, several key steps were taken. To start with, a survey was conducted among parallel programmers to find out about the state of the art. More than 250 people participated, yielding results about the parallel programming systems and languages in use, as well as about common problems with these systems. Furthermore, a study was conducted in university classes on parallel programming. It resulted in a list of frequently made mistakes that were analyzed and used to create a programmers' checklist to avoid them in the future. For programmers' education, an online resource was setup to collect experiences and knowledge in the field of parallel programming - called the Parawiki. Another key step in this direction was the creation of the Thinking Parallel weblog, where more than 50.000 readers to date have read essays on the topic. For the third aim (powerful abstractions), it was decided to concentrate on one parallel programming system: OpenMP. Its ease of use and high level of abstraction were the most important reasons for this decision. Two different research directions were pursued. The first one resulted in a parallel library called AthenaMP. It contains so-called generic components, derived from design patterns for parallel programming. These include functionality to enhance the locks provided by OpenMP, to perform operations on large amounts of data (data-parallel programming), and to enable the implementation of irregular algorithms using task pools. AthenaMP itself serves a triple role: the components are well-documented and can be used directly in programs, it enables developers to study the source code and learn from it, and it is possible for compiler writers to use it as a testing ground for their OpenMP compilers. The second research direction was targeted at changing the OpenMP specification to make the system more powerful. The main contributions here were a proposal to enable thread-cancellation and a proposal to avoid busy waiting. Both were implemented in a research compiler, shown to be useful in example applications, and proposed to the OpenMP Language Committee.
Resumo:
Die vorliegende Arbeit berichtet über ein neuartiges, kombiniertes Messverfahren zur gleichzeitigen Erfassung von Form und Material einer glänzenden Probenoberfläche. Die Materialerkennung erfolgt über die polarisationsoptische Brechzahlbestimmung im Messpunkt mit Mikroellipsometrie. Die Mikroellipsometrie ist ein fokussierendes Ellipsometer, das aus der Polarisationsänderung, bedingt durch die Wechselwirkung Licht – Materie, die materialcharakteristische komplexe Brechzahl eines reflektierenden Materials ermitteln kann. Bei der fokussierenden Ellipsometrie ist die Anordnung der fokussierenden Optiken von Bedeutung. Die hier vorgestellte ellipsometerexterne Fokussierung vermeidet Messfehler durch optische Anisotropien und ermöglicht die multispektrale ellipsometrische Messung. Für die ellipsometrische Brechzahlbestimmung ist zwingend die Kenntnis des Einfallswinkels des Messstrahls und die räumliche Orientierung der Oberflächenneigung zum Koordinatensystem des Ellipsometers notwendig. Die Oberflächenneigung wird mit einem Deflektometer ermittelt, das speziell für den Einsatz in Kombination mit der Ellipsometrie entwickelt wurde. Aus der lokalen Oberflächenneigung kann die Topographie einer Probe rekonstruiert werden. Der Einfallswinkel ist ebenfalls aus den Oberflächenneigungen ableitbar. Die Arbeit stellt die Systemtheorie der beiden kombinierten Messverfahren vor, außerdem werden Beiträge zu Messunsicherheiten diskutiert. Der experimentelle Teil der Arbeit beinhaltet die separate Untersuchung zur Leistungsfähigkeit der beiden zu kombinierenden Messverfahren. Die experimentellen Ergebnisse erlauben die Schlussfolgerung, dass ein Mikro-Deflexions-Ellipsometer erfolgreich realisierbar ist.
Resumo:
Numerische Urteile wie Schätzungen oder Prognosen sind anfällig für Ankereffekte. Ein in eine Entscheidungssituation willkürlich eingeführter numerischer Wert – der Anker – beeinflusst oft das Urteil im Sinne einer Assimilation des Urteils an diesen Wert. Bei Kaufentscheidungen fließt das Ergebnis eines Vergleichs des Produktpreises mit einem Referenzpreis, einem numerischen Wert, in die Kaufentscheidung mit ein. Unter Orientierung an die Prospekttheorie von Kahneman & Tversky kann dieser Referenzpreis in Form eines implementierten Ankers variiert werden. Die vorgelegte interdisziplinäre Arbeit wendet psychologisches Fachwissen in den Wirtschaftswissenschaften an. Sie beschäftigt sich mit den Möglichkeiten bei telefonischen Verkaufsgesprächen, gezielt Anker zu Erhöhung der Verkaufsquote einzusetzen. Der Anker wird in drei unterschiedlichen Experimenten entweder durch den Preis eines zusätzlich angebotenen Produkts, durch das Einbringen eines belanglos scheinenden numerischen Wertes, wie die Anzahl an bereits getätigten Anrufen, oder in Form einer Schätzfrage in das Verkaufsgespräch implementiert. Es wird dabei festgestellt, dass durch einen im Vergleich zum verkaufenden Produkt höheren numerischen Wert, dem Anker, die Verkaufsquote erhöht werden kann. Das Neuartige an der Arbeit liegt vor allem im Aufzeigen der Einfachheit solcher ökonomisch effektiver Ankersetzungen in Verkaufsgesprächen. Willkürlich in eine Kaufsituation eingeführte numerische Werte können - analog zu ihrem Einfluss in Urteilssituationen - auch Kaufentscheidungen in einem realen Markt beeinflussen.
Resumo:
Land use is a crucial link between human activities and the natural environment and one of the main driving forces of global environmental change. Large parts of the terrestrial land surface are used for agriculture, forestry, settlements and infrastructure. Given the importance of land use, it is essential to understand the multitude of influential factors and resulting land use patterns. An essential methodology to study and quantify such interactions is provided by the adoption of land-use models. By the application of land-use models, it is possible to analyze the complex structure of linkages and feedbacks and to also determine the relevance of driving forces. Modeling land use and land use changes has a long-term tradition. In particular on the regional scale, a variety of models for different regions and research questions has been created. Modeling capabilities grow with steady advances in computer technology, which on the one hand are driven by increasing computing power on the other hand by new methods in software development, e.g. object- and component-oriented architectures. In this thesis, SITE (Simulation of Terrestrial Environments), a novel framework for integrated regional sland-use modeling, will be introduced and discussed. Particular features of SITE are the notably extended capability to integrate models and the strict separation of application and implementation. These features enable efficient development, test and usage of integrated land-use models. On its system side, SITE provides generic data structures (grid, grid cells, attributes etc.) and takes over the responsibility for their administration. By means of a scripting language (Python) that has been extended by language features specific for land-use modeling, these data structures can be utilized and manipulated by modeling applications. The scripting language interpreter is embedded in SITE. The integration of sub models can be achieved via the scripting language or by usage of a generic interface provided by SITE. Furthermore, functionalities important for land-use modeling like model calibration, model tests and analysis support of simulation results have been integrated into the generic framework. During the implementation of SITE, specific emphasis was laid on expandability, maintainability and usability. Along with the modeling framework a land use model for the analysis of the stability of tropical rainforest margins was developed in the context of the collaborative research project STORMA (SFB 552). In a research area in Central Sulawesi, Indonesia, socio-environmental impacts of land-use changes were examined. SITE was used to simulate land-use dynamics in the historical period of 1981 to 2002. Analogous to that, a scenario that did not consider migration in the population dynamics, was analyzed. For the calculation of crop yields and trace gas emissions, the DAYCENT agro-ecosystem model was integrated. In this case study, it could be shown that land-use changes in the Indonesian research area could mainly be characterized by the expansion of agricultural areas at the expense of natural forest. For this reason, the situation had to be interpreted as unsustainable even though increased agricultural use implied economic improvements and higher farmers' incomes. Due to the importance of model calibration, it was explicitly addressed in the SITE architecture through the introduction of a specific component. The calibration functionality can be used by all SITE applications and enables largely automated model calibration. Calibration in SITE is understood as a process that finds an optimal or at least adequate solution for a set of arbitrarily selectable model parameters with respect to an objective function. In SITE, an objective function typically is a map comparison algorithm capable of comparing a simulation result to a reference map. Several map optimization and map comparison methodologies are available and can be combined. The STORMA land-use model was calibrated using a genetic algorithm for optimization and the figure of merit map comparison measure as objective function. The time period for the calibration ranged from 1981 to 2002. For this period, respective reference land-use maps were compiled. It could be shown, that an efficient automated model calibration with SITE is possible. Nevertheless, the selection of the calibration parameters required detailed knowledge about the underlying land-use model and cannot be automated. In another case study decreases in crop yields and resulting losses in income from coffee cultivation were analyzed and quantified under the assumption of four different deforestation scenarios. For this task, an empirical model, describing the dependence of bee pollination and resulting coffee fruit set from the distance to the closest natural forest, was integrated. Land-use simulations showed, that depending on the magnitude and location of ongoing forest conversion, pollination services are expected to decline continuously. This results in a reduction of coffee yields of up to 18% and a loss of net revenues per hectare of up to 14%. However, the study also showed that ecological and economic values can be preserved if patches of natural vegetation are conservated in the agricultural landscape. -----------------------------------------------------------------------
Resumo:
Die Dissertation beschäftigt sich aus interdisziplinärer (musikwissenschaftlicher, literaturwissenschaftlicher und theologischer) Sicht mit den Biographien Brechts und Weills und ihrem bekanntesten gemeinsamen Werk, der Dreigroschenoper. Im ersten Teil werden anhand von Selbstäußerungen in Briefen und Tagebüchern die Biographien beider Künstler mit Blick auf Spuren von religiöser Biographie, Frömmigkeit und argumentativer Auseinandersetzung mit ihrer jeweiligen Heimatreligion – für Brecht das Christentum und für Weill das Judentum – untersucht. Die in der Forschung pauschal gehaltene These von einer intensiven religiösen Sozialisation beider Künstler ist zwar gerechtfertigt und vor allem für Brecht bekannt, stellt aber nur einen Ausgangspunkt für differenziertere Untersuchungen dar. Dazu gehört es religiöse Existenz als bedeutenden und künstlerisch wirksamen Bestandteil von Persönlichkeitsentwicklung zu verstehen. Religiöse Existenz darf nicht, wie es fast durchgängig in der Forschung zu Brecht und Weill geschieht, auf eine affirmative Grundhaltung begrenzt werden, auch dürfen nicht christliche und jüdische Sozialisation gleichgesetzt werden. Daher sind auch die in der Arbeit gewonnenen exemplarischen Einblicke in Glaubensvorstellungen und Lebenspraxis von Juden und Christen im ausgehenden Kaiserreich und in der Weimarer Republik von besonderer Bedeutung. Auch reicht die bloße Feststellung einer intensiven religiösen Sozialisation nicht aus um wirklich zu beschreiben, was sie jeweils – etwa die Schabbatpraxis im Hause Weill oder Brechts Zweifel am Christentum während der Krankheit seines Vaters – bedeuten und bewirken kann. Mit der in der Dissertation vorgenommenen differenzierten Sichtung von Biographie wird weder die „Moderation“ der eigenen Biographie durch die Künstler außer Acht gelassen noch das künstlerische Werk der Biographie untergeordnet. Es wird vielmehr in der Verknüpfung der mehrdimensionalen Bezugssysteme das geschichtliche und damit auch das biographische Werden eines Werkes gleichzeitig als Charakteristikum seiner Ästhetik verstanden. Für die religiöse Dimension der Dreigroschenoper gilt ähnliches wie für die Sicht auf die religiösen Sozialisationen. Einige der offensichtlichen Anspielungen auf religiöse Kontexte gelten als bekannt. Dabei werden aber Tiefendimensionen und Ambivalenzen vernachlässigt, welche bei der Verwendung der zumeist biblischen Spuren mitschwingen und die auch für die Künstler mitschwingen konnten (Buch Rut, Passion Jesu etc.). An diesem Punkt setzt die Untersuchung im zweiten Teil der Arbeit ein, welche die versteckten, verdeckten oder nur oberflächlich untersuchten Spuren religiöser Konnotation in der Dreigroschenoper ermittelt und wieder verständlich macht. Brecht war nicht Theologe und schon gar nicht Exeget war, er war aber als Literat und als christlich sozialisierter Künstler in der Lage, kontextuelle Zusammenhänge, innerbiblische Verweise und Leerstellen biblischer Texte zu erkennen. Daher ist es für die Interpretation der Dreigroschenoper auch wesentlich, biblische Hintergründe und ausgewählte theologische Erkenntnisse heranzuziehen. Durch den Rückgriff auf Biblisches und damit auf jüdische und christliche Tradition wird nicht nur die Komplexität der Dreigroschenoper verdeutlicht, sondern gleichsam rückwirkend die Komplexität biblischer Theologie sichtbar. Der Komponist darf bei diesem künstlerischen Verarbeitungsprozess religiöser Kontexte nicht verdrängt werden. Die Frage nach religiös semantisierbarer Musik ist trotz aller Schwierigkeiten notwendig. Der Blick auf Weills Biographie, sein Aufwachsen im Hause eines jüdischen Kantors, seine Kenntnis der Synagogalmusik, seine künstlerische Verbundenheit mit Gustav Mahler, seine Kenntnis von Orgelmusik, Chorälen und den bachschen Passion und seine Selbstreflexion über sich als Künstler, der Jude war, fordert in dieser Hinsicht eine differenzierte und funktionale Sicht auf religiöse Semantik in der Musik. In der Dreigroschenoper spiegeln sich Säkularisierungsprozesse wider, doch bleibt trotz dieser Prozesse ein Bewusstsein für die religiösen Traditions- und Erklärungsmuster erhalten. Dieses gilt es wieder zu erschließen, da es untrennbar zum Werk, zur Werkästhetik und damit zu seinem Verständnis gehört. Die Dreigroschenoper verdeutlicht darüber hinaus, dass die religiöse Dimension noch in der Distanzierung bedeutsam bleibt. Auch daran wird erkennbar, wie sehr eine Gesellschaft von Voraussetzungen lebt, die sie nicht selbst hergestellt hat. Die Dreigroschenoper kann somit heute auch zu einem Lehrstück für kulturelle Codes werden.
Resumo:
Mit aktiven Magnetlagern ist es möglich, rotierende Körper durch magnetische Felder berührungsfrei zu lagern. Systembedingt sind bei aktiv magnetgelagerten Maschinen wesentliche Signale ohne zusätzlichen Aufwand an Messtechnik für Diagnoseaufgaben verfügbar. In der Arbeit wird ein Konzept entwickelt, das durch Verwendung der systeminhärenten Signale eine Diagnose magnetgelagerter rotierender Maschinen ermöglicht und somit neben einer kontinuierlichen Anlagenüberwachung eine schnelle Bewertung des Anlagenzustandes gestattet. Fehler können rechtzeitig und ursächlich in Art und Größe erkannt und entsprechende Gegenmaßnahmen eingeleitet werden. Anhand der erfassten Signale geschieht die Gewinnung von Merkmalen mit signal- und modellgestützten Verfahren. Für den Magnetlagerregelkreis erfolgen Untersuchungen zum Einsatz modellgestützter Parameteridentifikationsverfahren, deren Verwendbarkeit wird bei der Diagnose am Regler und Leistungsverstärker nachgewiesen. Unter Nutzung von Simulationsmodellen sowie durch Experimente an Versuchsständen werden die Merkmalsverläufe im normalen Referenzzustand und bei auftretenden Fehlern aufgenommen und die Ergebnisse in einer Wissensbasis abgelegt. Diese dient als Grundlage zur Festlegung von Grenzwerten und Regeln für die Überwachung des Systems und zur Erstellung wissensbasierter Diagnosemodelle. Bei der Überwachung werden die Merkmalsausprägungen auf das Überschreiten von Grenzwerten überprüft, Informationen über erkannte Fehler und Betriebszustände gebildet sowie gegebenenfalls Alarmmeldungen ausgegeben. Sich langsam anbahnende Fehler können durch die Berechnung der Merkmalstrends mit Hilfe der Regressionsanalyse erkannt werden. Über die bisher bei aktiven Magnetlagern übliche Überwachung von Grenzwerten hinaus erfolgt bei der Fehlerdiagnose eine Verknüpfung der extrahierten Merkmale zur Identifizierung und Lokalisierung auftretender Fehler. Die Diagnose geschieht mittels regelbasierter Fuzzy-Logik, dies gestattet die Einbeziehung von linguistischen Aussagen in Form von Expertenwissen sowie die Berücksichtigung von Unbestimmtheiten und ermöglicht damit eine Diagnose komplexer Systeme. Für Aktor-, Sensor- und Reglerfehler im Magnetlagerregelkreis sowie Fehler durch externe Kräfte und Unwuchten werden Diagnosemodelle erstellt und verifiziert. Es erfolgt der Nachweis, dass das entwickelte Diagnosekonzept mit beherrschbarem Rechenaufwand korrekte Diagnoseaussagen liefert. Durch Kaskadierung von Fuzzy-Logik-Modulen wird die Transparenz des Regelwerks gewahrt und die Abarbeitung der Regeln optimiert. Endresultat ist ein neuartiges hybrides Diagnosekonzept, welches signal- und modellgestützte Verfahren der Merkmalsgewinnung mit wissensbasierten Methoden der Fehlerdiagnose kombiniert. Das entwickelte Diagnosekonzept ist für die Anpassung an unterschiedliche Anforderungen und Anwendungen bei rotierenden Maschinen konzipiert.
Resumo:
Bei Dämmen auf wenig tragfähigem Untergrund ist es zwischenzeitlich Stand der Technik, an der Dammbasis eine Bewehrung aus hochzugfesten Geokunststoffen (Gewebe oder Geogitter) einzulegen. Dabei können die Bewehrungslagen direkt auf den weichen Boden oder über Pfahlelementen angeordnet werden, die die Dammlasten in tiefere, tragfähigere Schichten abtragen. Die horizontale Bewehrung an der Dammbasis hat die Aufgabe, die vertikalen Dammlasten und die nach außen wirkenden Spreizkräfte aufzunehmen. Dies ist besonders für bewehrte Tragschichten über Pfählen von großer Bedeutung, da sonst die Pfähle/Säulen eine Biegebeanspruchung erhalten, die sie aufgrund des geringen Durchmessers (oftmals unbewehrt) nicht aufnehmen können. Abgesicherte wissenschaftliche Erkenntnisse über Größe und Verteilung der Spreizspannung in Höhe ober- und unterhalb der Bewehrungslagen liegen derzeit noch nicht vor, aus denen dann auch die Beanspruchung abzuleiten ist, die aus der Spreizwirkung bei der Geokunststoffbemessung zu berücksichtigen ist. Herr Dr.-Ing. Gourge Fahmi hat dafür zunächst den Kenntnisstand zur Spreizbeanspruchung ohne und mit Bewehrung sowie ohne und mit Pfahlelementen zusammengefasst. Ein wesentlicher Teil einer wissenschaftlichen Untersuchungen stellt die Modellversuche in einem relativ großen Maßstab dar, die u. a. auch zur Validierung von numerischen Berechnungen zur Fragestellung vorgesehen waren. Dabei konnte nach gewissen Parameteranpassungen überwiegend eine gute Übereinstimmung zwischen Modellversuchen und FEM-Berechnungen erreicht werden. Lediglich bei den Dehnungen bzw. Zugkräften in den Geogittern über Pfahlelementen ergab die FEM bei dem verwendeten Programmsystem viel zu niedrige Werte. Es wurde dazu in der Arbeit anhand eigener Untersuchungen und Vergleichsergebnissen aus der Literatur eine Hypothese formuliert und zunächst die Berechnungsergebnisse mit einem Faktor angepasst. Mit den durchgeführten Verifikationen stand damit dann ein weitestgehend abgesichertes numerisches Berechnungsmodell zur Verfügung. Aufbauend auf diesen Vorarbeiten konnten Parameterstudien mit numerischen und analytischen Methoden zur Spreizproblematik durchgeführt werden. Dabei wurden die Randbedingungen und Parametervariationen sinnvoll und für die Fragestellung zutreffend gewählt. Die numerischen Verfahren ergaben vertiefte Erkenntnisse zur Mechanik und zum Verhalten der Konstruktion. Die analytischen Vergleichsberechnungen validierten primär die Güte dieser vereinfachten Ansätze für praktische Berechnungen. Zusammenfassend wurde festgestellt, dass erwartungsgemäß die Spreizkräfte im Geogitter nahezu linear mit der Dammhöhe anwachsen. Von besonderer Bedeutung für die Größe der Spreizkräfte ist die Steifigkeit der Weichschichten. Dieser Parameter wird bei den bisher bekannten analytischen Berechnungsverfahren nicht berücksichtigt. Je weicher der Untergrund, je größer wird das Verhältnis zwischen Spreiz- und Membranbeanspruchung. Eine steilere Dammböschung hat erwartungsgemäß ebenfalls eine höhere Spreizwirkung zur Folge. Des Weiteren ergeben sich bei mehrlagigen Geogittern die höheren Beanspruchungen in der unteren Lage aus dem Membraneffekt und in der oberen Lage aus dem Spreizeffekt. Zu diesen Erkenntnissen wurden in der Arbeit erste Vorschläge für die praktischen Bemessungen gemacht, die aber noch weiter zu optimieren sind. Schließlich erfolgt von Herrn Fahmi eine Betrachtung der Pfahlelementbeanspruchung aus Pfahlkopfverschiebung und Biegemomenten. Dabei wurde ersichtlich, dass die Pfahlelemente bei hohen Dämmen erhebliche Beanspruchungen erhalten können, wenn relativ weicher Untergrund vorhanden ist, und es zeigt die Notwendigkeit entsprechend abgesicherter Bemessungsverfahren auf.
Resumo:
Aus mehreren Untersuchungen zum Interesse der Schülerinnen und Schüler am Physikunterricht ist bekannt, dass der Unterricht dann für sie interessant ist, wenn die fachlichen Inhalte in einen für die Schülerinnen und Schüler relevanten Kontext eingebunden sind. Die vorliegende empirische Untersuchung beschäftigt sich mit dem Kontext „Physik lernen durch lehren“. Bei diesem Kontext sollen Schülerinnen und Schüler des Gymnasiums Physik lernen, um anschließend Kindern in der Vor- und Grundschule selbst naturwissenschaftliche Inhalte zu vermitteln. Der Kontext wurde dahingehend untersucht, inwiefern er das situationale Interesse der Schülerinnen und Schüler am Physikunterricht beeinflusst und welchen Einfluss er auf die Vermittlung fachlicher und überfachlicher Kompetenzen hat. Die Arbeit basiert auf der Selbstbestimmungstheorie der Motivation von Deci u. Ryan (1993) sowie der pädagogischen Interessentheorie von Krapp u. Prenzel (1992). Um die Interessantheit des Unterrichts im Kontext und den Erwerb von Kompetenzen festzustellen, wurden im Rahmen der Untersuchung zwei quantitative Studien mittels Fragebogenerhebungen und eine qualitative Studie in Form von Leitfaden-Interviews sowohl mit Schülerinnen und Schülern als auch mit Lehrkräften durchgeführt. Die Ergebnisse der Untersuchung zeigen, dass der Unterricht im Kontext „Physik lernen durch lehren“ hinsichtlich der Interessantheit deutlich den herkömmlichen Zugängen überlegen ist. In der Untersuchung wurde eine Reihe von potenziellen Einflussvariablen auf die festgestellte Interessantheit am Unterricht in dem zu unter-suchenden Kontext ermittelt. Der Unterricht wurde in erster Linie aufgrund der naturwissenschaftlichen Veranstaltungen mit den Vor- und Grundschulkindern für die Schülerinnen und Schüler interessanter. Es wurde festgestellt, dass der Kontext besonders bei Schülerinnen und Schülern, die am Unterrichtsfach Physik allgemein unterdurchschnittlich interessiert sind, auf ein größeres situationales Interesse stößt. Insbesondere Mädchen zeigen ein großes situationales Interesse an dem Kontext. Bei dem kontextorientierten Unterricht werden neben fachlichen Kompetenzen vor allem überfachliche Kompetenzen bei den Schülerinnen und Schülern gefördert. Der Schwerpunkt bei den fachlichen Kompetenzen liegt im Bereich des Prozesswissens, und bei den überfachlichen Kompetenzen werden primär das methodisch-problemlösende Lernen und das sozial-kommunikative Lernen gefördert.
Resumo:
Die vorliegende Arbeit befasst sich primär mit der Trauerbewältigung von unmittelbaren Angehörigen und Betroffenen nach dem Amoklauf im Erfurter Gutenberg-Gymnasium vom 26. April 2002. Zur Forschungsmethodik wurde als Erhebungsverfahren eine spezielle Technik der qualitativen Inhaltsanalyse nach Philipp Mayring gewählt. Das Anliegen dabei ist, eine Methodik systematischer Interpretation zu verwenden, die an den in jeder Inhaltsanalyse notwendig enthaltenen qualitativen Bestandteilen ansetzt, sie durch Analyseschritte und Analyseregeln systematisiert und überprüfbar macht. Anhand dieser Forschungsmethode werden die Bewältigungsmechanismen der Trauer von Angehörigen und Betroffenen untersucht. Ferner befasst sich die Arbeit mit bis dato vorliegenden Untersuchungen und Hypothesen zum Amoklauf selbst und erstellt hypothetische Überlegungen zum Täterprofil, sowie eine Literaturrecherche zur Ätiologie und Epidemiologie von Amok.
Resumo:
Diese Arbeit befasst sich mit zwei Aspekten der kohärenten Quantenkontrolle, die sich aus der räumlichen Struktur von Molekülen und der daraus folgenden Vektoreigenschaft der Laser-Molekül-Wechselwirkung ergeben. Im ersten Teil der vorliegenden Arbeit wird zum ersten Mal experimentell gezeigt, dass es möglich ist, den vektoriellen Charakter der Licht-Molekül-Wechselwirkung gezielt zu einer besseren Kontrolle der Moleküldynamik auszunutzen. Dazu wurde in einem Molekularstrahlexperiment die Multi-Photonen-Ionisation von K$_2$-Dimeren durch polarisationsgeformte Femtosekundenlaserpulse untersucht. Mit Hilfe der Technik der Polarisationsformung ist es möglich, Laserpulse zu generieren, bei denen nicht nur der zeitliche Verlauf der Einhüllenden des elektrischen Feldes, sondern auch der zeitliche Verlauf des Polarisationszustandes manipuliert werden kann. Um die optimale Pulsform zu finden, wurde ein adaptives, rückgekoppeltes Verfahren angewandt. Es wird gezeigt, dass im Vergleich zu reiner Phasenformung die Polarisationsformung neue, bisher nicht zugängliche Kontrollmöglichkeiten bietet und so zu einer qualitativ neuen Art von Kontrolle führt. Der zweiten Teil dieser Arbeit hat die Ausrichtung von Molekülen durch ultrakurze Laserpulse zum Thema. Dabei wird zum ersten Mal systematisch untersucht, ob und inwieweit das erzeugte Rotationswellenpaket und damit die erzielte transiente Ausrichtung durch geformte Laserpulse manipuliert und kontrolliert werden kann. Im Experiment wurde mit linear polarisierten phasengeformten Laserpulsen N$_2$ und O$_2$ in Gasphase und bei Raumtemperatur ausgerichtet und der zeitliche Verlauf der so erzeugten transienten Molekülausrichtung aufgenommen. Es wird gezeigt, dass mit Hilfe einer adaptiven Optimierung der Pulsform des Lasers der zeitlichen Verlauf der transienten Molekülausrichtung gezielt manipuliert werden kann. Des weiteren wird die transiente Molekülausrichtung untersucht, die durch Doppelpulse, Pulszüge und durch Pulse mit TOD-Phase erzeugt wird.