995 resultados para Empirische Methode
Resumo:
Die Gabe von organischem Dünger beeinflusst die Menge und die Zusammensetzung der organischen Substanz im landwirtschaftlich genutzten Boden. Dies wirkt sich auch auf den Umfang der mikrobiellen Biomasse im Boden und ihrer Gemeinschaftsstruktur aus. Diese Arbeit beschäftigte sich mit der Untersuchung von mineralischer und organischer Düngung auf die der mikrobiellen Gemeinschaft im Oberboden, Unterboden und unter subtropischen Bedingungen. Der Fokus der Arbeit lag zum einen in der Bestimmung der physiologischen Substratnutzungsdiversität der mikrobiellen Gemeinschaft, zum anderen in der Untersuchung der mikrobiellen Biomasse und deren Residuen nach organischer Düngung. Es konnte in der vorliegenden Arbeit gezeigt werden, dass das Substratnutzungsmuster der mikrobiellen Gemeinschaft sich signifikant zwischen langfristiger Rottemistdüngung und mineralischer Düngung unterscheidet. Diese Trennung wurde hauptsächlich durch die erhöhte Mineralisation von Kohlenhydraten und Aminosäuren gesteuert. Auch wurden der Boden pH-Wert und der Gehalt an organischer Substanz im Boden als Hauptmechanismen für die Unterscheidung der Düngevarianten identifiziert. Wenn auch die multi-SIR Methode keine Effekte von biodynamischen Präparaten auf die Funktion der mikrobiellen Gemeinschaft zeigen konnte, so war eine Trennung zwischen den Düngeintensitäten bei Rottemistdüngung mit biodynamischen Präparaten und mineralischer Düngung möglich. In Bezug dazu war die multi-SIR Methode empfindlicher, als die Bestimmung der mikrobiellen Biomasse oder des organischen Kohlenstoffs im Boden. Ergänzend dazu wurde der Substratnutzungsdiversitätsindex nach langjähriger mineralischer Düngung gegenüber der Rottemistdüngung verringert. Dies könnte auf eine Verminderung der Bodenfruchtbarkeit hindeuten. Auch wurde untersucht, inwieweit die Düngung mit Rottemist die Speicherung des organischen Materials (SOC und N) im Unterboden, einem weltweit bedeutenden C-Speicher, beeinflusst. Ein steigendes C/N-Verhältnis ging einher mit einer Verringerung der mikrobiellen Residualmasse am gesamten organischen Kohlenstoff mit der Tiefe. Langfristige organische Düngung führte zu einer Erhöhung des Verhältnisses pilzlicher zu bakterieller Residuen im Oberboden und steigerte den Gehalt an bakteriellen Residuen im Unterboden gegenüber mineralischer Düngung. Da keine Steigerung des gesamten organischen Kohlenstoffs im Unterboden vorliegt, kann eine Erhöhung des mikrobiellen Umsatzes im Unterboden bei organischer Düngung vermutet werden. Daneben sank das Verhältnis der pilzlichen zu bakteriellen Residuen von 2,6 im Oberboden auf 2,1 im Unterboden. Weitere Untersuchungen sind hier noch nötig, um die Rolle von mikrobiellen Residuen im Unterboden zu zeigen. Des Weiteren wurden die Auswirkungen von mit Aktivkohle und Tanninen angereichertem Ziegenkot auf die mikrobielle Biomasse, ihre Residuen und des organischem Kohlenstoff im Boden untersucht. Die Applikation der Aktivkohle sowie der Tannine erfolgte als Futterzusatz und direkt auf dem Feld. Nach zweijähriger Versuchsdauer unter subtropischen Bedingungen stieg die mikrobielle Biomasse im Boden nach organischer Düngung am stärksten an, gefolgt von den mikrobiellen Residuen und dem organischen Kohlenstoff. Der Anteil des Ergosterols an der gesamten mikrobiellen Biomasse deutete darauf hin, dass der Boden durch einen hohen Gehalt an saprotrophischen Pilzen gekennzeichnet war. Eine Dominanz der bakteriellen Residualmasse lässt einen schnellen Abbau der pilzlichen Residuen vermuten. Auch hatte die Aktivkohle einen positiven Einfluss auf die organische Bodensubstanz und die Zugabe von Tanninen erhöhte den extrahierbaren Stickstoff im Boden. Doch gab es keine Effekte durch die unterschiedlichen Applikationsmethoden auf dem Versuchsfeld. Es wurde gezeigt, dass die organische Düngung sich positiv auf die Bodenqualität auswirkt. Nicht nur das physiologische Profil der mikrobiellen Gemeinschaft wird verändert, sondern auch die mikrobiellen Residuen im gesamten Bodenprofil (0 – 100 cm) werden durch organische Düngung im Vergleich zur mineralischen Düngung erhöht. Die Rolle der mikrobiellen Biomasse und ihrer Residuen als Anzeiger für die Veränderungen in der mikrobiellen Gemeinschaftsstruktur wurde in der vorliegenden Arbeit dargestellt. Dies zeigt einmal mehr, dass diese als Indikator für Veränderungen in der mikrobiellen Gemeinschaftsstruktur herangezogen werden können. Speziell in Nutzungssystemen mit einem schnellen Umsatz der organischen Substanz, wie unter ariden subtropischen Bedingungen, bildet die Bestimmung der mikrobiellen Biomasse und ihrer Residuen eine Möglichkeit, die Dynamik der mikrobiellen Biomasse und der organischen Substanz durch Düngung zu dokumentieren.
Resumo:
Mit der Methode der photoneninduzierten Fluoreszenzspektroskopie (PIFS) wurden spektro- und polarimetrische Fluoreszenzspektren des Xenon-Atoms und der NO- und CO-Moleküle untersucht. Im Bereich der Atomphysik konnten für das Xenon-Atom eindeutige Fluoreszenzkaskadeneffekte vom sichtbaren (VIS) in den vakuumultravioleten (VUV) Spektralbereich beobachtet werden. Das untersuchte Energieintervall zeichnete sich durch 15 gefundene Resonanzen entlang der Anregungsenergieachse der Synchrotronphotonen aus, die auf doppeltangeregte nln′l′-Resonanzen zurückgeführt werden konnten. Im Bereich der Molekülphysik wurden Messdaten der NO A 1Π → X 1Σ+- und CO A 2Π → X 2Σ+-Fluoreszenz nach der Anregung der 1s−1 → 2π-Resonanz untersucht. Durch polarimetrische Untersuchungen konnten in beiden Fällen die Winkelanisotropieparameter β(ω) der Fluoreszenz ermittelt werden und mit ab initio Berechnungen mit unterschiedlichen theoretischen Näherungen vergleichen werden. Der Einfluss quantenmechanischer Interferenzeffekte (LVI und ESI) auf die Winkelanisotropieparameter wurde aufgezeigt. Im Falle des NO- und des CO-Moleküls konnte eine sehr gute Übereinstimmung zwischen der Theorie und dem Experiment nachgewiesen werden. Durch Pioniermessungen an Diamantoiden konnte erstmalig dispergierte Lumineszenz der kleinsten Vertreter der Nanodiamanten nachgewiesen werden. Diese Messungen legen eine Grundlage für eine systematische Erforschung der Nanokristalle zugrunde.
Resumo:
Im Rahmen der vorliegenden Arbeit werden mikroanalytische Verfahren zur Untersuchung der verschiedenen Aspekte der Rissinitiierung und –Ausbreitung unter zyklischer Belastung angewendet und gekoppelt, um somit die Informationstiefe durch Korrelation der Ergebnisse zu vergrößern. Die eingesetzten mikroanalytischen Verfahren werden auf verschiedene polykristalline Werkstoffe mit kubisch-raumzentrierter und kubisch-flächenzentierter Gitterstruktur angewendet. Dabei steht der Einfluss der Mikrostruktur auf die Ausbreitung von Ermüdungsrissen in diesen Werkstoffen im Vordergrund. Die im Rahmen dieser Arbeit untersuchten mikrostrukturellen Größen hinsichtlich der Rissinitiierung und -ausbreitung sind die Phasenverteilung, die Korngröße und –Orientierung, die plastische Verformung infolge von Versetzungsbewegungen und die lokale Beanspruchung. Die Methode der Beugung rückgestreuter Elektronen (EBSD) im Rasterelektronenmikroskop steht dabei im Vordergrund der Untersuchungen der mikrostrukturellen Größen. Zu dieser Methode werden Bildkorrelationsverfahren in ihrer Anwendung untersucht, um lokale Verformungen im Bereich der Rissspitze mikrostrukturell kurzer Risse zu erfassen. Die Kopplung der Verfahren liefert ein vertieftes Verständnis der Schädigungsprozesse bei Ermüdungsbelastung an der Oberfläche. Neben der Untersuchung oberflächenbasierter Aspekte bei der Initiierung und Ausbreitung mikro-strukturell kurzer Risse werden volumenbasierte Methoden in Form mikrocomputertomographischer Verfahren eingesetzt, um das Ausbreitungsverhalten nicht nur an der Oberfläche zu untersuchen, sondern auch zusätzlich in Tiefenrichtung. In diesem Zusammenhang werden in-situ Versuche mit hochbrillianter Röntgenstrahlung am Synchrotron SPring-8 vorgestellt und mittels Methoden der Volumenkorrelation ausgewertet. Die Kopplung der Ergebnisse aus den einzelnen analytischen Verfahren liefert ein Betrag zur Ursachenfindung von Rissinitiierung und –Ausbreitung auf mikrostruktureller Ebene sowohl für oberflächen- als auch volumenbehafte Aspekte.
Resumo:
Ziel dieser Arbeit ist es, die Methode der theologischen Gespräche mit Schülern auch außerhalb einer künstlich geschaffenen Unterrichtssituation anzuwenden und im besten Fall in das normale Unterrichtsgeschehen einfließen zu lassen. Dies soll dazu führen, dass diese Methode ihren experimentellen Charakter ein Stück weit verliert und wie oft von teilnehmenden Religionslehrern angemerkt, von nun an einen Platz im regulären Unterricht haben werde. Die Ziele solcher Gespräche, die in einem späteren Punkt explizit erläutert werden, sollen geringfügig modifiziert werden, so dass man sie erfolgreich von Kleingruppen auf Großgruppen übertragen kann. Gleichzeitig soll dabei jedoch auch weiterhin der Lehrplan berücksichtigt werden, den es im regulären Unterricht einzuhalten gilt. Es soll gezeigt werden, dass auch oder vor allem unter den Richtlinien des Lehrplans vorgegebene Inhalte und Kompetenzen mit dem theologischen Gespräch vereinbar sind. Um die Lehrziele optimal erfüllen zu können, werden einige ausgewählte Methoden, die vorrangig in den theologischen Gesprächen genutzt werden, analysiert und auf ihre Tauglichkeit in Klein-, vor allem aber in Großgruppen hin untersucht. Es soll jedoch nicht nur eine Bewertung dieser Methoden vorgenommen werden, sondern zusätzlich sollen bisherige Erfahrungen miteinfließen und damit das Bild unterschiedlicher Möglichkeiten in theologischen Gesprächen abrunden. Unter anderem werden zur Verdeutlichung Transkripte genutzt, um Unterschiede in der Dynamik der verschiedenen Gruppen am Praxisbeispiel zu verdeutlichen. Die Erfahrungen und Reflexionen des unternommenen qualitativen Vergleichs werden anschließend in Form von persönlichen Hinweisen im letzten Abschnitt ergänzt und zusammengefasst. Ziel dieser Hinweise ist es, Lehrkräften praktische Hilfen an die Hand zu geben, die sich der Aufgabe der theologischen Gespräche im regulären Unterricht in einer Großgruppe stellen möchten.
Resumo:
Qualitative empirische Studie zur lebenslangen politischen Partizipation von Frauen der Hitlerjugendgeneration
Resumo:
In dieser Arbeit wird der Zusammenhang des kooperativen Lernens mit der Entwicklung von sozialen und sozial-kommunikativen Kompetenzen bei Schülern aufgeführt und die Funktion der Lehrkraft bei kooperativ ausgerichtetem Unterricht behandelt. Im zweiten Kapitel der Arbeit werden die Basiselemente kooperativen Lernens- und Lehrens und die einzelnen Elemente, aus denen sich kooperative Unterrichtssituationen zusammensetzen, vorgestellt. Des Weiteren werden einige methodische Formen der kooperativen Lehr- und Lernformen vorgestellt, sowie empirische Ergebnisse bezüglich des kooperativen Lernens aufgezeigt. Im dritten Punkt der Arbeit werden die beim kooperativen Lernen im Mittelpunkt stehenden Kompetenzen erläutert. Schwerpunkt dieses Kompetenzbereiches sind in dieser Arbeit die sozialen und kommunikativen Kompetenzen. Ich werde die Frage behandeln, inwiefern kooperative Lernformen das Kompetenzverhalten von Schülern positiv beeinflussen und welche Faktoren bei dieser positiven Einflussnahme eine Rolle spielen. An faktischen Beispielen werde ich die Phasen konkreten sozialen- und kommunikativen Handelns im Schulunterricht vorstellen und die daraus resultierenden Folgen und Forderungen an die Institution Schule darstellen. Im vierten Kapitel dieser Arbeit stelle ich eine von mir durchgeführte empirische Studie vor, die den Zusammenhang zwischen kooperativen Lernformen und der Förderung sozial-kommunikativer Kompetenzen im Schulunterricht untersucht. Dafür werde ich zunächst die Rahmenbedingungen der Studie vorstellen, um dann konkrete Angaben zur Durchführung zu machen. Das fünfte Fragment der Arbeit inkludiert die Erhebungselemente, die für die Durchführung und Auswertung der Studie verwendet wurden. Der sechste Passus beinhaltet die Durchführung der Studie und eine Erläuterung der verschiedenen methodischen und didaktischen Mittel, die für die Implementierung notwendig waren. Das siebte Kapitel umfasst die Auswertung der durchgeführten Studie. Im achten Kapitel werde ich ein abschließendes Fazit darlegen und die Arbeit noch einmal retrospektiv betrachten.
Resumo:
In this thesis, optical gain measurement setup based on variable stripe length method is designed, implemented and improved. The setup is characterized using inorganic and organic samples. The optical gain of spiro-quaterphenyl is calculated and compared with measurements from the setup. Films with various thicknesses of spiro-quaterphenyl, methoxy-spiro-quaterphenyl and phenoxy-spiro-quaterphenyl are deposited by a vacuum vapor deposition technique forming asymmetric slab waveguides. The optical properties, laser emission threshold, optical gain and loss coefficient for these films are measured. Additionally, the photodegradation during pumping process is investigated.
Resumo:
The ongoing depletion of the coastal aquifer in the Gaza strip due to groundwater overexploitation has led to the process of seawater intrusion, which is continually becoming a serious problem in Gaza, as the seawater has further invaded into many sections along the coastal shoreline. As a first step to get a hold on the problem, the artificial neural network (ANN)-model has been applied as a new approach and an attractive tool to study and predict groundwater levels without applying physically based hydrologic parameters, and also for the purpose to improve the understanding of complex groundwater systems and which is able to show the effects of hydrologic, meteorological and anthropogenic impacts on the groundwater conditions. Prediction of the future behaviour of the seawater intrusion process in the Gaza aquifer is thus of crucial importance to safeguard the already scarce groundwater resources in the region. In this study the coupled three-dimensional groundwater flow and density-dependent solute transport model SEAWAT, as implemented in Visual MODFLOW, is applied to the Gaza coastal aquifer system to simulate the location and the dynamics of the saltwater–freshwater interface in the aquifer in the time period 2000-2010. A very good agreement between simulated and observed TDS salinities with a correlation coefficient of 0.902 and 0.883 for both steady-state and transient calibration is obtained. After successful calibration of the solute transport model, simulation of future management scenarios for the Gaza aquifer have been carried out, in order to get a more comprehensive view of the effects of the artificial recharge planned in the Gaza strip for some time on forestall, or even to remedy, the presently existing adverse aquifer conditions, namely, low groundwater heads and high salinity by the end of the target simulation period, year 2040. To that avail, numerous management scenarios schemes are examined to maintain the ground water system and to control the salinity distributions within the target period 2011-2040. In the first, pessimistic scenario, it is assumed that pumping from the aquifer continues to increase in the near future to meet the rising water demand, and that there is not further recharge to the aquifer than what is provided by natural precipitation. The second, optimistic scenario assumes that treated surficial wastewater can be used as a source of additional artificial recharge to the aquifer which, in principle, should not only lead to an increased sustainable yield of the latter, but could, in the best of all cases, revert even some of the adverse present-day conditions in the aquifer, i.e., seawater intrusion. This scenario has been done with three different cases which differ by the locations and the extensions of the injection-fields for the treated wastewater. The results obtained with the first (do-nothing) scenario indicate that there will be ongoing negative impacts on the aquifer, such as a higher propensity for strong seawater intrusion into the Gaza aquifer. This scenario illustrates that, compared with 2010 situation of the baseline model, at the end of simulation period, year 2040, the amount of saltwater intrusion into the coastal aquifer will be increased by about 35 %, whereas the salinity will be increased by 34 %. In contrast, all three cases of the second (artificial recharge) scenario group can partly revert the present seawater intrusion. From the water budget point of view, compared with the first (do nothing) scenario, for year 2040, the water added to the aquifer by artificial recharge will reduces the amount of water entering the aquifer by seawater intrusion by 81, 77and 72 %, for the three recharge cases, respectively. Meanwhile, the salinity in the Gaza aquifer will be decreased by 15, 32 and 26% for the three cases, respectively.
Resumo:
Summary - Cooking banana is one of the most important crops in Uganda; it is a staple food and source of household income in rural areas. The most common cooking banana is locally called matooke, a Musa sp triploid acuminate genome group (AAA-EAHB). It is perishable and traded in fresh form leading to very high postharvest losses (22-45%). This is attributed to: non-uniform level of harvest maturity, poor handling, bulk transportation and lack of value addition/processing technologies, which are currently the main challenges for trade and export, and diversified utilization of matooke. Drying is one of the oldest technologies employed in processing of agricultural produce. A lot of research has been carried out on drying of fruits and vegetables, but little information is available on matooke. Drying of matooke and milling it to flour extends its shelf-life is an important means to overcome the above challenges. Raw matooke flour is a generic flour developed to improve shelf stability of the fruit and to find alternative uses. It is rich in starch (80 - 85%db) and subsequently has a high potential as a calorie resource base. It possesses good properties for both food and non-food industrial use. Some effort has been done to commercialize the processing of matooke but there is still limited information on its processing into flour. It was imperative to carry out an in-depth study to bridge the following gaps: lack of accurate information on the maturity window within which matooke for processing into flour can be harvested leading to non-uniform quality of matooke flour; there is no information on moisture sorption isotherm for matooke from which the minimum equilibrium moisture content in relation to temperature and relative humidity is obtainable, below which the dry matooke would be microbiologically shelf-stable; and lack of information on drying behavior of matooke and standardized processing parameters for matooke in relation to physicochemical properties of the flour. The main objective of the study was to establish the optimum harvest maturity window and optimize the processing parameters for obtaining standardized microbiologically shelf-stable matooke flour with good starch quality attributes. This research was designed to: i) establish the optimum maturity harvest window within which matooke can be harvested to produce a consistent quality of matooke flour, ii) establish the sorption isotherms for matooke, iii) establish the effect of process parameters on drying characteristics of matooke, iv) optimize the drying process parameters for matooke, v) validate the models of maturity and optimum process parameters and vi) standardize process parameters for commercial processing of matooke. Samples were obtained from a banana plantation at Presidential Initiative on Banana Industrial Development (PIBID), Technology Business Incubation Center (TBI) at Nyaruzunga – Bushenyi in Western Uganda. A completely randomized design (CRD) was employed in selecting the banana stools from which samples for the experiments were picked. The cultivar Mbwazirume which is soft cooking and commonly grown in Bushenyi was selected for the study. The static gravitation method recommended by COST 90 Project (Wolf et al., 1985), was used for determination of moisture sorption isotherms. A research dryer developed for this research. All experiments were carried out in laboratories at TBI. The physiological maturity of matooke cv. mbwazirume at Bushenyi is 21 weeks. The optimum harvest maturity window for commercial processing of matooke flour (Raw Tooke Flour - RTF) at Bushenyi is between 15-21 weeks. The finger weight model is recommended for farmers to estimate harvest maturity for matooke and the combined model of finger weight and pulp peel ratio is recommended for commercial processors. Matooke isotherms exhibited type II curve behavior which is characteristic of foodstuffs. The GAB model best described all the adsorption and desorption moisture isotherms. For commercial processing of matooke, in order to obtain a microbiologically shelf-stable dry product. It is recommended to dry it to moisture content below or equal to 10% (wb). The hysteresis phenomenon was exhibited by the moisture sorption isotherms for matooke. The isoteric heat of sorption for both adsorptions and desorption isotherms increased with decreased moisture content. The total isosteric heat of sorption for matooke: adsorption isotherm ranged from 4,586 – 2,386 kJ/kg and desorption isotherm from 18,194– 2,391 kJ/kg for equilibrium moisture content from 0.3 – 0.01 (db) respectively. The minimum energy required for drying matooke from 80 – 10% (wb) is 8,124 kJ/kg of water removed. Implying that the minimum energy required for drying of 1 kg of fresh matooke from 80 - 10% (wb) is 5,793 kJ. The drying of matooke takes place in three steps: the warm-up and the two falling rate periods. The drying rate constant for all processing parameters ranged from 5,793 kJ and effective diffusivity ranged from 1.5E-10 - 8.27E-10 m2/s. The activation energy (Ea) for matooke was 16.3kJ/mol (1,605 kJ/kg). Comparing the activation energy (Ea) with the net isosteric heat of sorption for desorption isotherm (qst) (1,297.62) at 0.1 (kg water/kg dry matter), indicated that Ea was higher than qst suggesting that moisture molecules travel in liquid form in matooke slices. The total color difference (ΔE*) between the fresh and dry samples, was lowest for effect of thickness of 7 mm, followed by air velocity of 6 m/s, and then drying air temperature at 70˚C. The drying system controlled by set surface product temperature, reduced the drying time by 50% compared to that of a drying system controlled by set air drying temperature. The processing parameters did not have a significant effect on physicochemical and quality attributes, suggesting that any drying air temperature can be used in the initial stages of drying as long as the product temperature does not exceed gelatinization temperature of matooke (72˚C). The optimum processing parameters for single-layer drying of matooke are: thickness = 3 mm, air temperatures 70˚C, dew point temperature 18˚C and air velocity 6 m/s overflow mode. From practical point of view it is recommended that for commercial processing of matooke, to employ multi-layer drying of loading capacity equal or less than 7 kg/m², thickness 3 mm, air temperatures 70˚C, dew point temperature 18˚C and air velocity 6 m/s overflow mode.
Resumo:
Wir leben in einer schnelllebigen unsicheren Welt. In einer Welt, in der fast jede Person schon einmal ein Gefühl von Wertlosigkeit und Ausgrenzung verspürt hat. Im vorliegenden an einer Schnittstelle zwischen Soziologie und Psychologie lokalisierten Dissertationsprojekt wird sich mit eben diesem aversiven Empfinden, sozial sowie gesellschaftlich überflüssig und ausgeschlossen zu sein, in Entstehung und möglichen Auswirkungen auseinandergesetzt. Dafür wurden eine deutschlandweite Telefon- und zwei experimentelle Laborstudien durchgeführt. Die theoretische und empirische Basis der Arbeit bilden soziologische Ansätze wie die Theorie der Desintegration (Anhut & Heitmeyer, 2000, 2009), psychologische Modelle wie das "Need-Threat"-Modell sozialer Ausgrenzung (Williams, 2009) und interdisziplinäre sozialwissenschaftliche Studien (Bude & Lantermann, 2006; Heitmeyer, 2002-2012; Lantermann, Döring-Seipel, Eierdanz & Gerhold, 2009). Die Befunde der Telefonstudie zeigen, dass die individuelle Wahrnehmung und Empfindung nicht unweigerlich vorhandene objektiv prekäre Lebenslagen akkurat spiegelt. So können ausgeprägte interne Ressourcen wie die des Kohärenzsinns einen positiven Effekt objektiver zum Beispiel finanzieller und/oder sozialer Prekarität auf subjektives soziales sowie gesellschaftliches Exklusionsempfinden abschwächen. Auch zeigte sich im experimentellen Kontext, dass induzierter sozialer Ausschluss nicht zu empfundener sozialer Exklusion führen muss. Als mögliche Auswirkungen empfundener sozialer und gesellschaftlicher Exklusion wurden ein Streben nach sozialem Anschluss über eine verstärkte Identifikation mit sozialen Eigengruppen wie der religiösen oder nationalen Eigengruppe (Telefonstudie, Laborstudie II) sowie ebenfalls aggressive feindselige Tendenzen über fremdenfeindliche oder antisemitische Haltungen (Telefonstudie) aufgedeckt. Weiterhin stellt generelle Selbstunsicherheit einen Mediator zwischen empfundener Exklusion und der sozialen Eigengruppenidentifikation über die nationale Eigengruppe dar (Telefonstudie). Ein Fokus des Dissertationsprojekts lag zudem auf einer ersten Untersuchung von Indikatoren eines kontrollbasierten Drei-Phasenmodells im Umgang mit subjektiv empfundener Exklusion (Telefonstudie, Laborstudie I). Basierend auf dem Modell kann ein Prozess empfundener Exklusion erstmalig empirisch analysiert werden, welcher sich auch in potenziellen Folgen wie einem erhöhten sozialen Anschlussstreben oder verstärkten aggressiven Tendenzen spiegeln sollte. Das Phasenmodell wurde aus den Theorien psychologischer Reaktanz (Brehm & Brehm, 1981), sekundärer Kontrolle (Rothbaum, Weisz & Snyder, 1982) und erlernter Hilflosigkeit (Seligman, 1975, 1992) abgeleitet. Aus den empirischen Befunden gezogene theoretische Schlussfolgerungen werden abschließend dargestellt und diskutiert. Zudem werden Hinweise für eine zukünftige Exklusionsforschung gegeben. So erscheint beispielsweise eine Differenzierung zwischen sozial und gesellschaftlich empfundener Exklusion auch hinsichtlich resultierender Gedanken, Gefühle und Verhaltensweisen für weitere sozialwissenschaftliche Untersuchungen interessant.
Resumo:
Im Rahmen der Dichtefunktionaltheorie wurden Orbitalfunktionale wie z.B. B3LYP entwickelt. Diese lassen sich mit der „optimized effective potential“ – Methode selbstkonsistent auswerten. Während sie früher nur im 1D-Fall genau berechnet werden konnte, entwickelten Kümmel und Perdew eine Methode, bei der das OEP-Problem unter Verwendung einer Differentialgleichung selbstkonsistent gelöst werden kann. In dieser Arbeit wird ein Finite-Elemente-Mehrgitter-Verfahren verwendet, um die entstehenden Gleichungen zu lösen und damit Energien, Dichten und Ionisationsenergien für Atome und zweiatomige Moleküle zu berechnen. Als Orbitalfunktional wird dabei der „exakte Austausch“ verwendet; das Programm ist aber leicht auf jedes beliebige Funktional erweiterbar. Für das Be-Atom ließ sich mit 8.Ordnung –FEM die Gesamtenergien etwa um 2 Größenordnungen genauer berechnen als der Finite-Differenzen-Code von Makmal et al. Für die Eigenwerte und die Eigenschaften der Atome N und Ne wurde die Genauigkeit anderer numerischer Methoden erreicht. Die Rechenzeit wuchs erwartungsgemäß linear mit der Punktzahl. Trotz recht langsamer scf-Konvergenz wurden für das Molekül LiH Genauigkeiten wie bei FD und bei HF um 2-3 Größenordnungen bessere als mit Basismethoden erzielt. Damit zeigt sich, dass auf diese Weise benchmark-Rechnungen durchgeführt werden können. Diese dürften wegen der schnellen Konvergenz über der Punktzahl und dem geringen Zeitaufwand auch auf schwerere Systeme ausweitbar sein.
Resumo:
Die Dissertation besteht im Wesentlichen aus zwei Teilen: der Synopse und einem empirischen Teil. In der Synopse werden die Befunde aus dem empirischen Teil zusammengefasst und mit der bisherigen Forschungsliteratur in Zusammenhang gesetzt. Im empirischen Teil werden alle Studien, die für diese Dissertation durchgeführt wurden, in Paper-Format berichtet. Im ersten Teil der Synopse werden grundlegende Annahmen der Terror Management Theorie (TMT) dargelegt—mit besonderem Schwerpunkt auf die Mortalitätssalienz (MS)-Hypothese, die besagt, dass die Konfrontation mit der eigenen Sterblichkeit die Motivation erhöht das eigene Weltbild zu verteidigen und nach Selbstwert zu streben. In diesem Kontext wird auch die zentrale Rolle von Gruppen erklärt. Basierend auf diesen beiden Reaktionen, wird TMT Literatur angeführt, die sich auf bestimmte kulturelle Werte und soziale Normen bezieht (wie prosoziale und pro-Umwelt Normen, materialistische und religiöse Werte, dem Wert der Ehrlichkeit, die Norm der Reziprozität und deskriptive Normen). Darüber hinaus werden Randbedingungen, wie Gruppenmitgliedschaft und Norm-Salienz, diskutiert. Zuletzt folgt eine Diskussion über die Rolle von Gruppen, der Funktion des Selbstwerts und über Perspektiven einer friedlichen Koexistenz. Der empirische Teil enthält elf Studien, die in acht Papern berichtet werden. Das erste Paper behandelt die Rolle von Gruppenmitgliedschaft unter MS, wenn es um die Bewertung von anderen geht. Das zweite Manuskript geht der Idee nach, dass Dominanz über andere für Sadisten eine mögliche Quelle für Selbstwert ist und daher unter MS verstärkt ausgeübt wird. Das dritte Paper untersucht prosoziales Verhalten in einer Face-to-Face Interaktion. Im vierten Paper wird gezeigt, dass Personen (z.B. Edward Snowden), die im Namen der Wahrheit handeln, unter MS positiver bewertet werden. Im fünften Paper zeigen zwei Studien, dass MS dazu führt, dass mögliche gelogene Aussagen kritischer beurteilt werden. Das sechste Paper zeigt, dass der Norm der Reziprozität unter MS stärker zugestimmt wird. Das siebte Paper geht der Frage nach, inwiefern MS das Einhalten dieser Norm beeinflusst. Und schließlich wird im achten Paper gezeigt, dass MS die Effektivität der Door-in-the-Face Technik erhöht—eine Technik, die auf der Norm der Reziprozität basiert.
Resumo:
Die Arbeit beschäftigt sich mit der Frage, wie Bürger an der Inventarisierung historischer Kulturlandschaftselemente mitwirken können und welche Leistungen von ihnen erbracht werden können. Dabei wird der Fokus darauf gerichtet, ob mit einer optimalen organisatorischen und methodischen Herangehensweise ein Inventar historischer Kulturlandschaftselemente erstellt werden kann, das auch den Anforderungen für eine planerische Anwendung genügt. Forschungsschwerpunkte der Arbeit sind entsprechend die Inventarisierung historischer Kulturlandschaftselemente und die Anforderungen an die dabei erstellten Inventare sowie die Möglichkeiten für bürgerschaftliches Engagement bei der Inventarisierung. Darüber hinaus wird der Frage nachgegangen, ob mit dem bürgerschaftlichen Engagement bei der Inventarisierung ein sonstiger Mehrwert verbunden ist. Die Untersuchung wird anhand von Fallstudien durchgeführt. Empirische Grundlage sind acht ausgewählte Beispielprojekte, in denen Bürger an der Inventarisierung historischer Kulturlandschaftselemente mitwirken bzw. diese durchführen. Um einen möglichst großen Erfahrungspool zu erschließen wurden Fallbeispiele gewählt, die sich u. a. hinsichtlich der Rahmenbedingungen, der Organisationsstrukturen, dem Maß und der Art der Mitwirkung von Bürgern unterscheiden. Die detaillierte Analyse dieser Projekte und die Evaluierung der in ihrem Rahmen erstellten Inventare ist Hauptgegenstand dieser Arbeit und eine Grundlage für die Entwicklung von Empfehlungen für bürgerschaftliches Engagement bei der Inventarisierung historischer Kulturlandschaftselemente. Die Datenerhebung für die Analyse und Evaluierung erfolgt in erster Linie mittels Befragungen. Die Untersuchung zeigt, dass durch bürgerschaftliches Engagement wertvolle Beiträge zur Inventarisierung historischer Kulturlandschaftselemente geleistet werden können. In der Bevölkerung gibt es sowohl Interesse an der aktiven Mitwirkung als auch Kompetenzen, um unter Anleitung historische Kulturlandschaftselemente zu erfassen. Es müssen jedoch einige methodische Hinweise berücksichtigt und Maßnahmen getroffen werden, um Defizite, die sich durch die Erfassung durch Freiwillige ergeben können, zu vermeiden. So ist es bspw. zwingend notwendig, organisatorische Strukturen, Methoden und Standards vorzugeben, die Freiwilligen anzuleiten und ggf. zu unterstützen sowie die erhobenen Daten zu prüfen und in einem gewissen Umfang auch zu qualifizieren. Wenn die Inventarisierungen von Fachexperten aufgebaut und gesteuert werden, kann verhindert werden, dass die methodische Vorgehensweise von den fachlichen Anforderungen abweicht, und dass falsch erhobene und bewertete Daten verbreitet werden. Nicht von der Hand zu weisen ist der hohe Organisations- und Betreuungsaufwand sowie der Aufwand zur Prüfung und Nachbesserung der Daten, der mit der Beteiligung von Bürgern einhergeht. Doch selbst wenn die erfassten Daten der Bürger nur eine Grundlage bilden, die geprüft und für eine planerische Verwendung weiter qualifiziert werden muss, können durch die Einbindung von Bürgern wichtige Beiträge zum Erhalt der Kulturlandschaft geleistet werden. Neben der Datenerfassung werden zahlreiche Bürger für das Themenfeld Kulturlandschaft sensibilisiert, so dass die Anliegen zum Erhalt der Kulturlandschaft in weiten Teilen der Bevölkerung an Bedeutung gewinnen und verankert werden können. Um das Potenzial bürgerschaftlichen Engagements für die Inventarisierung historischer Kulturlandschaftselemente optimal nutzen zu können, und um möglichst bundes- oder landesweit einheitliche Inventare zu erstellen die Akzeptanz finden und für die Planung und weitere Anwendungszwecke genutzt werden, besteht noch Entwicklungs- und Abstimmungsbedarf. Manche Entwicklungen stehen nicht in Zusammenhang mit der Beteiligung von Bürgern, sondern sind generell notwendig, um einheitliche und möglichst landes- oder gar bundesweite Inventarisierungen historischer Kulturlandschaftselemente zu realisieren. Dies betrifft z. B. die Konsensfindung unter den Behörden und Fachstellen bezüglich methodischer Fragen und der Zuständigkeiten oder die Entwicklung eines geeigneten GIS-basierten Online-Inventars.