1000 resultados para Experimentelle Untersuchung
Resumo:
Numerous studies have proven an effect of a probable climate change on the hydrosphere’s different subsystems. In the 21st century global and regional redistribution of water has to be expected and it is very likely that extreme weather phenomenon will occur more frequently. From a global view the flood situation will exacerbate. In contrast to these discoveries the classical approach of flood frequency analysis provides terms like “mean flood recurrence interval”. But for this analysis to be valid there is a need for the precondition of stationary distribution parameters which implies that the flood frequencies are constant in time. Newer approaches take into account extreme value distributions with time-dependent parameters. But the latter implies a discard of the mentioned old terminology that has been used up-to-date in engineering hydrology. On the regional scale climate change affects the hydrosphere in various ways. So, the question appears to be whether in central Europe the classical approach of flood frequency analysis is not usable anymore and whether the traditional terminology should be renewed. In the present case study hydro-meteorological time series of the Fulda catchment area (6930 km²), upstream of the gauging station Bonaforth, are analyzed for the time period 1960 to 2100. At first a distributed catchment area model (SWAT2005) is build up, calibrated and finally validated. The Edertal reservoir is regulated as well by a feedback control of the catchments output in case of low water. Due to this intricacy a special modeling strategy has been necessary: The study area is divided into three SWAT basin models and an additional physically-based reservoir model is developed. To further improve the streamflow predictions of the SWAT model, a correction by an artificial neural network (ANN) has been tested successfully which opens a new way to improve hydrological models. With this extension the calibration and validation of the SWAT model for the Fulda catchment area is improved significantly. After calibration of the model for the past 20th century observed streamflow, the SWAT model is driven by high resolution climate data of the regional model REMO using the IPCC scenarios A1B, A2, and B1, to generate future runoff time series for the 21th century for the various sub-basins in the study area. In a second step flood time series HQ(a) are derived from the 21st century runoff time series (scenarios A1B, A2, and B1). Then these flood projections are extensively tested with regard to stationarity, homogeneity and statistical independence. All these tests indicate that the SWAT-predicted 21st-century trends in the flood regime are not significant. Within the projected time the members of the flood time series are proven to be stationary and independent events. Hence, the classical stationary approach of flood frequency analysis can still be used within the Fulda catchment area, notwithstanding the fact that some regional climate change has been predicted using the IPCC scenarios. It should be noted, however, that the present results are not transferable to other catchment areas. Finally a new method is presented that enables the calculation of extreme flood statistics, even if the flood time series is non-stationary and also if the latter exhibits short- and longterm persistence. This method, which is called Flood Series Maximum Analysis here, enables the calculation of maximum design floods for a given risk- or safety level and time period.
Resumo:
ZUSAMMENFASSUNG: Das Phosphorylierungsmuster eines Proteins ist kein statischer Zustand, sondern vielmehr ein dynamischer Status, den es in der modernen funktionellen (Phospho-) Proteomik und Analytik abzubilden gilt. Klassischerweise erfolgt der Nachweis der Proteinphosphorylierung auf Peptid-Ebene mittels MS/MS Sequenzierung. Diese Standardmethode der shotgun Phosphoproteomanalytik vernachlässigt jedoch wegen den in LC MS/MS Analysen oftmals schwer detektierbaren Phosphopeptiden gerade den variablen und oftmals nur geringen Phosphorylierungsgrad vieler Phosphorylierungsstellen (P-Stellen). Mittels phosphospezifischer Anreicherungsstrategien und MS/MS Sequenzierung konnten an der Modellkinase PKA-Cα nach rekombinanter Expression in E. coli insgesamt acht P-Stellen identifiziert werden. Der Phosphorylierungsgrad wurde in Kooperation mit Dr. J. Seidler über quantitative Signalintensitätsmessungen bestimmt und zeigte eine nahezu vollständige Phosphorylierung von pS10, pS139, pT197 und pS338, während der Phosphorylierungsgrad für pS34, pS53, pS65 und pS259 zwischen <5 und 45 % variierte. Neben der Quantifizierung der P-Stellen wurde auch das Auftreten und die Verteilung definierter Phosphoformen der PKA-Cα untersucht und deren Abhängigkeit von der primären Aminosäureabfolge, dem Auftreten von zusätzlichen Modifikationen sowie den gewählten Expressions- und Reinigungsbedingungen aufgezeigt. Endogene, aus Säugergewebe isolierte PKA-Cα wies nur eine einzige Phosphoform mit den P-Stellen pT197 und pS338 auf. Auch in vitro autophosphorylierte rekombinante PKA-Cα, die zuvor dephosphoryliert worden war, wies eine zweifach modifizierte Phosphoform auf. Im Vergleich zum endogenen Protein ließ sich dieses Protein an S10 und S338 exzessiv phosphorylieren, wohingegen an T197 keine Autophosphorylierung nachzuweisen war. Das Ausbleiben weiterer Phosphorylierungen stellt in Frage, ob die Hyperphosphorylierung in E. coli ausschließlich auf Autophosphorylierungsprozessen beruht, was anhand einer nicht phosphorylierten, katalytisch inaktiven Variante von PKA-Cα (PKA-Cα K72H) vermutet wurde. Im Hinblick auf die funktionellen P-Stellen pT197 und pS338 erfordert diese Entdeckung sowie der unabhängige Nachweis, dass zellfrei exprimierte PKA-Cα nur an S338 phosphoryliert ist, eine Modifizierung des sequenziellen Vorhersagemodells, wonach die Phosphorylierung an T197 eine zwingende Voraussetzung für die nachfolgende Phosphorylierung an S338 ist. Ferner konnte über phosphomimetische Mutagenese die Funktionalität der Phosphorylierung an S53 innerhalb der glycinreichen Schleife der PKA-Cα und somit ein potenzieller Weg zur Regulation der enzymatischen Aktivität gezeigt werden. Ein weiterer möglicher upstream Regulator von PKA-Cα ist die Proteinphosphatase 5, die in der Lage war, die bislang als phosphatasestabil beschriebene P Stelle pT197 in vitro zu dephosphorylieren. Die vorliegende Arbeit zeigt, dass der Phosphorylierungszustand eines Proteins von zahlreichen internen und externen Faktoren abhängt – eine Tatsache, die gerade für rekombinante Proteine, insbesondere enzymatisch aktive Kinasen, oft vernachlässigt wurde. Daher müssen auch in der shotgun Phosphoproteomanalytik P-Stellen nicht mehr nur identifiziert und quantifiziert werden, sondern die resultierenden Proteinphosphoformen differenziert auch in ihrem physiologischen Kontext beschrieben werden.
Resumo:
Im europäischen Raum, welcher geprägt ist von einer hohen kulturellen und sprachlichen Diversität auf vergleichsweise engem Raum, ist eine Austausch der Kulturen und wirtschaftlich gesehen, ein Austausch von Know-How und Export- und Importgütern, zu einer treibenden multilateralen Kraft geworden. Dieses Treiben ist jedoch stark von der Verständigung abhängig. Bildungspolitisch hat sich viel Bewegt, als die ersten PISA-Ergebnisse dem so überlegen geglaubten deutschen Bildungssystem eine gehörige Ohrfeige verpasst haben. Diese Entwicklung hat vielerlei Blüten hervorgerufen, welche sich in der Bildungslandschaft mal weniger und mal mehr manifestiert haben. Eine wohl nicht mehr wegzudenkende Blüte ist der bilinguale Unterricht. Dieser, so verspricht man sich, birgt ein Potenzial in sich, welches das Zusammenwachsen Europas forcieren kann. Es werden demnach nicht nur Sprache und Fachwissen nebeneinander gelehrt und gelernt, sondern dies passiert auf einer ganz neuen Ebene: Nämlich zeitgleich! Das Problem an dieser Blüte ist, dass sie gesellschaftlich viel gefordert wird, da ihr Potenzial so verführerisch duftet. Aus diesem Grund hat die Schullandschaft sehr schnell darauf reagiert und Konzepte bilingualen Unterrichts ins Leben gerufen, die schnellen Erfolg versprechen. Die Forschung konnte mit dieser rasanten Entwicklung jedoch nicht mithalten, sodass es mittlerweile viele Etablierte bilinguale Angebote gibt, deren Erfolg jedoch nicht wissenschaftlich nachgewiesen ist. Das Spracherwerbspotenzial des bilingualen Unterrichts ist zwar weitestgehend untersucht und bestätigt worden, allerdings hat dieser Forschungsansatz seinen Ursprung in der Fremdsprachendidaktik. Wie es sich mit der fachlichen Kompetenz verhält ist dagegen umstritten. Aber sollten nicht zwei Fliegen mit einer Klappe geschlagen werden? Kann also eine bilinguale Fachkompetenz erfolgreich vermittelt und von den Schülern angewandt werden? Diese Arbeit konzentriert sich daher auf zwei dieser Blüten des bilingualen Biologieunterrichts, um festzustellen, ob es einen Unterschied in der Ausprägung der Kompetenzen zwischen modularem, oder auch epochal genannten, Biologieunterricht und dem Biologieunterricht in einem bilingualen Schulzweig gibt. Es wird davon ausgegangen, dass aufgrund der Klassen- und Unterrichtsstruktur der Schulzweig diesen Anforderungen eher gewachsen ist, als es im modularen bilingualen Biologieunterricht der Fall ist. Weiterhin werden motivationale Faktoren und Faktoren des Selbstkonzepts der Schüler untersucht, um Aufschluss darüber zu erhalten, was zum vermeintlichen Erfolg der einen Blüte beiträgt.
Resumo:
Als Kräuter werden alle krautigen Pflanzen, die nicht zu den Gehölzen und zu den Gräsern zählen, bezeichnet. Sie erfüllen wichtige Funktionen bei der Förderung von Insekten und der Ästhetik von Landschaften und tragen zur Verbesserung des Grundfutters landwirtschaftlicher Nutztiere bei. Ansaaten von Kräutern in geschlossene Vegetationsdecken und bei Neuanlagen sind durch deren langandauernde Entwicklungsphasen sehr schwierig zu realisieren. Eine innovative Option zur Etablierung in Grünlandbeständen kann die Herstellung von Kräutersoden sein. Ziel dieser Arbeit ist die Untersuchung der Eignung von Kräutern zur Sodenproduktion. Durch unterschiedliche Merkmale von Kräutern und Gräsern können Probleme bei der Entwicklung von Kräutersoden auftreten. In dieser Arbeit sind verschiedene Anbauversuche mit Wurzelkürzungen und Ertragsbestimmungen sowie Sodenverpflanzungen, die Ermittlung eines optimalen Trägermaterials und Untersuchungen zur Entwicklung eines Sodenschneidersystems durchgeführt worden. Wurzelkürzungen an Kräutern ergaben, dass die Bildung der Gesamtwurzelmasse, der Wurzelneubildung und der Masse des Oberbewuchses bei einzelnen Kräutern nur z.T. im Zusammenhang mit der Schnitttiefe stehen und die Entwicklungsstadien der Kräuter keine signifikanten Unterschiede aufzeigen. Hieraus ergibt sich, dass ein Wurzelschnitt generell möglich ist, jedoch verschiedenen Arte von Kräutern unterschiedlich stark auf diesen reagieren. Zu den Entwicklungsstadien, zum Ertrag des Bewuchses und zum Anwurzelungsverhalten von Kräutersoden können in Abhängigkeit vom Vorzuchtsort und im Vergleich zu Fertigrasen keine abschließenden Aussagen getroffen werden. Es besteht daher weiterer Forschungsbedarf. Ein kombinierter Anbau mit Untergräsern eignet sich durch die wuchsverdrängende Wirkung nicht zur Stabilisierung von Kräutersoden. Es konnte aber gezeigt werden, dass Trägermaterial aus Kokosfaser durch die hohe Zugfestigkeit und der Langlebigkeit des Materials geeignet ist. Demzufolge könnte es bei der Produktion von Kräutersoden eine wichtige Rolle spielen. Das Design von Sodenschneidertechnik aus dem Fertigrasenanbau kann nicht auf die Erzeugung von Kräutersoden übertragen werden, da Kräuter andere Wurzelmerkmale als Gräser haben und sich daher spezielle Anforderungen ergeben. Für einen erfolgreichen Schälvorgang von Kräutersoden bedarf es der Entwicklung einer speziell angepassten Technik. Denkbar währe die Verwendung oszillierender Schneideorgane, welche den Schneidevorgang besser ermöglichen könnten. Dadurch, dass ein flacher Wurzelschnitt bei Kräutern erfolgen kann, ist eine Erzeugung von Kräutersoden möglich. Aufgrund von morphologischen Unterschieden zwischen Kräutern und Gräsern unterscheiden sich diese in ihren Anforderungsprofilen, die Techniken der Fertigrasenproduktion können somit nicht direkt auf eine Kräutersodenproduktion übertragen werden. Mit dieser Arbeit fand ein erster Ansatz zur technischen Entwicklung einer Kräutersodenproduktion statt. Die Versuche haben gezeigt, dass noch viele Fragen bei der Entwicklung von Kräutersoden offen sind.
Resumo:
In dieser Arbeit wurde ein gemischt-ganzzahliges lineares Einsatzoptimierungsmodell für Kraftwerke und Speicher aufgebaut und für die Untersuchung der Energieversorgung Deutschlands im Jahre 2050 gemäß den Leitstudie-Szenarien 2050 A und 2050 C ([Nitsch und Andere, 2012]) verwendet, in denen erneuerbare Energien einen Anteil von über 85 % an der Stromerzeugung haben und die Wind- und Solarenergie starke Schwankungen der durch steuerbare Kraftwerke und Speicher zu deckenden residualen Stromnachfrage (Residuallast) verursachen. In Szenario 2050 A sind 67 TWh Wasserstoff, die elektrolytisch aus erneuerbarem Strom zu erzeugen sind, für den Verkehr vorgesehen. In Szenario 2050 C ist kein Wasserstoff für den Verkehr vorgesehen und die effizientere Elektromobilität hat einen Anteil von 100% am Individualverkehr. Daher wird weniger erneuerbarer Strom zur Erreichung desselben erneuerbaren Anteils im Verkehrssektor benötigt. Da desweiteren Elektrofahrzeuge Lastmanagementpotentiale bieten, weisen die Residuallasten der Szenarien eine unterschiedliche zeitliche Charakteristik und Jahressumme auf. Der Schwerpunkt der Betrachtung lag auf der Ermittlung der Auslastung und Fahrweise des in den Szenarien unterstellten ’Kraftwerks’-parks bestehend aus Kraftwerken zur reinen Stromerzeugung, Kraft-Wärme-Kopplungskraftwerken, die mit Wärmespeichern, elektrischen Heizstäben und Gas-Backupkesseln ausgestattet sind, Stromspeichern und Wärmepumpen, die durch Wärmespeicher zum Lastmanagment eingesetzt werden können. Der Fahrplan dieser Komponenten wurde auf minimale variable Gesamtkosten der Strom- und Wärmeerzeugung über einen Planungshorizont von jeweils vier Tagen hin optimiert. Das Optimierungsproblem wurde mit dem linearen Branch-and-Cut-Solver der software CPLEX gelöst. Mittels sogenannter rollierender Planung wurde durch Zusammensetzen der Planungsergebnisse für überlappende Planungsperioden der Kraftwerks- und Speichereinsatz für die kompletten Szenariojahre erhalten. Es wurde gezeigt, dass der KWK-Anteil an der Wärmelastdeckung gering ist. Dies wurde begründet durch die zeitliche Struktur der Stromresiduallast, die wärmeseitige Dimensionierung der Anlagen und die Tatsache, dass nur eine kurzfristige Speicherung von Wärme vorgesehen war. Die wärmeseitige Dimensionierung der KWK stellte eine Begrenzung des Deckungsanteils dar, da im Winter bei hoher Stromresiduallast nur wenig freie Leistung zur Beladung der Speicher zur Verfügung stand. In den Berechnungen für das Szenario 2050 A und C lag der mittlere Deckungsanteil der KWK an der Wärmenachfrage von ca. 100 TWh_th bei 40 bzw. 60 %, obwohl die Auslegung der KWK einen theoretischen Anteil von über 97 % an der Wärmelastdeckung erlaubt hätte, gäbe es die Beschränkungen durch die Stromseite nicht. Desweiteren wurde die CO2-Vermeidungswirkung der KWK-Wärmespeicher und des Lastmanagements mit Wärmepumpen untersucht. In Szenario 2050 A ergab sich keine signifikante CO2-Vermeidungswirkung der KWK-Wärmespeicher, in Szenario 2050 C hingegen ergab sich eine geringe aber signifikante CO2-Einsparung in Höhe von 1,6 % der Gesamtemissionen der Stromerzeugung und KWK-gebundenen Wärmeversorgung. Das Lastmanagement mit Wärmepumpen vermied Emissionen von 110 Tausend Tonnen CO2 (0,4 % der Gesamtemissionen) in Szenario A und 213 Tausend Tonnen in Szenario C (0,8 % der Gesamtemissionen). Es wurden darüber hinaus Betrachtungen zur Konkurrenz zwischen solarthermischer Nahwärme und KWK bei Einspeisung in dieselben Wärmenetze vorgenommen. Eine weitere Einschränkung der KWK-Erzeugung durch den Einspeisevorrang der Solarthermie wurde festgestellt. Ferner wurde eine untere Grenze von 6,5 bzw. 8,8 TWh_th für die in den Szenarien mindestens benötigte Wasserstoff-Speicherkapazität ermittelt. Die Ergebnisse dieser Arbeit legen nahe, das technisch-ökonomische Potential von Langzeitwärmespeichern für eine bessere Integration von KWK ins System zu ermitteln bzw. generell nach geeigneteren Wärmesektorszenarien zu suchen, da deutlich wurde, dass für die öffentliche Wärmeversorgung die KWK in Kombination mit Kurzzeitwärmespeicherung, Gaskesseln und elektrischen Heizern keine sehr effektive CO2 -Reduktion in den Szenarien erreicht. Es sollte dabei z.B. untersucht werden, ob ein multivalentes System aus KWK, Wärmespeichern und Wärmepumpen eine ökonomisch darstellbare Alternative sein könnte und im Anschluss eine Betrachtung der optimalen Anteile von KWK, Wärmepumpen und Solarthermie im Wärmemarkt vorgenommen werden.
Resumo:
Mit der Methode der photoneninduzierten Fluoreszenzspektroskopie (PIFS) wurden spektro- und polarimetrische Fluoreszenzspektren des Xenon-Atoms und der NO- und CO-Moleküle untersucht. Im Bereich der Atomphysik konnten für das Xenon-Atom eindeutige Fluoreszenzkaskadeneffekte vom sichtbaren (VIS) in den vakuumultravioleten (VUV) Spektralbereich beobachtet werden. Das untersuchte Energieintervall zeichnete sich durch 15 gefundene Resonanzen entlang der Anregungsenergieachse der Synchrotronphotonen aus, die auf doppeltangeregte nln′l′-Resonanzen zurückgeführt werden konnten. Im Bereich der Molekülphysik wurden Messdaten der NO A 1Π → X 1Σ+- und CO A 2Π → X 2Σ+-Fluoreszenz nach der Anregung der 1s−1 → 2π-Resonanz untersucht. Durch polarimetrische Untersuchungen konnten in beiden Fällen die Winkelanisotropieparameter β(ω) der Fluoreszenz ermittelt werden und mit ab initio Berechnungen mit unterschiedlichen theoretischen Näherungen vergleichen werden. Der Einfluss quantenmechanischer Interferenzeffekte (LVI und ESI) auf die Winkelanisotropieparameter wurde aufgezeigt. Im Falle des NO- und des CO-Moleküls konnte eine sehr gute Übereinstimmung zwischen der Theorie und dem Experiment nachgewiesen werden. Durch Pioniermessungen an Diamantoiden konnte erstmalig dispergierte Lumineszenz der kleinsten Vertreter der Nanodiamanten nachgewiesen werden. Diese Messungen legen eine Grundlage für eine systematische Erforschung der Nanokristalle zugrunde.
Resumo:
Im Rahmen der vorliegenden Arbeit werden mikroanalytische Verfahren zur Untersuchung der verschiedenen Aspekte der Rissinitiierung und –Ausbreitung unter zyklischer Belastung angewendet und gekoppelt, um somit die Informationstiefe durch Korrelation der Ergebnisse zu vergrößern. Die eingesetzten mikroanalytischen Verfahren werden auf verschiedene polykristalline Werkstoffe mit kubisch-raumzentrierter und kubisch-flächenzentierter Gitterstruktur angewendet. Dabei steht der Einfluss der Mikrostruktur auf die Ausbreitung von Ermüdungsrissen in diesen Werkstoffen im Vordergrund. Die im Rahmen dieser Arbeit untersuchten mikrostrukturellen Größen hinsichtlich der Rissinitiierung und -ausbreitung sind die Phasenverteilung, die Korngröße und –Orientierung, die plastische Verformung infolge von Versetzungsbewegungen und die lokale Beanspruchung. Die Methode der Beugung rückgestreuter Elektronen (EBSD) im Rasterelektronenmikroskop steht dabei im Vordergrund der Untersuchungen der mikrostrukturellen Größen. Zu dieser Methode werden Bildkorrelationsverfahren in ihrer Anwendung untersucht, um lokale Verformungen im Bereich der Rissspitze mikrostrukturell kurzer Risse zu erfassen. Die Kopplung der Verfahren liefert ein vertieftes Verständnis der Schädigungsprozesse bei Ermüdungsbelastung an der Oberfläche. Neben der Untersuchung oberflächenbasierter Aspekte bei der Initiierung und Ausbreitung mikro-strukturell kurzer Risse werden volumenbasierte Methoden in Form mikrocomputertomographischer Verfahren eingesetzt, um das Ausbreitungsverhalten nicht nur an der Oberfläche zu untersuchen, sondern auch zusätzlich in Tiefenrichtung. In diesem Zusammenhang werden in-situ Versuche mit hochbrillianter Röntgenstrahlung am Synchrotron SPring-8 vorgestellt und mittels Methoden der Volumenkorrelation ausgewertet. Die Kopplung der Ergebnisse aus den einzelnen analytischen Verfahren liefert ein Betrag zur Ursachenfindung von Rissinitiierung und –Ausbreitung auf mikrostruktureller Ebene sowohl für oberflächen- als auch volumenbehafte Aspekte.
Resumo:
Wir leben in einer schnelllebigen unsicheren Welt. In einer Welt, in der fast jede Person schon einmal ein Gefühl von Wertlosigkeit und Ausgrenzung verspürt hat. Im vorliegenden an einer Schnittstelle zwischen Soziologie und Psychologie lokalisierten Dissertationsprojekt wird sich mit eben diesem aversiven Empfinden, sozial sowie gesellschaftlich überflüssig und ausgeschlossen zu sein, in Entstehung und möglichen Auswirkungen auseinandergesetzt. Dafür wurden eine deutschlandweite Telefon- und zwei experimentelle Laborstudien durchgeführt. Die theoretische und empirische Basis der Arbeit bilden soziologische Ansätze wie die Theorie der Desintegration (Anhut & Heitmeyer, 2000, 2009), psychologische Modelle wie das "Need-Threat"-Modell sozialer Ausgrenzung (Williams, 2009) und interdisziplinäre sozialwissenschaftliche Studien (Bude & Lantermann, 2006; Heitmeyer, 2002-2012; Lantermann, Döring-Seipel, Eierdanz & Gerhold, 2009). Die Befunde der Telefonstudie zeigen, dass die individuelle Wahrnehmung und Empfindung nicht unweigerlich vorhandene objektiv prekäre Lebenslagen akkurat spiegelt. So können ausgeprägte interne Ressourcen wie die des Kohärenzsinns einen positiven Effekt objektiver zum Beispiel finanzieller und/oder sozialer Prekarität auf subjektives soziales sowie gesellschaftliches Exklusionsempfinden abschwächen. Auch zeigte sich im experimentellen Kontext, dass induzierter sozialer Ausschluss nicht zu empfundener sozialer Exklusion führen muss. Als mögliche Auswirkungen empfundener sozialer und gesellschaftlicher Exklusion wurden ein Streben nach sozialem Anschluss über eine verstärkte Identifikation mit sozialen Eigengruppen wie der religiösen oder nationalen Eigengruppe (Telefonstudie, Laborstudie II) sowie ebenfalls aggressive feindselige Tendenzen über fremdenfeindliche oder antisemitische Haltungen (Telefonstudie) aufgedeckt. Weiterhin stellt generelle Selbstunsicherheit einen Mediator zwischen empfundener Exklusion und der sozialen Eigengruppenidentifikation über die nationale Eigengruppe dar (Telefonstudie). Ein Fokus des Dissertationsprojekts lag zudem auf einer ersten Untersuchung von Indikatoren eines kontrollbasierten Drei-Phasenmodells im Umgang mit subjektiv empfundener Exklusion (Telefonstudie, Laborstudie I). Basierend auf dem Modell kann ein Prozess empfundener Exklusion erstmalig empirisch analysiert werden, welcher sich auch in potenziellen Folgen wie einem erhöhten sozialen Anschlussstreben oder verstärkten aggressiven Tendenzen spiegeln sollte. Das Phasenmodell wurde aus den Theorien psychologischer Reaktanz (Brehm & Brehm, 1981), sekundärer Kontrolle (Rothbaum, Weisz & Snyder, 1982) und erlernter Hilflosigkeit (Seligman, 1975, 1992) abgeleitet. Aus den empirischen Befunden gezogene theoretische Schlussfolgerungen werden abschließend dargestellt und diskutiert. Zudem werden Hinweise für eine zukünftige Exklusionsforschung gegeben. So erscheint beispielsweise eine Differenzierung zwischen sozial und gesellschaftlich empfundener Exklusion auch hinsichtlich resultierender Gedanken, Gefühle und Verhaltensweisen für weitere sozialwissenschaftliche Untersuchungen interessant.
Resumo:
Die langfristig sichere und bezahlbare Versorgung von Mietern mit Wohnraum ist ein wichtiger Gesichtspunkt bei der Entscheidung von Wohnungsunternehmen, welche Objekte in welchem Umfang und wann energiesparend modernisiert werden. Eine integrierte Analyse der Wohnkostenbelastung (= Quotient aus Bruttowarmmiete und Haushaltsnettoeinkommen) im Zeitverlauf wurde bislang für die GdW-Wohnungsunternehmen noch nicht vorgenommen. Diese Arbeit schafft ein Modell für die Darstellung der zeitlichen Entwicklung der Wohnkostenbelastung. Ziel ist es, die Auswirkungen von Investitionsentscheidungen für energetische Modernisierungen besser zu verstehen. Als Eingangsdaten wurden soweit wie möglich empirische Daten für alle Bestandteile der Wohnkosten sowie für die entsprechenden Preissteigerungsraten und Einkommensentwicklungen zusammengestellt, die nun auch für die weitere Forschung zur Verfügung stehen. Es werden in der Arbeit 18 Gebäudetypen definiert, die sich nach Stand der energetischen Modernisierung und nach Energieträger unterscheiden und die 97% der durch GdW-Unternehmen bewirtschafteten Wohnungen abbilden. Für diese Typen wird die Entwicklung der Wohnkostenbelastung in verschiedenen Szenarien diskutiert. Besonders ausführlich werden Entwicklungen der Wohnkostenbelastung bei überdurchschnittlicher Anfangswohnkostenbelastung analysiert.
Resumo:
In recent years, the importance of the corporate brand (e.g. P&G, Nestlé, Unilever) has grown significantly and companies increasingly strive to strengthen their corporate brand. One way to strengthen the corporate brand is portfolio advertisement, in which the corporate brand is presented alongside with several product brands of its portfolio (e.g. VW with its product brands Touareg, Touran, Golf and Polo). The aim of portfolio advertising is to generate a positive image spill-over effect from the product brands onto the corporate brand in order to enhance the consumers’ perceived competence of the corporate brand. In four experimental settings Christian Boris Brunner demonstrates the great potential of portfolio advertising and highlights the risks associated with portfolio advertising in practice. In a first experiment, he compares portfolio advertising with single brand advertisements. Moreover, in case of portfolio advertising he manipulates the fit between the product brands, because the consumer has to establish a logical coherence between the individual brands. However, asconsumers have limited capacity for processing information, special attention should be paid to the number of product brands and to the processing depth of the consumer during confrontation with portfolio advertising. These key factors are taken into consideration in a second extensive experiment involving fictitious corporate and product brands. The effects of portfolio advertising on a product brand are also examined. Furthermore, the strength of product brands, i.e. brand knowledge as well as brand image and consumer’s knowledge of the brands, must be taken into consideration. In a third experiment, both the brand strength of real product brands as well as the fit between product brands are manipulated. Portfolio advertising could also have a positive image spill-over effect when companies introduce a new product brand under the umbrella of the corporate brand while communicating all product brands together. Based on considerations, in a fourth experiment, Christian Boris Brunner shows that portfolio advertising could also have a positive image spill-over effect on a new (unknown) product brand. Concluding his work, Christian Boris Brunner provides implications for future research concerning portfolio advertising as well as the management of a corporate brand in complex brand architectures. Concerning practical implications, these four experiments underline a high relevance to marketing and brand managers, who could increase corporate and product brands’ potential by means of portfolio advertising.