989 resultados para Max-Planck-Institut für Hirnforschung


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Vor 15 Jahren wurde der erste Beitrag einer Serie von Modellabteilungsrechnungen mit dem Ziel veröffentlicht, der Praxis und Wissenschaft nachvollziehbare Planungshilfen für die Gestaltung optimaler Produktionsstrukturen in der Milchwirtschaft an die Hand zu geben. Dieses Ziel gilt auch heute noch, jedoch hat sich im Laufe der Zeit immer deutlicher herauskristallisiert, daß eine Fortschreibung der Faktorpreise sowie eine gelegentliche Aktualisierung der Faktormengenverbräuche in Anpassung an neue technologische Entwicklungen allein nicht ausreichen, die selbstgesetzen Ansprüche an die Modellabteilungsrechnung zu erfüllen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Der Anteil dezentraler eingebetteter Systeme steigt in zahlreichen Andwendungsfeldern, wie der Kfz-Elektronik oder der Anlagenautomatisierung [ScZu03]. Zudem steigen die Anforderungen and die Flexibilität und den Funktionsumfang moderner automatisierungs-technischer Systeme. Der Einsatz agentenorientierter Methoden ist diesbezüglich ein geeigneter Ansatz diesen Anforderungen gerecht zu werden [WGU03]. Mit Agenten können flexible, anpassungsfähige Softwaresysteme entwickelt werden, welche die Verteilung von Informationen, Aufgaben, Ressourcen oder Entscheidungsprozessen der realen Problemstellung im Softwaresystem widerspiegeln. Es ist somit möglich, die gewünschte Flexibilität des Systems, bezüglich der Struktur oder des Verhaltens gezielt zu entwerfen. Nachteilig ist jedoch der Indeterminismus des Verhaltens des Gesamtsystems, der sich aufgrund von schwer vorhersagbaren Interaktionen ergibt [Jen00]. Dem gegenüber stehen statische Softwaresysteme, welche zwar einen hohen Determinismus aufweisen aber wenig flexibel in Bezug auf Änderungen der Struktur des Systems oder des Ablaufs des realen Prozesses sind. Mit der steigenden Komplexität der Systeme ist allerdings selbst mit einem statischen Entwurf die Vorhersagbarkeit immer weniger zu gewährleisten. Die Zahl der möglichen Zustände einer Anlage wird mit der Berücksichtigung von allen möglichen Fehlern, Ausfällen und externen Einflüssen (dynamische Umgebung) so groß, daß diese mit vertretbarem Aufwand kaum noch erfassbar sind und somit auch nicht behandelt werden können. Das von der DFG geförderten Projekt AVE [AVE05], welches in Kooperation mit dem Institut für Automatisierungs- und Softwaretechnik der Universität Stuttgart bearbeitet wird, beschäftigt sich in diesem Kontext mit dem Konflikt, die Vorteile der Flexibilität und Anpassungsfähigkeit von agentenorientierter Software mit den spezifischen Anforderungen der Domäne der Echtzeitsysteme, wie Zeit- und Verlässlichkeitsanforderungen, zu verknüpfen. In einer detaillierten Analyse dieser Anforderungen wurde untersucht, wie die Eigenschaften der Anpassungsfähigkeit und Flexibilität prinzipiell die Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften beeinflussen und wie umgekehrt Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften die Anpassungsfähigkeit und Flexibilität beschränken können. Aufbauend auf diesen Erkenntnissen werden Methoden und Konzepte für den Entwurf und die Implementierung von Agentensystemen auf gängiger Automatisierungshardware, insbesondere Speicher Programmierbare Steuerungen (SPS), entwickelt. In diesem Rahmen wird ein Konzept für die Modellierung von Sicherheit in Agentensystemen vorgestellt, welches insbesondere den modularen Charakter von Agenten berücksichtigt. Kernaspekt ist es, dem Entwickler einen Rahmen vorzugeben, der ihn dabei unterstützt ein möglichst lückenloses Sicherheitskonzept zu erstellen und ihm dabei genug Freiheiten lässt den Aufwand für die Strategien zur Fehlererkennung, Fehlerdiagnose und Fehlerbehandlung je nach Anforderung für jedes Modul individuell festzulegen. Desweiteren ist besonderer Wert darauf gelegt worden, dass die verwendeten Darstellungen und Diagramme aus der Domäne stammen und eine gute Vorlage für die spätere Implementierung auf automatisierungstechnischer Hardware bieten.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The 21st century has brought new challenges for forest management at a time when globalization in world trade is increasing and global climate change is becoming increasingly apparent. In addition to various goods and services like food, feed, timber or biofuels being provided to humans, forest ecosystems are a large store of terrestrial carbon and account for a major part of the carbon exchange between the atmosphere and the land surface. Depending on the stage of the ecosystems and/or management regimes, forests can be either sinks, or sources of carbon. At the global scale, rapid economic development and a growing world population have raised much concern over the use of natural resources, especially forest resources. The challenging question is how can the global demands for forest commodities be satisfied in an increasingly globalised economy, and where could they potentially be produced? For this purpose, wood demand estimates need to be integrated in a framework, which is able to adequately handle the competition for land between major land-use options such as residential land or agricultural land. This thesis is organised in accordance with the requirements to integrate the simulation of forest changes based on wood extraction in an existing framework for global land-use modelling called LandSHIFT. Accordingly, the following neuralgic points for research have been identified: (1) a review of existing global-scale economic forest sector models (2) simulation of global wood production under selected scenarios (3) simulation of global vegetation carbon yields and (4) the implementation of a land-use allocation procedure to simulate the impact of wood extraction on forest land-cover. Modelling the spatial dynamics of forests on the global scale requires two important inputs: (1) simulated long-term wood demand data to determine future roundwood harvests in each country and (2) the changes in the spatial distribution of woody biomass stocks to determine how much of the resource is available to satisfy the simulated wood demands. First, three global timber market models are reviewed and compared in order to select a suitable economic model to generate wood demand scenario data for the forest sector in LandSHIFT. The comparison indicates that the ‘Global Forest Products Model’ (GFPM) is most suitable for obtaining projections on future roundwood harvests for further study with the LandSHIFT forest sector. Accordingly, the GFPM is adapted and applied to simulate wood demands for the global forestry sector conditional on selected scenarios from the Millennium Ecosystem Assessment and the Global Environmental Outlook until 2050. Secondly, the Lund-Potsdam-Jena (LPJ) dynamic global vegetation model is utilized to simulate the change in potential vegetation carbon stocks for the forested locations in LandSHIFT. The LPJ data is used in collaboration with spatially explicit forest inventory data on aboveground biomass to allocate the demands for raw forest products and identify locations of deforestation. Using the previous results as an input, a methodology to simulate the spatial dynamics of forests based on wood extraction is developed within the LandSHIFT framework. The land-use allocation procedure specified in the module translates the country level demands for forest products into woody biomass requirements for forest areas, and allocates these on a five arc minute grid. In a first version, the model assumes only actual conditions through the entire study period and does not explicitly address forest age structure. Although the module is in a very preliminary stage of development, it already captures the effects of important drivers of land-use change like cropland and urban expansion. As a first plausibility test, the module performance is tested under three forest management scenarios. The module succeeds in responding to changing inputs in an expected and consistent manner. The entire methodology is applied in an exemplary scenario analysis for India. A couple of future research priorities need to be addressed, particularly the incorporation of plantation establishments; issue of age structure dynamics; as well as the implementation of a new technology change factor in the GFPM which can allow the specification of substituting raw wood products (especially fuelwood) by other non-wood products.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Land use has become a force of global importance, considering that 34% of the Earth’s ice-free surface was covered by croplands or pastures in 2000. The expected increase in global human population together with eminent climate change and associated search for energy sources other than fossil fuels can, through land-use and land-cover changes (LUCC), increase the pressure on nature’s resources, further degrade ecosystem services, and disrupt other planetary systems of key importance to humanity. This thesis presents four modeling studies on the interplay between LUCC, increased production of biofuels and climate change in four selected world regions. In the first study case two new crop types (sugarcane and jatropha) are parameterized in the LPJ for managed Lands dynamic global vegetation model for calculation of their potential productivity. Country-wide spatial variation in the yields of sugarcane and jatropha incurs into substantially different land requirements to meet the biofuel production targets for 2015 in Brazil and India, depending on the location of plantations. Particularly the average land requirements for jatropha in India are considerably higher than previously estimated. These findings indicate that crop zoning is important to avoid excessive LUCC. In the second study case the LandSHIFT model of land-use and land-cover changes is combined with life cycle assessments to investigate the occurrence and extent of biofuel-driven indirect land-use changes (ILUC) in Brazil by 2020. The results show that Brazilian biofuels can indeed cause considerable ILUC, especially by pushing the rangeland frontier into the Amazonian forests. The carbon debt caused by such ILUC would result in no carbon savings (from using plant-based ethanol and biodiesel instead of fossil fuels) before 44 years for sugarcane ethanol and 246 years for soybean biodiesel. The intensification of livestock grazing could avoid such ILUC. We argue that such an intensification of livestock should be supported by the Brazilian biofuel sector, based on the sector’s own interest in minimizing carbon emissions. In the third study there is the development of a new method for crop allocation in LandSHIFT, as influenced by the occurrence and capacity of specific infrastructure units. The method is exemplarily applied in a first assessment of the potential availability of land for biogas production in Germany. The results indicate that Germany has enough land to fulfill virtually all (90 to 98%) its current biogas plant capacity with only cultivated feedstocks. Biogas plants located in South and Southwestern (North and Northeastern) Germany might face more (less) difficulties to fulfill their capacities with cultivated feedstocks, considering that feedstock transport distance to plants is a crucial issue for biogas production. In the fourth study an adapted version of LandSHIFT is used to assess the impacts of contrasting scenarios of climate change and conservation targets on land use in the Brazilian Amazon. Model results show that severe climate change in some regions by 2050 can shift the deforestation frontier to areas that would experience low levels of human intervention under mild climate change (such as the western Amazon forests or parts of the Cerrado savannas). Halting deforestation of the Amazon and of the Brazilian Cerrado would require either a reduction in the production of meat or an intensification of livestock grazing in the region. Such findings point out the need for an integrated/multicisciplinary plan for adaptation to climate change in the Amazon. The overall conclusions of this thesis are that (i) biofuels must be analyzed and planned carefully in order to effectively reduce carbon emissions; (ii) climate change can have considerable impacts on the location and extent of LUCC; and (iii) intensification of grazing livestock represents a promising venue for minimizing the impacts of future land-use and land-cover changes in Brazil.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Drei-Spektrometer-Anlage am Mainzer Institut für Kernphysik wurde um ein zusätzliches Spektrometer ergänzt, welches sich durch seine kurze Baulänge auszeichnet und deshalb Short-Orbit-Spektrometer (SOS) genannt wird. Beim nominellen Abstand des SOS vom Target (66 cm) legen die nachzuweisenden Teilchen zwischen Reaktionsort und Detektor eine mittlere Bahnlänge von 165 cm zurück. Für die schwellennahe Pionproduktion erhöht sich dadurch im Vergleich zu den großen Spektrometern die Überlebenswahrscheinlichkeit geladener Pionen mit Impuls 100 MeV/c von 15% auf 73%. Demzufolge verringert sich der systematische Fehler ("Myon-Kontamination"), etwa bei der geplanten Messung der schwachen Formfaktoren G_A(Q²) und G_P(Q²), signifikant. Den Schwerpunkt der vorliegenden Arbeit bildet die Driftkammer des SOS. Ihre niedrige Massenbelegung (0,03% X_0) zur Reduzierung der Kleinwinkelstreuung ist auf den Nachweis niederenergetischer Pionen hin optimiert. Aufgrund der neuartigen Geometrie des Detektors musste eine eigene Software zur Spurrekonstruktion, Effizienzbestimmung etc. entwickelt werden. Eine komfortable Möglichkeit zur Eichung der Driftweg-Driftzeit-Relation, die durch kubische Splines dargestellt wird, wurde implementiert. Das Auflösungsvermögen des Spurdetektors liegt in der dispersiven Ebene bei 76 µm für die Orts- und 0,23° für die Winkelkoordinate (wahrscheinlichster Fehler) sowie entsprechend in der nicht-dispersiven Ebene bei 110 µm bzw. 0,29°. Zur Rückrechnung der Detektorkoordinaten auf den Reaktionsort wurde die inverse Transfermatrix des Spektrometers bestimmt. Hierzu wurden an Protonen im ¹²C-Kern quasielastisch gestreute Elektronen verwendet, deren Startwinkel durch einen Lochkollimator definiert wurden. Daraus ergeben sich experimentelle Werte für die mittlere Winkelauflösung am Target von sigma_phi = 1,3 mrad bzw. sigma_theta = 10,6 mrad. Da die Impulseichung des SOS nur mittels quasielastischer Streuung (Zweiarmexperiment) durchgeführt werden kann, muss man den Beitrag des Protonarms zur Breite des Piks der fehlenden Masse in einer Monte-Carlo-Simulation abschätzen und herausfalten. Zunächst lässt sich nur abschätzen, dass die Impulsauflösung sicher besser als 1% ist.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Here I will focus on three main topics that best address and include the projects I have been working in during my three year PhD period that I have spent in different research laboratories addressing both computationally and practically important problems all related to modern molecular genomics. The first topic is the use of livestock species (pigs) as a model of obesity, a complex human dysfunction. My efforts here concern the detection and annotation of Single Nucleotide Polymorphisms. I developed a pipeline for mining human and porcine sequences. Starting from a set of human genes related with obesity the platform returns a list of annotated porcine SNPs extracted from a new set of potential obesity-genes. 565 of these SNPs were analyzed on an Illumina chip to test the involvement in obesity on a population composed by more than 500 pigs. Results will be discussed. All the computational analysis and experiments were done in collaboration with the Biocomputing group and Dr.Luca Fontanesi, respectively, under the direction of prof. Rita Casadio at the Bologna University, Italy. The second topic concerns developing a methodology, based on Factor Analysis, to simultaneously mine information from different levels of biological organization. With specific test cases we develop models of the complexity of the mRNA-miRNA molecular interaction in brain tumors measured indirectly by microarray and quantitative PCR. This work was done under the supervision of Prof. Christine Nardini, at the “CAS-MPG Partner Institute for Computational Biology” of Shangai, China (co-founded by the Max Planck Society and the Chinese Academy of Sciences jointly) The third topic concerns the development of a new method to overcome the variety of PCR technologies routinely adopted to characterize unknown flanking DNA regions of a viral integration locus of the human genome after clinical gene therapy. This new method is entirely based on next generation sequencing and it reduces the time required to detect insertion sites, decreasing the complexity of the procedure. This work was done in collaboration with the group of Dr. Manfred Schmidt at the Nationales Centrum für Tumorerkrankungen (Heidelberg, Germany) supervised by Dr. Annette Deichmann and Dr. Ali Nowrouzi. Furthermore I add as an Appendix the description of a R package for gene network reconstruction that I helped to develop for scientific usage (http://www.bioconductor.org/help/bioc-views/release/bioc/html/BUS.html).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mit der Erweiterung des Elektronenbeschleunigers MAMI um eine dritte Stufe ist es möglich geworden, am Institut für Kernphysik Teilchen mit offener Strangeness zu produzieren. Für deren Nachweis ist die Drei-Spektrometeranlage der Kollaboration A1 um das von der GSI in Darmstadt übernommene KAOS-Spektrometer erweitert worden. Untersucht wird damit die elementare Reaktion p(e,e' K+)Lambda/Sigma0 wobei das auslaufende Elektron und das Kaon nachgewiesen werden müssen. Wird als Target nicht Wasserstoff verwendet, besteht die Möglichkeit dass sich ein Hyperkern bildet. Spektroskopische Untersuchungen an diesen bieten die Möglichkeit das Potential von Hyperonen in Atomkernen und die Hyperon-Nukleon-Wechselwirkung zu untersuchen. Aufgrund der hervorragenden Strahlqualität bei der Elektroproduktion können hier Massenauflösungen von einigen hundert keV/c² erreicht werden. Mit Hilfe von GEANT4 wurden die Detektoren und die Abbildungseigenschaften des Spektrometers simuliert. Geeignete Ereignisgeneratoren wurden implementiert. Es wurde untersucht, wie mögliche Treffermuster in den Detektoren aussehen, die von einem Trigger auf FPGA-Basis selektiert werden müssen. Ebenso konnte hieraus eine erste Abbildung der Spurkoordinaten auf die Targetkoordinaten und den Teilchenimpuls gewonnen werden. Für das Hyperkernprogramm muss KAOS unter 0° Vorwärtsrichung betrieben werden und der Primärstrahl mit Hilfe einer Schikane durch den Dipol gelenkt werden. Die Simulation zeigt hier eine nur moderate Erhöhung der Strahlenbelastung, vor allem im Bereich des Strahlfängers. Somit ist es möglich, KAOS als doppelseitiges Spektrometer in der Spektrometerhalle zu betreiben. Im Rahmen dieser Arbeit wurden die für sämtliche Detektoren nötige Auslese- und Steuerungselektronik in das vorhandene Datenerfassungssystem und das Steuerungssystem eingebunden. In zwei Strahlzeiten im Herbst 2008 wurden Kaonen im Winkelbereich von 20°-40° mit Impulsen zwischen 400MeV/c und 600MeV/c nachgewiesen. Die aus der Simulation gewonnenen Daten zum Trigger und zur Abbildung kamen zum Einsatz. Es konnte die für eine gute Teilchenidentifikation nötige Zeitauflösung von ca. 1ns FWHM erreicht werden. Die erreichte Winkel- und Impulsauflösung war ausreichend um Lambda und Sigma0-Hyperonen im Spektrum der fehlenden Masse leicht trennen zu können.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Diese Arbeit beschreibt eine wesentliche Weiterentwicklung des Titan:Saphir-Lasersystems der Arbeitsgruppe LARISSA am Institut für Physik der Johannes Gutenberg-Universität Mainz und dessen Anwendung im Bereich der Resonanzionisationsspektroskopie. Die Entwicklungsarbeiten am Lasersystem umfassten drei Aspekte: die Erhöhung der Ausgangsleistung der vorhandenen Titan:Saphir-Laser um einen Faktor zwei, um damit für den vorgesehenen Einsatz an resonanten Laserionenquellen an ISOL-Einrichtungen optimale Voraussetzungen zu schaffen. Des Weiteren wurden zwei spezielle angepasste Titan:Saphir-Laser entwickelt: Das Lasersystem wurde damit um einen von 700 nm - 950 nm kontinuierlich abstimmbaren Titan:Saphir-Laser sowie einen geseedeten Titan:Saphir-Laser mit einer Linienbreite von nur 20 MHz (im Vergleich zu 3 GHz der konventionellen Laser) erweitert. Die Leistungsfähigkeit des neuen Lasersystems wurde durch Resonanzionisationsspektroskopie hochangeregter atomarer Zustände in Gold und Technetium demonstriert. Aus den gemessenen Energielagen konnte über die Rydberg-Ritz-Formel das Ionisationspotential von Gold bestätigt werden und das von Technetium erstmals mit hoher Präzision bestimmt werden. Mit dem geseedeten Titan:Saphir-Laser wurde dopplerfreie Zwei-Photonen-Spektroskopie innerhalb eines heißen Ofens demonstriert. Bei spektroskopischen Untersuchungen mit dieser Methode an Siliziumisotopen konnte sowohl die Hyperfeinstruktur als auch die Isotopieverschiebung bei einer Breite der Resonanzen von etwa 90 MHz klar aufgelöst werden.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

ZusammenfassungrnDie vorliegende Arbeit beschreibt Experimente mit einer Apparatur namens Mikro-rnSISAK, die in der Lage ist, eine Flüssig-Flüssig-Extraktion im Mikroliter-Maßstab durchzuführen. Dabei werden zwei nicht mischbare Flüssigkeiten in einer Mikrostruktur emulgiert und anschließend über eine Teflonmembran wieder entmischt.rnIn ersten Experimenten wurden verschiedene Extraktionssysteme für Elemente derrnGruppen 4 und 7 des Periodensystems der Elemente untersucht und die Ergebnisse mit denen aus Schüttelversuchen verglichen. Da die zunächst erreichten Extraktionsausbeuten nicht ausreichend waren, wurden verschiedene Maßnahmen zu deren Verbesserung herangezogen.rnZunächst hat man mit Hilfe eines an die MikroSISAK-Apparatur angelegten Heizelements die dort für die Extraktion herrschende Temperatur erhöht. Dies führte wie erhofft zu einer höheren Extraktionsausbeute.rnDes Weiteren wurde MikroSISAK vom Institut für Mikrotechnik Mainz, welches derrnEntwickler und Konstrukteur der Apparatur ist, durch eine Erweiterung modifiziert, um den Kontakt der beiden Phasen zwischen Mischer und Separationseinheit zu verlängern. Auch dies verbesserte der Extraktionsausbeute.rnNun erschienen die erzielten Ergebnisse als ausreichend, um die Apparatur für online-Experimente an den TRIGA-Reaktor Mainz zu koppeln. Hierfür wurden durch Kernreaktion erzeugte Spaltprodukte des Technetiums MikroSISAK zugeführt, um sie dort abzutrennen und anschließend über ihren Zerfall an einem Detektor nachzuweisen. Neben erfolgreichen Ergebnissen lieferten diese Experimente auch die Belege für die Funktionsfähigkeit eines neuen Entgasers und für die Möglichkeit sowohl diesen als auch ein adäquates Detektorsystem an die MikroSISAK-Apparatur anzuschließen.rnDies schafft die Voraussetzung für die eigentliche Anwendungsidee, die hinter der Entwicklung von MikroSISAK steckt: Die Untersuchung der chemischen Eigenschaften von kurzlebigen superschweren Elementen (SHE) an einem Schwerionenbeschleuniger. Es liegt nahe, solche Experimente für das schwere Homologe des Technetiums, Element 107, Bohrium, ins Auge zu fassen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Messung eines möglichen elektrischen Dipolmoments des freien Neutrons erfordert genaustmögliche Kenntnis und Überwachung des magnetischen Feldes im Inneren der n2EDM-Spektrometerkammer. Die freie Spinpräzession von hyperpolarisiertem ³He kann verbunden mit einer Signalauslese mittels optisch gepumpter Cs-Magnetometer dazu genutzt werden, Messempfindlichkeit auf Magnetfeldschwankungen im Bereich weniger Femto-Tesla zu erhalten. Am Institut für Physik der Universität Mainz wurde eine ³He/Cs-Testanlage aufgebaut, um die Möglichkeiten der Signalauslese der ³He-Spinpräzession mittels eines lampengepumpten Cs-Magnetometers zu untersuchen. Darüber hinaus wurde eine ultrakompakte und transportable Polarisationseinheit entwickelt und installiert, welche ermöglicht, eine ³He-Hyperpolarisation von bis zu 55 Prozent zu erreichen. Im Anschluss wird das polarisierte 3He-Gas automatisiert komprimiert und in zwei Magnetometerzellen in Sandwichanordnung innerhalb der n2EDM-Spektrometerkammer gefüllt. In dieser Arbeit werden die Ergebnisse der ersten im Januar 2012 erfolgreich durchgeführten Messungen vorgestellt. Bei diesen Messungen wurde ³He-Gas in der ultrakompakten Polarisationseinheit hyperpolarisiert und über Führungsfelder eines Transfersystems in eine vierlagige Mumetall-Abschirmung transferiert. Im Anschluss konnte im Inneren der magnetischen Abschirmung die freie ³He-Spinpräzession mittels eines lampengepumpten Cs-Magnetometer eindeutig nachgewiesen werden.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Diese Forschungsarbeit zeigt erstmalig anhand von drei Fallbeispielen [„Lob der Disziplin. Eine Streitschrift“ von Bernhard Bueb, „Das Methusalem-Komplott“ von Frank Schirrmacher und „Deutschland schafft sich ab“ von Thilo Sarrazin] und aufbauend auf Bourdieus Theorie des politischen Feldes welche Wirkung s. g. Debattenbücher auf das gesellschaftliche Diskursfeld, die Politik und die Wissenschaft haben können. Die Arbeit gliedert sich in drei Teile. In einem ersten Schritt werden Unterschiede und Gemeinsamkeiten der Autoren und Werke herausgearbeitet. Es wird gezeigt welche Inszenierungsstrategien vorliegen und wie diese den Autor auf das Kräftemessen im politischen Feld vorbereiten. Im Anschluss wird im zweiten Schritt geklärt, wie sich der Autor im politischen Feld positioniert und welchen Einfluss er auf das bestehende Kräfteverhältnis politischer Akteure ausübt. Im letzten Schritt wird diesem Einfluss abstrahierend auf das gesellschaftliche Wirkungspotenzial von Debattenbüchern geschlossen. Unter Zuhilfenahme von Zeitungsartikeln, die bis zu 6 Monaten nach Erscheinungstermin des jeweiligen Titels, in Der Spiegel, Die Zeit und der Frankfurter Allgemeine Sonntagszeitung veröffentlicht wurden, wurde klar, dass Debattenbücher dann erfolgreich sind, wenn sie eine Meinung, die konträr zum gesellschaftlichen Konsens steht, provokativ und emotional aufbereiten und der Autor bereit ist, als Meinungsträger seine Thesen in der öffentlichen Debatte zu vertreten. So gestaltet regt das Debattenbuch – auch wenn es langfristig keinen Effekt auf das zentrale gesellschaftliche Diskursfeld hat - zur „Selbstfindung durch Emotionen“ an. Auf vermeintliche Sachlichkeit anspielend wirkt es, weil es den Lesern gesellschaftliche Konfliktherde auf emotionalem Wege bewusst werden lässt und so Impulse zur Veränderung setzt.