84 resultados para Vermeiden
Resumo:
Die Dissertation befasst sich mit der Einführung komplexer Softwaresysteme, die, bestehend aus einer Kombination aus parametrisierter Standardsoftware gepaart mit Wettbewerbsvorteil sichernden Individualsoftwarekomponenten, keine Software-Engineering-Projekte im klassischen Sinn mehr darstellen, sondern einer strategieorientierten Gestaltung von Geschäftsprozessen und deren Implementierung in Softwaresystemen bedürfen. Die Problemstellung einer adäquaten Abwägung zwischen TCO-optimierender Einführung und einer gleichzeitigen vollständigen Unterstützung der kritischen Erfolgsfaktoren des Unternehmens ist hierbei von besonderer Bedeutung. Der Einsatz integrierter betriebswirtschaftlicher Standardsoftware, mit den Möglichkeiten einer TCO-Senkung, jedoch ebenfalls der Gefahr eines Verlustes von Alleinstellungsmerkmalen am Markt durch Vereinheitlichungstendenzen, stellt ein in Einführungsprojekten wesentliches zu lösendes Problem dar, um Suboptima zu vermeiden. Die Verwendung von Vorgehensmodellen, die sich oftmals an klassischen Softwareentwicklungsprojekten orientieren oder vereinfachte Phasenmodelle für das Projektmanagement darstellen, bedingt eine fehlende Situationsadäquanz in den Detailsituationen der Teilprojekte eines komplexen Einführungsprojektes. Das in dieser Arbeit entwickelte generische Vorgehensmodell zur strategieorientierten und partizipativen Einführung komplexer Softwaresysteme im betriebswirtschaftlichen Anwendungsbereich macht - aufgrund der besonders herausgearbeiteten Ansätze zu einer strategieorientierten Einführung, respektive Entwicklung derartiger Systeme sowie aufgrund der situationsadäquaten Vorgehensstrategien im Rahmen der Teilprojektorganisation � ein Softwareeinführungsprojekt zu einem Wettbewerbsfaktor stärkenden, strategischen Element im Unternehmen. Die in der Dissertation diskutierten Überlegungen lassen eine Vorgehensweise präferieren, die eine enge Verschmelzung des Projektes zur Organisationsoptimierung mit dem Softwareimplementierungsprozess impliziert. Eine Priorisierung der Geschäftsprozesse mit dem Ziel, zum einen bei Prozessen mit hoher wettbewerbsseitiger Priorität ein organisatorisches Suboptimum zu vermeiden und zum anderen trotzdem den organisatorischen Gestaltungs- und den Systemimplementierungsprozess schnell und ressourcenschonend durchzuführen, ist ein wesentliches Ergebnis der Ausarbeitungen. Zusätzlich führt die Ausgrenzung weiterer Prozesse vom Einführungsvorgang zunächst zu einem Produktivsystem, welches das Unternehmen in den wesentlichen Punkten abdeckt, das aber ebenso in späteren Projektschritten zu einem System erweitert werden kann, welches eine umfassende Funktionalität besitzt. Hieraus ergeben sich Möglichkeiten, strategischen Anforderungen an ein modernes Informationssystem, das die kritischen Erfolgsfaktoren eines Unternehmens konsequent unterstützen muss, gerecht zu werden und gleichzeitig ein so weit als möglich ressourcenschonendes, weil die Kostenreduktionsaspekte einer Standardlösung nutzend, Projekt durchzuführen. Ein weiterer wesentlicher Aspekt ist die situationsadäquate Modellinstanziierung, also die projektspezifische Anpassung des Vorgehensmodells sowie die situationsadäquate Wahl der Vorgehensweisen in Teilprojekten und dadurch Nutzung der Vorteile der verschiedenen Vorgehensstrategien beim konkreten Projektmanagement. Der Notwendigkeit der Entwicklung einer Projektorganisation für prototypingorientiertes Vorgehen wird in diesem Zusammenhang ebenfalls Rechnung getragen. Die Notwendigkeit der Unternehmen, sich einerseits mit starken Differenzierungspotenzialen am Markt hervorzuheben und andererseits bei ständig sinkenden Margen einer Kostenoptimierung nachzukommen, lässt auch in Zukunft das entwickelte Modell als erfolgreich erscheinen. Hinzu kommt die Tendenz zu Best-Of-Breed-Ansätzen und komponentenbasierten Systemen im Rahmen der Softwareauswahl, die eine ausgesprochen differenzierte Vorgehensweise in Projekten verstärkt notwendig machen wird. Durch die in das entwickelte Modell integrierten Prototyping-Ansätze wird der auch in Zukunft an Bedeutung gewinnenden Notwendigkeit der Anwenderintegration Rechnung getragen.
Resumo:
Untersuchung von Schichtsystemen für die magneto-optische Datenspeicherung mit Hilfe der Kerr-Mikroskopie Dissertation von Stephan Knappmann, Universität Gh Kassel, 2000 Im Rahmen dieser Arbeit wurde ein modifiziertes Kerr-Mikroskop aufgebaut und für eine neuartige Untersuchungsmethode von gekoppelten magnetischen Schichten angewendet. Damit können Schichtsysteme untersucht werden, bei denen die eine Schicht eine temperaturabhängige Reorientierung der Magnetisierung von in-plane zu senkrecht zeigt. Derartige Schichten sind für zukünftige magnetooptische Speichertechniken interessant, da sie für die magnetisch induzierte Superauflösung (MSR) eingesetzt werden können. Zunächst wurde ein Ganzfeld-Kerr-Mikroskop aufgebaut und durch einen zusätzlichen Strahlengang erweitert. Da die Proben lokal geheizt werden sollten, wurde der Strahl eines Diodenlasers (l = 780 nm) in den Strahlengang eingekoppelt, durch das Mikroskopobjektiv auf die Probe fokussiert und nach der Reflexion vollständig aus dem Strahlengang entfernt. Dies war deshalb wichtig, da Domänenbilder aufgenommen werden sollten, während die Schichten lokal geheizt werden. Mit diesem Aufbau ist es möglich, den magnetooptischen Ausleseprozeß in MSR Systemen mikroskopisch zu simulieren. Dies wurde am Beispiel einer Doppelschicht demonstriert. Dieses Schichtsystem besteht aus einer Speicherschicht mit senkrechter Magnetisierung (TbFeCo) und einer Ausleseschicht mit temperaturabhängiger Reorientierung (GdFeCo). Damit ist dieses Schichtsystem für eine spezielle MSR Technik (CAD-MSR) geeignet. Dabei wird im heißen Bereich des laserinduzierten Temperaturprofils die Information aus der Speicherschicht in die Ausleseschicht kopiert, so daß eine Apertur gebildet wird, die nur von der Temperaturverteilung abhängt. Bei diesem Schichtsystem konnte gezeigt werden, daß sich durch ein Magnetfeld die Aperturwirkung deutlich verbessern läßt. Dieses Ergebnis läßt sich auf alle Schichten übertragen, bei denen die Reorientierung der Magnetisierung durch allmähliche Drehung erfolgt. Die wesentlichen Ergebnisse der Domänenbeobachtungen an der TbFeCo/GdFeCo-Doppelschicht konnten durch Simulationen mit Hilfe eines einfachen Modells bestätigt werden. Ein weiterer Schwerpunkt der Arbeit lag in der Untersuchung von Vielfachschichten. Es wurden Tb/Fe-Vielfachschichten mit einer Modulationswellenlänge von 1,5 - 5 nm durch Kathodenzerstäubung hergestellt und magnetisch charakterisiert. Die natürlichen Domänen-strukturen zeigten eine starke Abhängigkeit von dem Verhältnis der Tb- und Fe-Schichtdicken. Die Erklärung kann durch das Wechselspiel von magnetostatischer Energie EMS und Domänenwandenergie EDW gegeben werden. In der Nähe des Kompensationspunktes ist EMS klein und EDW dominiert. Als Folge bilden sich zirkulare Domänen. Mit der Entfernung vom Kompensationspunkt steigt EMS und es wird eine verzweigte Domänenstruktur favorisiert. Thermomagnetische Schreibexperimente an einer ausgewählten Tb/Fe-Vielfachschicht haben ergeben, daß sich bei kleinen Schreib-Magnetfeldern Subdomänenstrukturen ausbilden können. In der Praxis ist ein solcher Subdomänenzustand unerwünscht, da er zu einem erhöhten Ausleserauschen führen würde. Der Effekt läßt sich durch ein höheres Magnetfeld oder eine höhere Kompensationstemperatur (höhere Tb-Konzentration) vermeiden. Schließlich wurde demonstriert, daß nach kleinen Änderungen mit dem Mikroskop Domänen in longitudinaler Konfiguration abgebildet werden können. Da die Kerr-Drehungen hier kleiner sind als im polaren Fall, mußten verschiedene Verfahren der Bildverarbeitung angewendet werden, um den magnetischen Kontrast zu vergrößern. Neben der bekannten Subtraktion eines Referenzbildes wurde ein neues Verfahren zur weiteren Verbesserung der Domänenbilder angewendet, wobei zwei Referenzbilder mit entgegengesetzter Magnetisierung benötigt werden.
Resumo:
Aufgrund der breiten aktuellen Verwendung des Mythen-Begriffs in Kunst und Werbung, aber darüber hinaus auch in nahezu allen Bereichen gesellschaftlichen Lebens und vor allem in der Philosophie ergibt sich die Notwendigkeit, einen erweiterten Mythos-Begriff über das Historisch-Authentische hinaus zu verfolgen. Ausgehend von einer strukturalen Annäherung an den Mythos-Begriff im Sinne des von Roland Barthes vorgeschlagenen sekundären semiologischen Systems, d.h. einer semiologischen Sinnverschiebung zur Schaffung einer neuen – mythischen – Bedeutung, fordert diese neue Bedeutung eine Analyse, eine Mythenanalyse heraus. Dies ist deshalb so entscheidend, weil eben diese neue Bedeutung ihr mythisches Profil im Sinne von Hans Blumenberg durch forcierte Bedeutsamkeit für Individuen oder für bestimmte gesellschaftliche Gruppierungen unterlegt, z.B. durch bewusst intensive Wiederholung eines Themas oder durch unerwartete Koinzidenzen von Ereignissen oder durch Steigerung bzw. Depotenzierung von Fakten. Der erweiterte Mythen-Begriff verlangt nach einer Strukturierung und führt dabei zu unterschiedlichen Mythen-Ansätzen: zum Ursprungsstoff des authentischen Mythos und darauf basierender Geisteslage, zum Erkennen eines reflektierten Mythos, wenn es um das Verhältnis Mythos/Aufklärung geht, zum Zeitgeist-Mythos mit seinen umfangreichen Ausprägungen ideologischer, affirmativer und kritischer Art oder zu Alltagsmythen, die sich auf Persönlichkeitskulte und Sachverherrlichungen beziehen. Gerade der letztere Typus ist das Terrain der Werbung, die über den Gebrauchswert eines Produktes hinaus Wert steigernde Tauschwerte durch symbolische Zusatzattribute erarbeiten möchte. Hierbei können Markenmythen unterschiedlichster Prägung entstehen, denen wir täglich im Fernsehen oder im Supermarkt begegnen. Die Manifestation des Mythos in der Kunst ist einerseits eine unendliche Transformationsgeschichte mythischer Substanzen und andererseits ein überhöhender Bezug auf Zeitgeisterscheinungen, etwa bei dem Mythos des Künstlers selbst oder der durch ihn vorgenommenen „Verklärung des Gewöhnlichen“. Die Transformationsprozesse können u.a . prototypisch an zwei Beispielketten erläutert werden, die für den Kunst/Werbung-Komplex besonders interessant sind, weil ihr Charakter sich in einem Fall für die Werbung als äußerst Erfolg versprechend erwiesen hat und weil sich im zweiten Fall geradezu das Gegenteil abzeichnet: Zum einen ist es die Mythengestalt der Nymphe, jene jugendliche, erotisch-verführerische Frauengestalt, die über ihre antiken Wurzeln als Sinnbild der Lebensfreude und Fruchtbarkeit hinaus in und nach der Renaissance ihre Eignung als Verbildlichung der Wiederzulassung des Weiblichen in der Kunst beweist und schließlich der Instrumen-talisierung der Werbung dient. Im anderen Fall ist es die Geschichte der Medusa, die man idealtypisch als die andere Seite der Nympha bezeichnen kann. Hier hat Kunst Auf-klärungsarbeit geleistet, vor allem durch die Verschiebung des medusischen Schreckens von ihr weg zu einer allgemein-medusischen Realität, deren neue Träger nicht nur den Schrecken, sondern zugleich ihre Beteiligung an der Schaffung dieses Schreckens auf sich nehmen. Mythosanalyse ist erforderlich, um die Stellungnahmen der Künstler über alle Epochen hinweg und dabei vor allem diese Transformationsprozesse zu erkennen und im Sinne von Ent- oder Remythologisierung einzuordnen. Die hierarchische Zuordnung der dabei erkannten Bedeutungen kann zu einem Grundbestandteil einer praktischen Philosophie werden, wenn sie einen Diskurs durchläuft, der sich an Jürgen Habermas’ Aspekt der Richtigkeit für kommunikatives Handeln unter dem Gesichtspunkt der Toleranz orientiert. Dabei ist nicht nur zu beachten, dass eine verstärkte Mythenbildung in der Kunst zu einem erweiterten Mythen-begriff und damit zu dem erweiterten, heute dominierenden Kunstbegriff postmoderner Prägung geführt hat, sondern dass innerhalb des aktuellen Mythenpakets sich die Darstellungen von Zeitgeist- und Alltagsmythen zu Lasten des authentischen und des reflektierten Mythos entwickelt haben, wobei zusätzlich werbliche Markenmythen ihre Entstehung auf Verfahrensvorbildern der Kunst basieren. Die ökonomische Rationalität der aktuellen Gesellschaft hat die Mythenbildung keines-wegs abgebaut, sie hat sie im Gegenteil gefördert. Der neuerliche Mythenbedarf wurde stimuliert durch die Sinnentleerung der zweckrationalisierten Welt, die Ersatzbedarf anmeldete. Ihre Ordnungsprinzipien durchdringen nicht nur ihre Paradedisziplin, die Ökonomie, sondern Politik und Staat, Wissenschaft und Kunst. Das Umschlagen der Aufklärung wird nur zu vermeiden sein, wenn wir uns Schritt für Schritt durch Mythenanalyse unserer Unmündigkeit entledigen.
Resumo:
Am Beispiel eines umfangreichen Reformprojekts, nämlich der Qualifizierungsmaßnahme "Führungskräfte als Personalentwickler", wurde die Problematik von Veränderungsprozessen in der Großorganisation Polizei dargestellt. Die zweijährige Qualifizierungsmaßnahme hatte als direktes Ziel, Führungskräfte der niedersächsischen Landespolizei zu Personalentwicklern zu qualifizieren. Auf diesem Wege sollte im Sinne eines Multiplikatoreffekts das indirekt anvisierte Ziel, die Umstellung der Organisation der Polizei von einer hierarchisch-bürokratisch geführten zu einer kooperativen mitarbeiter-orientierten Organisation vorangetrieben werden. Untersucht wurden in dieser Arbeit die Auswirkungen der Qualifizierungsmaßnahme auf die Organisation Polizei Niedersachsen und die beteiligten Führungskräfte. Die wesentlichen Befunde der drei zentralen Untersuchungsebenen, 1. Lernteil: die Wirkungen der Inhalte der Seminarbausteine auf die Teilnehmer, 2. Praxisteil: die Einführung von personalentwicklerischen Innovationen in die Arbeitsbereiche der Teilnehmer durch Projektarbeit, 3. Organisationsteil: die Implementation innovativer Personalentwicklung in die Gesamtorganisation, belegen, dass die Polizei ein komplexer Organismus ist, der nur begrenzt linearen Steuerungsmechanismen gehorcht. Die reibungsvolle Gleichzeitigkeit von Alt und Neu schafft Konflikte und Widerstände. Reformprozesse konfrontieren die Alltagsorganisation Polizei in besonderem Maße mit widersprüchlichen Handlungslogiken, was in der Reaktion dazu führt, die Widersprüche weitestgehend zu vermeiden oder zurückzuweisen. Da diese auftretenden Widersprüche nicht reflektiert und damit nicht thematisiert werden, kommt es nicht zu weiter führenden Aushandlungsprozessen auf der Ebene der Gesamtorganisation. So bleibt als Ergebnis festzuhalten: Der individuelle Lernwert der an der Qualifizierungsmaßnahme beteiligten Führungskräfte kann durchgängig als "hoch" bezeichnet werden. Das intendierte Ziel eines breit angelegten Strategiewandels durch Personalentwicklung wurde dagegen verfehlt, da es an begleitenden Unterstützungs- und Entwicklungsmaßnahmen in der Organisation mangelte. Somit stützt und belegt diese Dissertation das Verständnis von prozessualen Dynamiken, die das Geschehen in der Organisation und damit auch das Schicksal von Veränderungsprozessen bestimmen. Reformprozesse sind niemals allein mit der mechanistischen Gestaltung von Organisationszielen, also der Durchführung von Programmen, sondern sowohl mit der Dynamik interner Machtprozesse als auch mit der Art und Weise des Umgangs mit widersprüchlichen Handlungslogiken konfrontiert. Werden letztere nicht zur Kenntnis genommen und bearbeitet bzw. mit traditionellen Lösungsstrategien angegangen, dann bleiben Innovationen suboptimal – wie dies in der untersuchten Maßnahme der Fall ist.
Resumo:
In Folge der Ergebnisse der PISA und IGLU Studien ist das Thema Diagnose und individuelle Förderung in die öffentliche Diskussion geraten. Vor diesem Hintergrund richtet sich im Herbst 2002 die Aufmerksamkeit der Arbeitsgruppe Wollring auf ein mathematikdidaktisches empirisches Forschungsprojekt in Australien: Early Numeracy Research Project (ENRP) (Clarke et al. 2002). Eine Besonderheit dieses Projektes besteht in der Eins-zu-eins-Situation zwischen Lehrer und Schüler bei einem Interview über Mathematik. Dieses Projekt bildet den Ausgangspunkt der vorliegenden Arbeit. Im ersten Kapitel wird das australische Projekt sowie seine Umsetzung in Deutschland vorgestellt. Ziel des Projektes ist es, die individuellen mathematischen Performanzen von Grund-schulkindern mit Hilfe eines Interviews in einer Eins-zu-eins-Situation des Schülers mit dem Lehrer (Schüler-Interview) zu erheben und damit mathematikdidaktische Orientierungshilfen für den Unterricht zu liefern. Das Schüler-Interview bestimmt den Lernstandort eines Kindes, der als Ausgangspunkt für eine Diagnose dienen kann. Daher werden unterschiedlichen Sichtweisen der Disziplinen – Psychologie, Medizin, Pädagogik, Sonderpädagogik und Fachdidaktik – in Hinblick auf den Begriff „Diagnose“ diskutiert. Die Durchführung von Schüler-Interviews kann neben ihrem diagnostischen Wert auch eine Bedeutung für die Professionalisierung von Lehrern einnehmen, da sie die Lehrer herausfordert, sich mit den Denk- und Lösungswege von Kindern aller Leistungsniveaus intensiv auseinanderzusetzen. In einer Studie von Steinberg et al. (2004, p. 238) wird deutlich, dass dieses Wissen des Lehrers sowohl als ein Index der Veränderung als auch als ein Mechanismus zur Veränderung des Unterrichts dient. In dieser Arbeit werden über den Zeitraum eines Jahres der Umgang der Lehrer mit dem Führen von Schüler-Interviews und den von ihnen daraus gewonnenen Erkenntnissen ausgewertet. Dabei werden mit den Lehrern nach einem halben und nach einem Jahr Erprobung mehrerer von ihnen selbst geführter Schüler-Interviews je ein Interview mit der Forscherin geführt, um herauszufinden, in welchen verschiedenen Bereichen das Führen von Schüler-Interviews den einzelnen Lehrern Unterstützung bietet. Die erhobenen Daten werden qualitativ mit Hilfe der Grounded Theory ausgewertet. Im empirischen Teil der Arbeit werden drei, der am Projekt beteiligten, Lehrerinnen in Form von Fallstudien vorgestellt und ausgewertet. Bei der Lehrerin, die Mathematik nicht als Fach studiert hat, besteht vor allem ein eigener Lernzuwachs in der Sicht auf Mathematik. Zu Beginn der Untersuchung hatte sie laut ihrer eigenen Aussagen eine eher ergebnisorientierte Sicht auf die Mathematik. Die Aussagen der drei Lehrerinnen beruhen auf einzelnen Schülern und ihren Besonderheiten. Im Laufe der Studie verallgemeinern sie ihre Erkenntnisse und beginnen Konsequenzen für ihren Unterricht aus den Schüler-Interviews zu folgern, wie sie in den abschließenden Interviews berichten. Das Schüler-Interview scheint dem Lehrer einen geschützten Raum zu bieten, um die Reflexion über die mathematischen Performanzen seiner Schüler und seinen eigenen Unterricht anzuregen, ohne ihn bloßzustellen und ohne ihm Vorschriften zu machen. Nach der einjährigen Erprobung von Schüler-Interviews betonen alle drei Lehrerinnen größeren Wert auf prozessorientiertes Mathematiklernen zu legen. Sie berichten, dass sie die Performanzen der Kinder stärker kompetenzorientiert wahrnehmen. Jedoch haben sie Schwierigkeiten, die für sich selbst gewonnene Transparenz über die mathematischen Performanzen des interviewten Kindes, den Schülern mitzuteilen und ihnen ermutigende Rückmeldungen zu geben. Außerdem können die Lehrer die problematischen mathematischen Bereiche der Schüler zwar beschreiben, sehen sich laut ihrer eigenen Aussage aber nicht in der Lage mit den Schülern daran zu arbeiten und sie angemessen zu för-dern. Selbst nach den ausführlichen Analysen der ausgewählten Lehrerinnen bleibt unklar, ob und in welcher Weise sie die Erkenntnisse aus dem Führen der Schüler-Interviews für ihren Unterricht nutzen. Laut der Aussage zweier beteiligter Lehrerinnen sollten Lehrer offen und interessiert sein und sich bereitwillig mit ihren eigenen Kompetenzen auseinandersetzen, damit das Führen von Schüler-Interviews für die Lehrer selbst und für die Schüler einen besonderen Nutzen besitzt. Um diese Auseinandersetzung stärker anzuregen und zu vermeiden, dass sich im Schüler-Interview mit dem Kind nicht die Einstellungen des Lehrers gegenüber den Leistungen des Schülers widerspiegeln, könnten sie vor Beginn des Führens von Schüler-Interviews verstärkt in der Ausbildung ihrer Interviewkompetenzen unterstützt und geschult werden. Obwohl sich die Lehrer zuerst Freiräume schaffen mussten, in denen sie trotz ihres Zeitmangels Schüler interviewen konnten, bietet das Führen von Schüler-Interviews die Chance, den Ist-Zustand der Schülerperformanzen in den mathematischen Bereichen Zahlen, Größen und Raum zu erfassen.
Resumo:
The process of developing software that takes advantage of multiple processors is commonly referred to as parallel programming. For various reasons, this process is much harder than the sequential case. For decades, parallel programming has been a problem for a small niche only: engineers working on parallelizing mostly numerical applications in High Performance Computing. This has changed with the advent of multi-core processors in mainstream computer architectures. Parallel programming in our days becomes a problem for a much larger group of developers. The main objective of this thesis was to find ways to make parallel programming easier for them. Different aims were identified in order to reach the objective: research the state of the art of parallel programming today, improve the education of software developers about the topic, and provide programmers with powerful abstractions to make their work easier. To reach these aims, several key steps were taken. To start with, a survey was conducted among parallel programmers to find out about the state of the art. More than 250 people participated, yielding results about the parallel programming systems and languages in use, as well as about common problems with these systems. Furthermore, a study was conducted in university classes on parallel programming. It resulted in a list of frequently made mistakes that were analyzed and used to create a programmers' checklist to avoid them in the future. For programmers' education, an online resource was setup to collect experiences and knowledge in the field of parallel programming - called the Parawiki. Another key step in this direction was the creation of the Thinking Parallel weblog, where more than 50.000 readers to date have read essays on the topic. For the third aim (powerful abstractions), it was decided to concentrate on one parallel programming system: OpenMP. Its ease of use and high level of abstraction were the most important reasons for this decision. Two different research directions were pursued. The first one resulted in a parallel library called AthenaMP. It contains so-called generic components, derived from design patterns for parallel programming. These include functionality to enhance the locks provided by OpenMP, to perform operations on large amounts of data (data-parallel programming), and to enable the implementation of irregular algorithms using task pools. AthenaMP itself serves a triple role: the components are well-documented and can be used directly in programs, it enables developers to study the source code and learn from it, and it is possible for compiler writers to use it as a testing ground for their OpenMP compilers. The second research direction was targeted at changing the OpenMP specification to make the system more powerful. The main contributions here were a proposal to enable thread-cancellation and a proposal to avoid busy waiting. Both were implemented in a research compiler, shown to be useful in example applications, and proposed to the OpenMP Language Committee.
Resumo:
Im Rahmen der Arbeit wird den Fragen nachgegangen, inwiefern der Konsum von Öko-Lebensmitteln in Familien mit Kindern im zeitlichen Verlauf Veränderungen unterliegt und worin Veränderungen im Öko-Lebensmittelkonsum in Familien mit Kindern begründet sind. Aus den hierzu gewonnenen Erkenntnissen werden Schlussfolgerungen für die Konsumentenforschung und das Marketing von Öko-Produkten gezogen. Theoretische Grundlage stellen der Familienzyklus sowie Forschungsergebnisse zum Konsumentenverhalten in Familien und zum Konsum von Öko-Lebensmitteln in Familien dar. Für die empirische Bearbeitung der Forschungsfragen wurde ein qualitatives Forschungsdesign gewählt. Der Forschungsprozess gliederte sich in drei Wellen der Datenerhebung und -auswertung. Im Rahmen dessen wurden Eltern mithilfe problemzentrierter Interviews zur Entwicklung des Öko-Konsums in ihren Familien befragt. Die Interviews wurden computergestützt und in Anlehnung an die Kodierprozeduren offenes und axiales Kodieren der Grounded Theory ausgewertet. Ergebnis der Datenanalyse sind drei Zusammenhangsmodelle, die zu einer Erklärung von Veränderungen im Öko-Lebensmittelkonsum von Familien beitragen. Veränderungen können demnach erstens in einer Erhöhung der Konsumintensität während einer Schwangerschaft bestehen. Als Bedingungen hierfür konnten ein verstärktes Bewusstsein für Öko-Produkte, die körperliche Konstitution der Mutter sowie die Unterstützung durch die soziale Umwelt identifiziert werden. Weitere Bedingungen stellen Lebensmittelskandale sowie eine gute Verfügbarkeit von Öko-Produkten dar. Handlungsstrategien der Eltern beziehen sich auf das Wohlergehen des noch ungeborenen Kindes (Förderung der Gesundheit, Erhalten der zukünftigen Lebenswelt, Orientierung für die spätere Ernährung des Kindes) sowie auf das Wohlergehen der werdenden Mutter (Förderung der Gesundheit, Förderung des Wohlbefindens, Umgang mit schwangerschaftsbedingten Beschwerden). Zweitens können Veränderungen des Öko-Lebensmittelkonsums in einer Erhöhung der Konsumintensität ab dem Zeitpunkt der Umstellung der Ernährung eines Kindes auf eine Beikosternährung bestehen. Bedingungen hierfür sind eine verstärkte Beachtung von Öko-Produkten, die körperliche Konstitution des Kindes, die Abstimmung von Familien- und Baby-Kost, der Austausch mit und die Unterstützung durch die soziale Umwelt sowie der Wunsch von Eltern, einen Beitrag zum Öko-Landbau zu liefern. Bedingungen können außerdem eine gute Verfügbarkeit von Öko-Produkten sowie der Einfluss von Medien darstellen. Handlungsstrategien der Eltern beziehen sich auf die Ernährung des Kindes (Förderung der Gesundheit, Förderung der Geschmackssozialisation) und auf die Ernährung der restlichen Familie (effiziente Beschaffung und Verwendung von Lebensmitteln, Förderung des Wohlbefindens der Eltern). Drittens können Veränderungen im Öko-Lebensmittelkonsum in Familien in einem Rückgang der Konsumintensität während des Übergangs von Kindern ins Jugendalter bestehen. Bedingungen hierfür bestehen in der Konsequenz, mit der Eltern konventionellen Lebensmittelwünschen ihrer Kinder nachgeben, in der Beurteilung von Lebensmitteln durch die Eltern sowie in der Intensität, mit der Kinder ihre Wünsche einfordern. Handlungsstrategien der Eltern sind darauf ausgerichtet Kindern einen Wunsch zu erfüllen, sich gegenüber diesen liberal zu verhalten, Konflikte mit Kindern zu vermeiden oder diese ihre eigenen Erfahrungen sammeln zu lassen. Die Ergebnisse tragen zu einer theoretischen Fundierung des Zusammenhangs zwischen Familienzyklus und dem Öko-Lebensmittelkonsum in Familien bei und zeigen, dass dieser ein sinnvolles theoretisches Bezugssystem für Veränderungen der Konsumintensität von Öko-Produkten darstellt. Für die Konsumentenforschung tragen die Ergebnisse zu einem differenzierten Verständnis von Ober- und Untergrenzen von Familienzyklusstadien bei. Es zeigt sich weiterhin, dass Veränderungen des Öko-Konsums unter anderem unter dem Einfluss der sozialen Umwelt stehen. Im Hinblick auf das Marketing kann insbesondere geschlussfolgert werden, dass bei bestimmten Produktkategorien die Bedürfnisse jugendlicher Zielgruppen verstärkt berücksichtigt werden sollten. Zur Bindung junger Familien ist darauf hinzuwirken, einen Mehraufwand bei der Beschaffung von Öko-Produkten auszuschließen. Für die Ansprache der Zielgruppe Schwangere erscheinen Kommunikationsbotschaften geeignet, die sich auf das Wohlbefinden von Kind und Mutter und auf Nachhaltigkeitsaspekte beziehen. Eltern mit Kindern im Übergang zu einer Beikosternährung könnten gezielt durch Kommunikationsbotschaften angesprochen werden, die in Zusammenhang mit der Förderung der Gesundheit und der Geschmacksozialisation von Kindern stehen.
Resumo:
Land use has become a force of global importance, considering that 34% of the Earth’s ice-free surface was covered by croplands or pastures in 2000. The expected increase in global human population together with eminent climate change and associated search for energy sources other than fossil fuels can, through land-use and land-cover changes (LUCC), increase the pressure on nature’s resources, further degrade ecosystem services, and disrupt other planetary systems of key importance to humanity. This thesis presents four modeling studies on the interplay between LUCC, increased production of biofuels and climate change in four selected world regions. In the first study case two new crop types (sugarcane and jatropha) are parameterized in the LPJ for managed Lands dynamic global vegetation model for calculation of their potential productivity. Country-wide spatial variation in the yields of sugarcane and jatropha incurs into substantially different land requirements to meet the biofuel production targets for 2015 in Brazil and India, depending on the location of plantations. Particularly the average land requirements for jatropha in India are considerably higher than previously estimated. These findings indicate that crop zoning is important to avoid excessive LUCC. In the second study case the LandSHIFT model of land-use and land-cover changes is combined with life cycle assessments to investigate the occurrence and extent of biofuel-driven indirect land-use changes (ILUC) in Brazil by 2020. The results show that Brazilian biofuels can indeed cause considerable ILUC, especially by pushing the rangeland frontier into the Amazonian forests. The carbon debt caused by such ILUC would result in no carbon savings (from using plant-based ethanol and biodiesel instead of fossil fuels) before 44 years for sugarcane ethanol and 246 years for soybean biodiesel. The intensification of livestock grazing could avoid such ILUC. We argue that such an intensification of livestock should be supported by the Brazilian biofuel sector, based on the sector’s own interest in minimizing carbon emissions. In the third study there is the development of a new method for crop allocation in LandSHIFT, as influenced by the occurrence and capacity of specific infrastructure units. The method is exemplarily applied in a first assessment of the potential availability of land for biogas production in Germany. The results indicate that Germany has enough land to fulfill virtually all (90 to 98%) its current biogas plant capacity with only cultivated feedstocks. Biogas plants located in South and Southwestern (North and Northeastern) Germany might face more (less) difficulties to fulfill their capacities with cultivated feedstocks, considering that feedstock transport distance to plants is a crucial issue for biogas production. In the fourth study an adapted version of LandSHIFT is used to assess the impacts of contrasting scenarios of climate change and conservation targets on land use in the Brazilian Amazon. Model results show that severe climate change in some regions by 2050 can shift the deforestation frontier to areas that would experience low levels of human intervention under mild climate change (such as the western Amazon forests or parts of the Cerrado savannas). Halting deforestation of the Amazon and of the Brazilian Cerrado would require either a reduction in the production of meat or an intensification of livestock grazing in the region. Such findings point out the need for an integrated/multicisciplinary plan for adaptation to climate change in the Amazon. The overall conclusions of this thesis are that (i) biofuels must be analyzed and planned carefully in order to effectively reduce carbon emissions; (ii) climate change can have considerable impacts on the location and extent of LUCC; and (iii) intensification of grazing livestock represents a promising venue for minimizing the impacts of future land-use and land-cover changes in Brazil.