94 resultados para stochastischer Prozess


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der psycholinguistischen Forschung ist die Annahme weitverbreitet, dass die Bewertung von Informationen hinsichtlich ihres Wahrheitsgehaltes oder ihrer Plausibilität (epistemische Validierung; Richter, Schroeder & Wöhrmann, 2009) ein strategischer, optionaler und dem Verstehen nachgeschalteter Prozess ist (z.B. Gilbert, 1991; Gilbert, Krull & Malone, 1990; Gilbert, Tafarodi & Malone, 1993; Herbert & Kübler, 2011). Eine zunehmende Anzahl an Studien stellt dieses Zwei-Stufen-Modell von Verstehen und Validieren jedoch direkt oder indirekt in Frage. Insbesondere Befunde zu Stroop-artigen Stimulus-Antwort-Kompatibilitätseffekten, die auftreten, wenn positive und negative Antworten orthogonal zum aufgaben-irrelevanten Wahrheitsgehalt von Sätzen abgegeben werden müssen (z.B. eine positive Antwort nach dem Lesen eines falschen Satzes oder eine negative Antwort nach dem Lesen eines wahren Satzes; epistemischer Stroop-Effekt, Richter et al., 2009), sprechen dafür, dass Leser/innen schon beim Verstehen eine nicht-strategische Überprüfung der Validität von Informationen vornehmen. Ausgehend von diesen Befunden war das Ziel dieser Dissertation eine weiterführende Überprüfung der Annahme, dass Verstehen einen nicht-strategischen, routinisierten, wissensbasierten Validierungsprozesses (epistemisches Monitoring; Richter et al., 2009) beinhaltet. Zu diesem Zweck wurden drei empirische Studien mit unterschiedlichen Schwerpunkten durchgeführt. Studie 1 diente der Untersuchung der Fragestellung, ob sich Belege für epistemisches Monitoring auch bei Informationen finden lassen, die nicht eindeutig wahr oder falsch, sondern lediglich mehr oder weniger plausibel sind. Mithilfe des epistemischen Stroop-Paradigmas von Richter et al. (2009) konnte ein Kompatibilitätseffekt von aufgaben-irrelevanter Plausibilität auf die Latenzen positiver und negativer Antworten in zwei unterschiedlichen experimentellen Aufgaben nachgewiesen werden, welcher dafür spricht, dass epistemisches Monitoring auch graduelle Unterschiede in der Übereinstimmung von Informationen mit dem Weltwissen berücksichtigt. Darüber hinaus belegen die Ergebnisse, dass der epistemische Stroop-Effekt tatsächlich auf Plausibilität und nicht etwa auf der unterschiedlichen Vorhersagbarkeit von plausiblen und unplausiblen Informationen beruht. Das Ziel von Studie 2 war die Prüfung der Hypothese, dass epistemisches Monitoring keinen evaluativen Mindset erfordert. Im Gegensatz zu den Befunden anderer Autoren (Wiswede, Koranyi, Müller, Langner, & Rothermund, 2013) zeigte sich in dieser Studie ein Kompatibilitätseffekt des aufgaben-irrelevanten Wahrheitsgehaltes auf die Antwortlatenzen in einer vollständig nicht-evaluativen Aufgabe. Die Ergebnisse legen nahe, dass epistemisches Monitoring nicht von einem evaluativen Mindset, möglicherweise aber von der Tiefe der Verarbeitung abhängig ist. Studie 3 beleuchtete das Verhältnis von Verstehen und Validieren anhand einer Untersuchung der Online-Effekte von Plausibilität und Vorhersagbarkeit auf Augenbewegungen beim Lesen kurzer Texte. Zusätzlich wurde die potentielle Modulierung dieser Effeke durch epistemische Marker, die die Sicherheit von Informationen anzeigen (z.B. sicherlich oder vielleicht), untersucht. Entsprechend der Annahme eines schnellen und nicht-strategischen epistemischen Monitoring-Prozesses zeigten sich interaktive Effekte von Plausibilität und dem Vorhandensein epistemischer Marker auf Indikatoren früher Verstehensprozesse. Dies spricht dafür, dass die kommunizierte Sicherheit von Informationen durch den Monitoring-Prozess berücksichtigt wird. Insgesamt sprechen die Befunde gegen eine Konzeptualisierung von Verstehen und Validieren als nicht-überlappenden Stufen der Informationsverarbeitung. Vielmehr scheint eine Bewertung des Wahrheitsgehalts oder der Plausibilität basierend auf dem Weltwissen – zumindest in gewissem Ausmaß – eine obligatorische und nicht-strategische Komponente des Sprachverstehens zu sein. Die Bedeutung der Befunde für aktuelle Modelle des Sprachverstehens und Empfehlungen für die weiterführende Forschung zum Vehältnis von Verstehen und Validieren werden aufgezeigt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The traditional task of a central bank is to preserve price stability and, in doing so, not to impair the real economy more than necessary. To meet this challenge, it is of great relevance whether inflation is only driven by inflation expectations and the current output gap or whether it is, in addition, influenced by past inflation. In the former case, as described by the New Keynesian Phillips curve, the central bank can immediately and simultaneously achieve price stability and equilibrium output, the so-called ‘divine coincidence’ (Blanchard and Galí 2007). In the latter case, the achievement of price stability is costly in terms of output and will be pursued over several periods. Similarly, it is important to distinguish this latter case, which describes ‘intrinsic’ inflation persistence, from that of ‘extrinsic’ inflation persistence, where the sluggishness of inflation is not a ‘structural’ feature of the economy but merely ‘inherited’ from the sluggishness of the other driving forces, inflation expectations and output. ‘Extrinsic’ inflation persistence is usually considered to be the less challenging case, as policy-makers are supposed to fight against the persistence in the driving forces, especially to reduce the stickiness of inflation expectations by a credible monetary policy, in order to reestablish the ‘divine coincidence’. The scope of this dissertation is to contribute to the vast literature and ongoing discussion on inflation persistence: Chapter 1 describes the policy consequences of inflation persistence and summarizes the empirical and theoretical literature. Chapter 2 compares two models of staggered price setting, one with a fixed two-period duration and the other with a stochastic duration of prices. I show that in an economy with a timeless optimizing central bank the model with the two-period alternating price-setting (for most parameter values) leads to more persistent inflation than the model with stochastic price duration. This result amends earlier work by Kiley (2002) who found that the model with stochastic price duration generates more persistent inflation in response to an exogenous monetary shock. Chapter 3 extends the two-period alternating price-setting model to the case of 3- and 4-period price durations. This results in a more complex Phillips curve with a negative impact of past inflation on current inflation. As simulations show, this multi-period Phillips curve generates a too low degree of autocorrelation and too early turnings points of inflation and is outperformed by a simple Hybrid Phillips curve. Chapter 4 starts from the critique of Driscoll and Holden (2003) on the relative real-wage model of Fuhrer and Moore (1995). While taking the critique seriously that Fuhrer and Moore’s model will collapse to a much simpler one without intrinsic inflation persistence if one takes their arguments literally, I extend the model by a term for inequality aversion. This model extension is not only in line with experimental evidence but results in a Hybrid Phillips curve with inflation persistence that is observably equivalent to that presented by Fuhrer and Moore (1995). In chapter 5, I present a model that especially allows to study the relationship between fairness attitudes and time preference (impatience). In the model, two individuals take decisions in two subsequent periods. In period 1, both individuals are endowed with resources and are able to donate a share of their resources to the other individual. In period 2, the two individuals might join in a common production after having bargained on the split of its output. The size of the production output depends on the relative share of resources at the end of period 1 as the human capital of the individuals, which is built by means of their resources, cannot fully be substituted one against each other. Therefore, it might be rational for a well-endowed individual in period 1 to act in a seemingly ‘fair’ manner and to donate own resources to its poorer counterpart. This decision also depends on the individuals’ impatience which is induced by the small but positive probability that production is not possible in period 2. As a general result, the individuals in the model economy are more likely to behave in a ‘fair’ manner, i.e., to donate resources to the other individual, the lower their own impatience and the higher the productivity of the other individual. As the (seemingly) ‘fair’ behavior is modelled as an endogenous outcome and as it is related to the aspect of time preference, the presented framework might help to further integrate behavioral economics and macroeconomics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Unternehmensumwelt, mit der sich Kreditinstitute heutzutage konfrontiert sehen und mit der sie sich harmonisieren müssen, ist durch tiefgreifende Veränderungen und eine fortschreitende Dynamik gekennzeichnet. Mit den sog. Non- und Nearbanks sind neue Wettbewerber in den Markt eingetreten, und die Subprime-Finanzkrise aus dem Jahr 2008 hat zu einer tiefgreifenden Vertrauenskrise bei den Konsumenten geführt. Die Möglichkeiten der Kreditinstitute, sich diesen Herausforderungen zu stellen, sind durch die angebotene Generaltauschware Geld, den fehlenden gesetzlichen Innovationsschutz sowie vergleichbare Vertriebsformen und Marktauftritte eher begrenzt. Es stellt sich somit die Frage, wie sich Kreditinstitute künftig nachhaltig im Wettbewerb behaupten können. Die Lösung wird im Konsumgüterbereich gesehen: Zur Überwindung der vorherrschenden technischen Produkthomogenität werden Marken dort erfolgreich als Strategie eingesetzt, um sich vom Wettbewerb zu differenzieren, den Kunden gezielt anzusprechen und preisliche Spielräume zu generieren. Der vorliegenden Dissertation liegen somit zwei zentrale Hypothesen zugrunde: H1) Im Bankbereich bestehen vergleichbare Sättigungseffekte und eine hohe Angebotshomogenität wie im Konsumgüterbereich. H2) Die Adaption von Markenführungs-konzepten aus dem Konsumgüterbereich generiert einen positiven Beitrag zur Profilierung, Differenzierung und Vertrauensbildung von Kreditinstituten. In einem deskriptiv-konzeptionellen Ansatz werden zunächst konstituierende Merkmale und Funktionen einer Marke erarbeitet. Mit Hilfe einer interdisziplinären Metaanalyse wird anschließend ein integratives holistisches Markenverständnis geschaffen und erklärt, wie und warum Marken funktionieren. Dabei wird insbesondere die Rolle der Marke als „Invisible Hand“ im gesellschaftlichen System gewürdigt, die die Handlungen der Individuen beeinflusst und dabei in einem zirkulär-kausalen Prozess von der Gesellschaft bzw. Zielgruppe selbst konstituiert wird. Mit dem Versuch, das Markenphänomen mit Hilfe der evolutorischen Ökonomik zu erklären, wird ferner Neuland betreten. Im Weiteren werden theoretische Konzepte der Markenführung diskutiert und bewertet. Auf Basis dieses neu geschaffenen Fundaments werden im Hauptteil der Arbeit sowohl Markenstrategien aus dem Konsumgüterbereich als auch Instrumente zur operativen Implementierung der Markenstrategie in einem diskursiven Ansatz mittels erarbeiteter Plausibilitätskriterien eingehend auf ihre Übertragbarkeit auf Kreditinstitute hin analysiert und bewertet. Als Ergebnis der Arbeit wurden H1 vollumfänglich und H2 mit Einschränkungen bestätigt. Diese Einschränkungen ergeben sich hauptsächlich dadurch, dass durch die Synchronität von Leistungserstellung und Leistungsinanspruchnahme eine Abkoppelung der Marke vom Unter-nehmen kaum darstellbar ist. Mehrmarkenstrategien sowie spitze Positionierungen sind bei den vorherrschenden Universalinstituten somit quasi nicht umsetzbar. Weitere Limitierungen resultieren aus der Vertrauensempfindlichkeit der Bankleistung, die Einschränkungen bei Markendehnungen (Produktlinien- und Transferstrategien) zur Folge hat. Die operativen Markeninstrumente aus dem Konsumgüterbereich hingegen sind weitestgehend anwendbar. Auch bei dem Einsatz der Controllinginstrumente zur Steuerung der Markenführung werden keine Einschränkungen gesehen. In einem Ausblick wird abschließend gezeigt, dass sich die Wettbewerbsintensität der Kreditinstitute nicht entspannen wird, es werden eher Tendenzen ihrer weiteren Verschärfung ausgemacht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zunehmend mehr Menschen wünschen sich ein selbstbestimmtes Leben, neue Formen eines sozialen Miteinanders und mehr zwischenmenschliche Verbindlichkeit im Alltag. Die Möglichkeiten zur Mitsprache bei der Entwicklung und in der Organisation des alltäglichen Wohnens bleiben jedoch in der Regel nur einer kleinen Gruppe von BauherrInnen vorbehalten. Doch was ist mit jenen, die zwar gemeinschaftliche Lebensmodelle suchen, sich jedoch aufgrund ihrer Lebensplanung oder ihrer fnanziellen Situation nicht langfristig binden wollen oder können? Etwa siebzig Prozent der deutschen Haushalte mit geringem Einkommen wohnen zur Miete – viele von ihnen in anonymen Mietverhältnissen, in denen Wunsch und Wirklichkeit hinsichtlich einer guten und verlässlichen Nachbarschaft weit auseinander liegen. In der vorliegenden Arbeit gehe ich der Frage nach, wie nachbarschaftliches Wohnen in klassischen Mietshäusern organisiert werden kann. Welche Motivationen haben die BewohnerInnen? Wie kann unterstützend in die Entwicklung der Projekte eingegrifen werden? Wo liegen die natürlichen Grenzen des Konzeptes? Und wie kann verhindert werden, dass die Projekte nach einer euphorischen Phase des Neubaus oder der Sanierung entweder an inneren Widersprüchen oder an äußeren Zwängen scheitern? Als Forschungsansatz wählte ich eine Einzelfallstudie. Das Untersuchungsobjekt ist ein Mietshaus mit siebenundzwanzig Wohneinheiten und zweiundvierzig BewohnerInnen im Berliner Stadtteil Wedding. Ich habe das Projekt und die beteiligten Akteure während der Projektentwicklung, der Sanierungs- und der Wohnphase über einen Zeitraum von insgesamt zehn Jahren aktiv als Planer, Bewohner und Beobachter begleitet. Im Rahmen der Untersuchung wurden die unterschiedlichen Projektphasen, die Entwicklung des nachbarschaftlichen Miteinanders, sowie besondere Ereignisse in deren Verlauf beschrieben. Dabei wurden vor allem die eingesetzten Werkzeuge und Methoden, sowie wesentliche Faktoren, die zu der Entwicklung beigetragen haben, herausgestellt und analysiert. Anhand von Einzelinterviews, Gruppengesprächen und teilnehmenden Beobachtungen wurden die Wünsche, Bedürfnisse und Ängste der BewohnerInnen, sowie deren Auswirkungen auf das alltägliche Miteinander erfasst. Die Ergebnisse der Beobachtungen wurden interpretiert und abschließend in Empfehlungen zusammengefasst. Da sich das Projekt auch zehn Jahre nach der Gründung ständig weiter entwickelt, kann und soll in dieser Arbeit nur der Prozess beschrieben und analysiert, jedoch kein Endergebnis der Projektentwicklung präsentiert werden. Die vorliegende Studie soll vielmehr dazu beitragen, das Mietshausprojekt als alternatives Wohn- und Lebensmodell weiterzuentwickeln und zu seiner weiteren Verbreitung beitragen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The research of this thesis dissertation covers developments and applications of short-and long-term climate predictions. The short-term prediction emphasizes monthly and seasonal climate, i.e. forecasting from up to the next month over a season to up to a year or so. The long-term predictions pertain to the analysis of inter-annual- and decadal climate variations over the whole 21st century. These two climate prediction methods are validated and applied in the study area, namely, Khlong Yai (KY) water basin located in the eastern seaboard of Thailand which is a major industrial zone of the country and which has been suffering from severe drought and water shortage in recent years. Since water resources are essential for the further industrial development in this region, a thorough analysis of the potential climate change with its subsequent impact on the water supply in the area is at the heart of this thesis research. The short-term forecast of the next-season climate, such as temperatures and rainfall, offers a potential general guideline for water management and reservoir operation. To that avail, statistical models based on autoregressive techniques, i.e., AR-, ARIMA- and ARIMAex-, which includes additional external regressors, and multiple linear regression- (MLR) models, are developed and applied in the study region. Teleconnections between ocean states and the local climate are investigated and used as extra external predictors in the ARIMAex- and the MLR-model and shown to enhance the accuracy of the short-term predictions significantly. However, as the ocean state – local climate teleconnective relationships provide only a one- to four-month ahead lead time, the ocean state indices can support only a one-season-ahead forecast. Hence, GCM- climate predictors are also suggested as an additional predictor-set for a more reliable and somewhat longer short-term forecast. For the preparation of “pre-warning” information for up-coming possible future climate change with potential adverse hydrological impacts in the study region, the long-term climate prediction methodology is applied. The latter is based on the downscaling of climate predictions from several single- and multi-domain GCMs, using the two well-known downscaling methods SDSM and LARS-WG and a newly developed MLR-downscaling technique that allows the incorporation of a multitude of monthly or daily climate predictors from one- or several (multi-domain) parent GCMs. The numerous downscaling experiments indicate that the MLR- method is more accurate than SDSM and LARS-WG in predicting the recent past 20th-century (1971-2000) long-term monthly climate in the region. The MLR-model is, consequently, then employed to downscale 21st-century GCM- climate predictions under SRES-scenarios A1B, A2 and B1. However, since the hydrological watershed model requires daily-scale climate input data, a new stochastic daily climate generator is developed to rescale monthly observed or predicted climate series to daily series, while adhering to the statistical and geospatial distributional attributes of observed (past) daily climate series in the calibration phase. Employing this daily climate generator, 30 realizations of future daily climate series from downscaled monthly GCM-climate predictor sets are produced and used as input in the SWAT- distributed watershed model, to simulate future streamflow and other hydrological water budget components in the study region in a multi-realization manner. In addition to a general examination of the future changes of the hydrological regime in the KY-basin, potential future changes of the water budgets of three main reservoirs in the basin are analysed, as these are a major source of water supply in the study region. The results of the long-term 21st-century downscaled climate predictions provide evidence that, compared with the past 20th-reference period, the future climate in the study area will be more extreme, particularly, for SRES A1B. Thus, the temperatures will be higher and exhibit larger fluctuations. Although the future intensity of the rainfall is nearly constant, its spatial distribution across the region is partially changing. There is further evidence that the sequential rainfall occurrence will be decreased, so that short periods of high intensities will be followed by longer dry spells. This change in the sequential rainfall pattern will also lead to seasonal reductions of the streamflow and seasonal changes (decreases) of the water storage in the reservoirs. In any case, these predicted future climate changes with their hydrological impacts should encourage water planner and policy makers to develop adaptation strategies to properly handle the future water supply in this area, following the guidelines suggested in this study.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the past decades since Schumpeter’s influential writings economists have pursued research to examine the role of innovation in certain industries on firm as well as on industry level. Researchers describe innovations as the main trigger of industry dynamics, while policy makers argue that research and education are directly linked to economic growth and welfare. Thus, research and education are an important objective of public policy. Firms and public research are regarded as the main actors which are relevant for the creation of new knowledge. This knowledge is finally brought to the market through innovations. What is more, policy makers support innovations. Both actors, i.e. policy makers and researchers, agree that innovation plays a central role but researchers still neglect the role that public policy plays in the field of industrial dynamics. Therefore, the main objective of this work is to learn more about the interdependencies of innovation, policy and public research in industrial dynamics. The overarching research question of this dissertation asks whether it is possible to analyze patterns of industry evolution – from evolution to co-evolution – based on empirical studies of the role of innovation, policy and public research in industrial dynamics. This work starts with a hypothesis-based investigation of traditional approaches of industrial dynamics. Namely, the testing of a basic assumption of the core models of industrial dynamics and the analysis of the evolutionary patterns – though with an industry which is driven by public policy as example. Subsequently it moves to a more explorative approach, investigating co-evolutionary processes. The underlying questions of the research include the following: Do large firms have an advantage because of their size which is attributable to cost spreading? Do firms that plan to grow have more innovations? What role does public policy play for the evolutionary patterns of an industry? Are the same evolutionary patterns observable as those described in the ILC theories? And is it possible to observe regional co-evolutionary processes of science, innovation and industry evolution? Based on two different empirical contexts – namely the laser and the photovoltaic industry – this dissertation tries to answer these questions and combines an evolutionary approach with a co-evolutionary approach. The first chapter starts with an introduction of the topic and the fields this dissertation is based on. The second chapter provides a new test of the Cohen and Klepper (1996) model of cost spreading, which explains the relationship between innovation, firm size and R&D, at the example of the photovoltaic industry in Germany. First, it is analyzed whether the cost spreading mechanism serves as an explanation for size advantages in this industry. This is related to the assumption that the incentives to invest in R&D increase with the ex-ante output. Furthermore, it is investigated whether firms that plan to grow will have more innovative activities. The results indicate that cost spreading serves as an explanation for size advantages in this industry and, furthermore, growth plans lead to higher amount of innovative activities. What is more, the role public policy plays for industry evolution is not finally analyzed in the field of industrial dynamics. In the case of Germany, the introduction of demand inducing policy instruments stimulated market and industry growth. While this policy immediately accelerated market volume, the effect on industry evolution is more ambiguous. Thus, chapter three analyzes this relationship by considering a model of industry evolution, where demand-inducing policies will be discussed as a possible trigger of development. The findings suggest that these instruments can take the same effect as a technical advance to foster the growth of an industry and its shakeout. The fourth chapter explores the regional co-evolution of firm population size, private-sector patenting and public research in the empirical context of German laser research and manufacturing over more than 40 years from the emergence of the industry to the mid-2000s. The qualitative as well as quantitative evidence is suggestive of a co-evolutionary process of mutual interdependence rather than a unidirectional effect of public research on private-sector activities. Chapter five concludes with a summary, the contribution of this work as well as the implications and an outlook of further possible research.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Eine wesentliche Funktionalität bei der Verwendung semantischer Technologien besteht in dem als Reasoning bezeichneten Prozess des Ableitens von impliziten Fakten aus einer explizit gegebenen Wissensbasis. Der Vorgang des Reasonings stellt vor dem Hintergrund der stetig wachsenden Menge an (semantischen) Informationen zunehmend eine Herausforderung in Bezug auf die notwendigen Ressourcen sowie der Ausführungsgeschwindigkeit dar. Um diesen Herausforderungen zu begegnen, adressiert die vorliegende Arbeit das Reasoning durch eine massive Parallelisierung der zugrunde liegenden Algorithmen und der Einführung von Konzepten für eine ressourceneffiziente Ausführung. Diese Ziele werden unter Berücksichtigung der Verwendung eines regelbasierten Systems verfolgt, dass im Gegensatz zur Implementierung einer festen Semantik die Definition der anzuwendenden Ableitungsregeln während der Laufzeit erlaubt und so eine größere Flexibilität bei der Nutzung des Systems bietet. Ausgehend von einer Betrachtung der Grundlagen des Reasonings und den verwandten Arbeiten aus den Bereichen des parallelen sowie des regelbasierten Reasonings werden zunächst die Funktionsweise von Production Systems sowie die dazu bereits existierenden Ansätze für die Optimierung und im Speziellen der Parallelisierung betrachtet. Production Systems beschreiben die grundlegende Funktionalität der regelbasierten Verarbeitung und sind somit auch die Ausgangsbasis für den RETE-Algorithmus, der zur Erreichung der Zielsetzung der vorliegenden Arbeit parallelisiert und für die Ausführung auf Grafikprozessoren (GPUs) vorbereitet wird. Im Gegensatz zu bestehenden Ansätzen unterscheidet sich die Parallelisierung insbesondere durch die gewählte Granularität, die nicht durch die anzuwendenden Regeln, sondern von den Eingabedaten bestimmt wird und sich damit an der Zielarchitektur orientiert. Aufbauend auf dem Konzept der parallelen Ausführung des RETE-Algorithmus werden Methoden der Partitionierung und Verteilung der Arbeitslast eingeführt, die zusammen mit Konzepten der Datenkomprimierung sowie der Verteilung von Daten zwischen Haupt- und Festplattenspeicher ein Reasoning über Datensätze mit mehreren Milliarden Fakten auf einzelnen Rechnern erlauben. Eine Evaluation der eingeführten Konzepte durch eine prototypische Implementierung zeigt für die adressierten leichtgewichtigen Ontologiesprachen einerseits die Möglichkeit des Reasonings über eine Milliarde Fakten auf einem Laptop, was durch die Reduzierung des Speicherbedarfs um rund 90% ermöglicht wird. Andererseits kann der dabei erzielte Durchsatz mit aktuellen State of the Art Reasonern verglichen werden, die eine Vielzahl an Rechnern in einem Cluster verwenden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ZUSAMMENFASSUNG Von der „Chaosgruppe“ zur lernenden Organisation. Fallstudien zur Induzierung und Verbreitung von Innovation in ländlichen Kleinorganisationen im Buruli (Zentral-Uganda). Die oft fehlende Nachhaltigkeit landwirtschaftlicher Projekte in Afrika allgemein und in Buruli (Zentral-Uganda) insbesondere gab den Anstoß zu der Forschung, die der vorliegenden Dissertation zugrunde liegt. Ein häufiger Grund für das Scheitern von Projekten ist, dass die lokale Bevölkerung die landwirtschaftliche Innovation als Risiko für die Ernährungssicherheit der Familie betrachtet. Die vorliegende Arbeit ist daher ein Beitrag zur Suche nach einem Weg zur Nachhaltigkeit, der dieser Tatsache Rechnung trägt. Als Forschungsmethode wurden die Gruppendiskussion und die Beobachtung mit den beiden Varianten „teilnehmender Beobachter“ und „beobachtender Teilnehmer“ gemäß Lamnek(1995b) angewendet. Es stellte sich heraus, dass die ablehnende Haltung der Zielbevölkerung landwirtschaftlicher Innovation gegenüber durch finanzielle Anreize, Seminare oder die Überzeugungskunst von Mitarbeitern der Entwicklungsorganisationen kaum behoben werden kann, sondern nur durch den Einbezug der Menschen in einen von ihnen selbst gesteuerten Risikomanagementprozess. Die Prozessberatung von Schein (2000) und die nichtdirektive Beratung von Rogers (2010) haben sich im Rahmen unserer Untersuchung für die Motivierung der Bevölkerung für eine risikobewusste Entwicklungsinitiative von großem Nutzen erwiesen ebenso wie für die Beschreibung dieses Prozesses in der vorliegenden Studie. Die untersuchten Gruppen wurden durch diesen innovativen Ansatz der Entwicklungsberatung in die Lage versetzt, das Risiko von Innovation zu analysieren, zu bewerten und zu minimieren, ihre Zukunft selbst in die Hand zu nehmen und in einem sozialen, ökonomischen und physischen Umfeld zu gestalten sowie auf Veränderungen im Laufe der Umsetzung angemessen zu reagieren. Der Erwerb dieser Fähigkeit setzte eine Umwandlung einfacher Bauerngruppen ohne erkennbare Strukturen in strukturierte und organisierte Gruppen voraus, die einer lernenden Organisation im ländlichen Raum entsprechen. Diese Transformation bedarf als erstes eines Zugangs zur Information und einer zielorientierten Kommunikation. Die Umwandlung der Arbeitsgruppe zu einer lernenden Bauernorganisation förderte die Nachhaltigkeit des Gemüseanbauprojekts und das Risikomanagement und wurde so zu einem konkreten, von der Umwelt wahrgenommenen Beispiel für die Zweckmäßigkeit des oben beschriebenen Forschungsansatzes. Die Herausbildung einer lernenden Organisation ist dabei nicht Mittel zum Zweck, sondern ist selbst das zu erreichende Ziel. Die Beobachtung, Begleitung und Analyse dieses Umwandlungsprozesses erfordert einen multidisziplinären Ansatz. In diesem Fall flossen agrarwissenschaftliche, soziologische, linguistische und anthropologische Perspektiven in die partnerschaftlich ausgerichtete Forschung ein. Von der Entwicklungspolitik erfordert dieser Ansatz einen neuen Weg, der auf der Partnerschaft mit den Betroffenen und auf einer Entemotionalisierung des Entwicklungsvorhabens basiert und eine gegenseitige Wertschätzung zwischen den Akteuren voraussetzt. In diesem Prozess entwickelt sich im Laufe der Zeit die „lernende“ Bauernorganisation auch zu einer „lehrenden“ Organisation und wird dadurch eine Quelle der Inspiration für die Gesamtgesellschaft. Die Nachhaltigkeit von ländlichen Entwicklungsprojekten wird damit maßgeblich verbessert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit wird eine gemeinsame Optimierung der Hybrid-Betriebsstrategie und des Verhaltens des Verbrennungsmotors vorgestellt. Die Übernahme von den im Steuergerät verwendeten Funktionsmodulen in die Simulationsumgebung für Fahrzeuglängsdynamik stellt eine effiziente Applikationsmöglichkeit der Originalparametrierung dar. Gleichzeitig ist es notwendig, das Verhalten des Verbrennungsmotors derart nachzubilden, dass das stationäre und das dynamische Verhalten, inklusive aller relevanten Einflussmöglichkeiten, wiedergegeben werden kann. Das entwickelte Werkzeug zur Übertragung der in Ascet definierten Steurgerätefunktionen in die Simulink-Simulationsumgebung ermöglicht nicht nur die Simulation der relevanten Funktionsmodule, sondern es erfüllt auch weitere wichtige Eigenschaften. Eine erhöhte Flexibilität bezüglich der Daten- und Funktionsstandänderungen, sowie die Parametrierbarkeit der Funktionsmodule sind Verbesserungen die an dieser Stelle zu nennen sind. Bei der Modellierung des stationären Systemverhaltens des Verbrennungsmotors erfolgt der Einsatz von künstlichen neuronalen Netzen. Die Auswahl der optimalen Neuronenanzahl erfolgt durch die Betrachtung des SSE für die Trainings- und die Verifikationsdaten. Falls notwendig, wird zur Sicherstellung der angestrebten Modellqualität, das Interpolationsverhalten durch Hinzunahme von Gauß-Prozess-Modellen verbessert. Mit den Gauß-Prozess-Modellen werden hierbei zusätzliche Stützpunkte erzeugt und mit einer verminderten Priorität in die Modellierung eingebunden. Für die Modellierung des dynamischen Systemverhaltens werden lineare Übertragungsfunktionen verwendet. Bei der Minimierung der Abweichung zwischen dem Modellausgang und den Messergebnissen wird zusätzlich zum SSE das 2σ-Intervall der relativen Fehlerverteilung betrachtet. Die Implementierung der Steuergerätefunktionsmodule und der erstellten Steller-Sensor-Streckenmodelle in der Simulationsumgebung für Fahrzeuglängsdynamik führt zum Anstieg der Simulationszeit und einer Vergrößerung des Parameterraums. Das aus Regelungstechnik bekannte Verfahren der Gütevektoroptimierung trägt entscheidend zu einer systematischen Betrachtung und Optimierung der Zielgrößen bei. Das Ergebnis des Verfahrens ist durch das Optimum der Paretofront der einzelnen Entwurfsspezifikationen gekennzeichnet. Die steigenden Simulationszeiten benachteiligen Minimumsuchverfahren, die eine Vielzahl an Iterationen benötigen. Um die Verwendung einer Zufallsvariablen, die maßgeblich zur Steigerung der Iterationanzahl beiträgt, zu vermeiden und gleichzeitig eine Globalisierung der Suche im Parameterraum zu ermöglichen wird die entwickelte Methode DelaunaySearch eingesetzt. Im Gegensatz zu den bekannten Algorithmen, wie die Partikelschwarmoptimierung oder die evolutionären Algorithmen, setzt die neu entwickelte Methode bei der Suche nach dem Minimum einer Kostenfunktion auf eine systematische Analyse der durchgeführten Simulationsergebnisse. Mit Hilfe der bei der Analyse gewonnenen Informationen werden Bereiche mit den bestmöglichen Voraussetzungen für ein Minimum identifiziert. Somit verzichtet das iterative Verfahren bei der Bestimmung des nächsten Iterationsschrittes auf die Verwendung einer Zufallsvariable. Als Ergebnis der Berechnungen steht ein gut gewählter Startwert für eine lokale Optimierung zur Verfügung. Aufbauend auf der Simulation der Fahrzeuglängsdynamik, der Steuergerätefunktionen und der Steller-Sensor-Streckenmodelle in einer Simulationsumgebung wird die Hybrid-Betriebsstrategie gemeinsam mit der Steuerung des Verbrennungsmotors optimiert. Mit der Entwicklung und Implementierung einer neuen Funktion wird weiterhin die Verbindung zwischen der Betriebsstrategie und der Motorsteuerung erweitert. Die vorgestellten Werkzeuge ermöglichten hierbei nicht nur einen Test der neuen Funktionalitäten, sondern auch eine Abschätzung der Verbesserungspotentiale beim Verbrauch und Abgasemissionen. Insgesamt konnte eine effiziente Testumgebung für eine gemeinsame Optimierung der Betriebsstrategie und des Verbrennungsmotorverhaltens eines Hybridfahrzeugs realisiert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das ursprünglich in S. cerevisiae identifizierte Urm1 stellt aufgrund seiner dualen Funktionsweise ein besonderes UBL dar. In einem Prozess, der als Urmylierung bezeichnet wird, kann es ähnlich dem Ubiquitin kovalent mit anderen Proteinen verknüpft werden. Zusätzlich fungiert es aber auch als Schwefelträger, der an der Thiolierung des wobble-Uridins bestimmter cytoplasmatischer tRNAs beteiligt ist. Während neuere Untersuchungen zeigen, dass die Urm1-abhängige tRNA-Thiolierung zu einer effizienten Translation in Eukaryoten beiträgt, ist die Bedeutung der Urmylierung immer noch unklar. Um die Funktion der Urm1-vermittelten Proteinmodifikation weiter aufzuklären, wurde die Urmylierung des Peroxiredoxins Ahp1 im Rahmen dieser Arbeit näher untersucht. Es konnte demonstriert werden, dass Ahp1 nicht nur als Monomer, sondern auch als Dimer urmyliert vorliegt. Dies deutet darauf hin, dass die Urmylierung mit dem peroxidatischen Zyklus von Ahp1 verknüpft ist. Diese Annahme konnte durch die Untersuchung der Modifikation verschiedener ahp1-Punktmutanten bestätigt werden. Hierbei ließ sich ebenfalls zeigen, dass das Peroxiredoxin wahrscheinlich auch an alternativen Lysinresten urmyliert werden kann. Trotzdem bleibt unklar, inwiefern die Funktionalität von Ahp1 durch die Urm1-Konjugation beeinträchtigt wird. So konnte ein Einfluss der Urmylierung auf die Ahp1-vermittelte Entgiftung des Alkylhydroperoxids t-BOOH nicht festgestellt werden. Ein weiterer Schwerpunkt dieser Arbeit war die Untersuchung einer möglichen mechanistischen Verknüpfung beider Urm1-Funktionen. Es ließ sich zeigen, dass nicht nur Schwefelmangel, sondern auch ein Verlust der Schwefeltransferase Tum1 zu einer drastischen Reduktion der Urm1-Konjugation führt. Demnach wird die Urmylierung wahrscheinlich über denselben Schwefeltransferweg vermittelt, der ebenfalls zur tRNA-Thiolierung beiträgt. Trotzdem ist der Schwefeltransfer, der zur Urm1-Aktivierung führt, womöglich komplexer als bisher angenommen. Wurden die vermuteten katalytischen Cysteine des Urm1-Aktivatorproteins Uba4 mutiert oder dessen C-terminale RHD entfernt, waren eine gehemmte Urmylierung und tRNA-Thiolierung weiterhin nachweisbar. Somit scheint ein Schwefeltransfer auf Urm1 auch ohne direkte Beteiligung von Uba4 möglich zu sein. In dieser Arbeit ließ sich außerdem zeigen, dass Urm1 in Hefe durch sein humanes Homolog funktional ersetzt werden kann. Dies ist ein Hinweis dafür, dass der Urm1-Weg in allen Eukaryoten gleich funktioniert und konserviert ist. Darüber hinaus scheint für die Urmylierung auch eine Konservierung der Substratspezifität gegeben zu sein. Der Nachweis einer Uba4-Urmylierung in Hefe könnte durchaus darauf hindeuten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Körper in der Kunst ist grundsätzlich eine Darstellung der Rebellion. Die Body-Art der 1990er unterscheidet sich in ihren spezifischen Erscheinungsformen deutlich von der Happening- und Performancekunst ihrer Vorläuferbewegung in den siebziger Jahren (Manifest Body Art 1974, François Pluchart 1937-1988). Mit dem Titel BodyArt-X- erfolgt ein Hinweis auf die Betrachtung einer abgrenzbaren Künstlergeneration, die in ihren zwiespältigen Selbstkonstruktionen die zunehmenden medialen Einflüsse dokumentiert. Im Mittelpunkt der wissenschaftlichen Analyse steht die Körperkunst der neunziger Jahre und deren eigene ästhetische Formensprache. Die Polymorphie der permanenten Umgestaltung wird mit der unbekannten Variable –X- im Titel zum Ausdruck gebracht. Die wissenschaftliche Grundlage bilden die Negation und die beginnende Entmaterialisierung innerhalb der Moderne und Postmoderne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die RNA-Interferenz (RNAi) ist ein in Eukaryoten weit verbreiteter Mechanismus, der die transkriptionelle oder posttranskriptionelle Stilllegung von Genen beschreibt. Die Spezifität wird dabei durch die Sequenz einer kleinen, nicht-kodierenden RNA gewährleistet. Diese RNA leitet einen Effektorkomplex, dessen Zentrum immer von einem Argonautenprotein gebildet wird, üblicherweise zu einer komplementären mRNA. In der Folge kommt es zum Abbau des Transkripts oder zur Inhibierung der Translation. Aktuelle Veröffentlichungen konnten zudem das Aktivitätsprofil der Argonautenproteine beträchtlich erweitern: Im Zellkern vorkommende Argonautenproteine wurden beispielsweise mit Spleißvorgängen, der Promotorkontrolle von Genen und der DNA-Reparatur in Verbindung gebracht. In den letzten Jahren konnten weitreichende Kenntnisse bezüglich der Kontrolle einiger transposabler Elemente durch RNAi sowie der Biogenese kleiner regulatorischer RNAs in Dictyostelium discoideum und anderen Organismen gewonnen werden. Ein Fokus dieser Arbeit lag zunächst auf der Charakterisierung des Argonautenproteins AgnB und der Identifikation von Interaktionspartnern. Es konnte gezeigt werden, dass AgnB zumindest partiell im Zellkern der Amöbe lokalisiert und dort vermutlich regulatorische Aufgaben wahrnimmt. Gestützt wurde diese Annahme durch die massenspektrometrische und Western Blot basierte Detektion nukleärer Bindungspartner. Weiterführende Analysen konnten AgnB zudem als positiven Regulator für drei entwicklungsregulierte Gene beschreiben und so die Verbindung zum Prozess der RNA activation in der Amöbe herstellen. Identifizierte posttranslationale Modifikationen könnten diesbezüglich die Aktivität des Argonauten steuern. Mit Hilfe von Crosslink-RNA-Immunopräzipitation und anschließender Hochdurchsatz-sequenzierung oder der Northern Blot basierten Auswertung konnte eine Assoziation von AgnB und der Class I RNAs gezeigt werden. Diese Klasse umfasst nicht-kodierende RNAs mit einer Länge von etwa 42 bis 65 Nukleotiden und wurde bisher nicht als Substrat für die RNAi-Maschinerie in D. discoideum angesehen. Ein weiterer Teil dieser Arbeit beschäftigte sich mit dem Einfluss von AgnA und AgnB auf die Promotorbereiche des D. discoideum Retrotransposons DIRS-1. Im Verlauf der Untersuchungen konnte beobachtet werden, dass die Anordnung entgegengesetzt operierender DIRS-1 Promotor-sequenzen für die Stilllegung eines Reportergens ausreichend war. Darauf aufbauend konnte ein DIRS-1 basiertes knockdown System etabliert werden. Mit Hilfe dieses Systems konnten die Proteinmengen ausgewählter Zielgene so effektiv reduziert werden, dass die entsprechenden Stämme den Phänotyp des korrespondierenden knockout Stammes zeigten. Darüber hinaus war es möglich die Proteinreduktion zu modulieren, um so beispielsweise dosisabhängige Effekte zu registrieren. Vorangegangene Arbeiten zur Biogenese von micro (mi)RNAs konnten das RNA-bindende Protein RbdB als eine Hauptkomponente für die Prozessierung maturer miRNAs identifizieren. Der miRNA defiziente RbdB- Stamm wurde in dieser Arbeit zur Identifikation putativer miRNA Ziele genutzt. Dazu wurde sowohl das Transkriptom des D. discoideum Wildtyps als auch des rbdB knockout Stammes in hohem Durchsatz sequenziert, um so differentiell exprimierte Gene zu detektieren. Vielversprechende Kandidaten wurden mittels qRT-PCR verifiziert. Dabei wurde unter anderem ein putativer Transkriptionsfaktor als miRNA target identifiziert, der eine Vielzahl weiterer Gene regulieren könnte. Abschließend konnte in dieser Arbeit gezeigt werden, dass RbdB ebenfalls für die Generierung von small interfering (si)RNAs aus strukturierten Loci von Bedeutung ist. Dies weist auf mindestens zwei unterschiedliche Mechanismen zur siRNA Prozessierung in D. discoideum hin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wird ein Prozess für den frühen aerothermodynamischen Entwurf von Axialturbinen konzipiert und durch Kopplung einzelner Computerprogramme im DLR Göttingen realisiert. Speziell für die Erstauslegung von Geometrien und die Vorhersage von globalen Leistungsdaten beliebiger Axialturbinen wurde ein neues Programm erzeugt. Dessen effiziente Anwendung wird mit einer zu diesem Zweck konzipierten grafischen Entwurfsumgebung ausgeführt. Kennzeichnend für den Vorentwurfsprozess in dieser Arbeit ist die Anwendung von ein- und zweidimensionaler Strömungssimulation sowie der hohe Grad an Verknüpfung der verwendeten Programme sowohl auf prozesstechnischer wie auch auf datentechnischer Ebene. Dabei soll dem sehr frühen Entwurf eine deutlich stärkere Rolle zukommen als bisher üblich und im Gegenzug die Entwurfszeit mit höher auflösenden Vorentwurfsprogrammen reduziert werden. Die Anwendung der einzelnen Programme im Rahmen von Subprozessen wird anhand von exemplarischen Turbinenkonfigurationen in der Arbeit ebenso dargestellt, wie die Validierung des gesamten Entwurfsprozesses anhand der Auslegung einer folgend realisierten und erfolgreich operierenden Axialturbine eines Triebwerkssimulators für Flugzeug-Windkanalmodelle (TPS). Neben der Erleichterung von manueller Entwurfstätigkeit durch grafische Benutzerinteraktion kommt in einzelnen Subprozessen eine automatisierte Mehrziel-Optimierung zum Einsatz.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit wird die Herstellung von miniaturisierten NIR-Spektrometern auf Basis von Fabry-Pérot (FP) Filter Arrays behandelt. Bisher ist die kostengünstige Strukturierung von homogenen und vertikal erweiterten Kavitäten für NIR FP-Filter mittels Nanoimprint Technologie noch nicht verfügbar, weil die Qualität der Schichten des Prägematerials unzureichend ist und die geringe Mobilität der Prägematerialien nicht ausreicht, um die vertikal erweiterten Kavitäten zu füllen. Diese Arbeit konzentriert sich auf die Reduzierung des technischen Aufwands zur Herstellung von homogenen und vertikal erweiterten Kavitäten. Zur Strukturierung der Kavitäten wird ein großflächiger substratkonformer UV-Nanoimprint Prozess (SCIL - Substrate Conformal Imprint Lithoghaphy) verwendet, der auf einem Hybridstempel basiert und Vorteile von harten und weichen Stempeln vereint. Um die genannten Limitierungen zu beseitigen, werden alternative Designs der Kavitäten untersucht und ein neues Prägematerial eingesetzt. Drei Designlösungen zur Herstellung von homogenen und erweiterten Kavitäten werden untersucht und verglichen: (i) Das Aufbringen des Prägematerials mittel mehrfacher Rotationsbeschichtung, um eine höhere Schichtdicke des Prägematerials vor dem Prägeprozess zu erzeugen, (ii) die Verwendung einer hybriden Kavität bestehend aus einer strukturierten Schicht des Prägematerials eingebettet zwischen zwei Siliziumoxidschichten, um die Schichtdicke der organischen Kavität zu erweitern und (iii) die Optimierung des Prägeprozesses durch Verwendung eines neuen Prägematerials. Die mit diesen drei Ansätzen hergestellten FP-Filter Arrays zeigen, hohe Transmissionen (beste Transmission > 90%) und kleine Linienbreiten (Halbwertsbreiten <5 nm).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Dissertation geht von der Überlegung aus, dass ein Wandel im deutschen Bildungssystem aufgrund kinderrechtlicher und demokratischer Überlegungen eine essenzielle Zukunftsaufgabe ist. Dies geschieht im Besonderen vor dem Hintergrund kinderrechtlicher Forderungen, wie sie beispielsweise aus dem Status Deutschlands als Mitgliedsland der UN-Kinderrechtskonvention und des UN-Übereinkommens über die Rechte von Menschen mit Behinderung entstehen: Die Korrelation zwischen Herkunft und Bildungserfolg sowie die noch konzeptionell ungenügend entwickelten Ansätze zur Inklusion werden als bestimmend für die Diskussion erkannt. Die Arbeit vertritt die These, dass Lehrende eine zentrale Rolle in einem notwendigen Prozess der Umwandlung des deutschen Bildungssystems spielen können und nimmt in emanzipatorischer Absicht die Lehrenden als Zielgruppe in den Blick. Aufgrund der Struktur der Lehrendenausbildung wird zudem dafür argumentiert, entsprechende Veränderungen im Sinne ihrer Nachhaltigkeit und flächendeckenden Relevanz in der Lehrendenausbildung des ersten universitären Ausbildungsabschnittes zu verankern. Als Instrument, welches die Kriterien von Nachhaltigkeit und umfassender Relevanz erfüllt, werden die Standards für die Lehrerbildung im Bereich Bildungswissenschaften benannt und theoretisch unterfüttert. Grundsätzlich spannt sich der Blickwinkel der Arbeit zwischen der Betrachtung der Struktur des Bildungssystems, des Wissens und Könnens von Lehrenden und Lernenden im Sinne der Kompetenzorientierung sowie der Haltung auf, welche Lehrende einnehmen. Dabei wird aufgezeigt, dass sich diese Faktoren wechselseitig auf vielfache Art und Weise beeinflussen. Auf der Basis dieser Überlegungen wird zunächst das deutsche Bildungssystem in seinen Strukturen beschrieben und die Lehrenden und Lernenden als Teilnehmende am Bildungsgeschehen skizziert. Ein exkursiver Vergleich dreier aufgrund kinderrechtlicher Parameter ausgewählter europäischer Bildungssysteme eruiert zudem, inwiefern die aufgezeigten Bestimmungsgrößen Struktur, Wissen/Können und Haltung Einfluss auf kinderrechtliche Verfasstheit des Bildungssystems nehmen, wobei die Grundprinzipien der UN-Kinderrechtskonvention hier als Messinstrument dienen. Davon ausgehend, erscheint pädagogische Haltung als eine wesentliche Einflussgröße, die im weiteren Verlauf der Arbeit im Sinne der kritischen Pädagogik zu einer Konzeption Pädagogischer Verantwortung verdichtet wird. Vor diesem Hintergrund erfolgt eine Betrachtung aktueller Problematiken im deutschen Bildungssystem, die sich an den in den Standards für die Lehrerbildung identifizierten Ausbildungsschwerpunkten orientiert und erneut die Prinzipien und rechtlichen Vorgaben der UN-Kinderrechtskonvention als Maßstab wählt. Auf der Grundlage dieser umfassenden Diskussion werden in einem sich anschließenden Analyseschritt Annotationen vorgenommen, die die Formulierungen der 11 Standards für die Lehrerbildung inhaltlich erweitern und ergänzen. In Verbindung mit einer Pädagogischen Verantwortung, die sich der Ausbildung kritischer Mündigkeit verpflichtet, werden die annotierten Standards als eine Möglichkeit der kinderrechtlichen (Selbst-)Evaluation von Lehrenden sowie als Instrument einer kinderrechtliche Gesichtspunkte fokussierenden Lehrendenbildung verstanden und dargestellt.