410 resultados para Prozess


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der psycholinguistischen Forschung ist die Annahme weitverbreitet, dass die Bewertung von Informationen hinsichtlich ihres Wahrheitsgehaltes oder ihrer Plausibilität (epistemische Validierung; Richter, Schroeder & Wöhrmann, 2009) ein strategischer, optionaler und dem Verstehen nachgeschalteter Prozess ist (z.B. Gilbert, 1991; Gilbert, Krull & Malone, 1990; Gilbert, Tafarodi & Malone, 1993; Herbert & Kübler, 2011). Eine zunehmende Anzahl an Studien stellt dieses Zwei-Stufen-Modell von Verstehen und Validieren jedoch direkt oder indirekt in Frage. Insbesondere Befunde zu Stroop-artigen Stimulus-Antwort-Kompatibilitätseffekten, die auftreten, wenn positive und negative Antworten orthogonal zum aufgaben-irrelevanten Wahrheitsgehalt von Sätzen abgegeben werden müssen (z.B. eine positive Antwort nach dem Lesen eines falschen Satzes oder eine negative Antwort nach dem Lesen eines wahren Satzes; epistemischer Stroop-Effekt, Richter et al., 2009), sprechen dafür, dass Leser/innen schon beim Verstehen eine nicht-strategische Überprüfung der Validität von Informationen vornehmen. Ausgehend von diesen Befunden war das Ziel dieser Dissertation eine weiterführende Überprüfung der Annahme, dass Verstehen einen nicht-strategischen, routinisierten, wissensbasierten Validierungsprozesses (epistemisches Monitoring; Richter et al., 2009) beinhaltet. Zu diesem Zweck wurden drei empirische Studien mit unterschiedlichen Schwerpunkten durchgeführt. Studie 1 diente der Untersuchung der Fragestellung, ob sich Belege für epistemisches Monitoring auch bei Informationen finden lassen, die nicht eindeutig wahr oder falsch, sondern lediglich mehr oder weniger plausibel sind. Mithilfe des epistemischen Stroop-Paradigmas von Richter et al. (2009) konnte ein Kompatibilitätseffekt von aufgaben-irrelevanter Plausibilität auf die Latenzen positiver und negativer Antworten in zwei unterschiedlichen experimentellen Aufgaben nachgewiesen werden, welcher dafür spricht, dass epistemisches Monitoring auch graduelle Unterschiede in der Übereinstimmung von Informationen mit dem Weltwissen berücksichtigt. Darüber hinaus belegen die Ergebnisse, dass der epistemische Stroop-Effekt tatsächlich auf Plausibilität und nicht etwa auf der unterschiedlichen Vorhersagbarkeit von plausiblen und unplausiblen Informationen beruht. Das Ziel von Studie 2 war die Prüfung der Hypothese, dass epistemisches Monitoring keinen evaluativen Mindset erfordert. Im Gegensatz zu den Befunden anderer Autoren (Wiswede, Koranyi, Müller, Langner, & Rothermund, 2013) zeigte sich in dieser Studie ein Kompatibilitätseffekt des aufgaben-irrelevanten Wahrheitsgehaltes auf die Antwortlatenzen in einer vollständig nicht-evaluativen Aufgabe. Die Ergebnisse legen nahe, dass epistemisches Monitoring nicht von einem evaluativen Mindset, möglicherweise aber von der Tiefe der Verarbeitung abhängig ist. Studie 3 beleuchtete das Verhältnis von Verstehen und Validieren anhand einer Untersuchung der Online-Effekte von Plausibilität und Vorhersagbarkeit auf Augenbewegungen beim Lesen kurzer Texte. Zusätzlich wurde die potentielle Modulierung dieser Effeke durch epistemische Marker, die die Sicherheit von Informationen anzeigen (z.B. sicherlich oder vielleicht), untersucht. Entsprechend der Annahme eines schnellen und nicht-strategischen epistemischen Monitoring-Prozesses zeigten sich interaktive Effekte von Plausibilität und dem Vorhandensein epistemischer Marker auf Indikatoren früher Verstehensprozesse. Dies spricht dafür, dass die kommunizierte Sicherheit von Informationen durch den Monitoring-Prozess berücksichtigt wird. Insgesamt sprechen die Befunde gegen eine Konzeptualisierung von Verstehen und Validieren als nicht-überlappenden Stufen der Informationsverarbeitung. Vielmehr scheint eine Bewertung des Wahrheitsgehalts oder der Plausibilität basierend auf dem Weltwissen – zumindest in gewissem Ausmaß – eine obligatorische und nicht-strategische Komponente des Sprachverstehens zu sein. Die Bedeutung der Befunde für aktuelle Modelle des Sprachverstehens und Empfehlungen für die weiterführende Forschung zum Vehältnis von Verstehen und Validieren werden aufgezeigt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Unternehmensumwelt, mit der sich Kreditinstitute heutzutage konfrontiert sehen und mit der sie sich harmonisieren müssen, ist durch tiefgreifende Veränderungen und eine fortschreitende Dynamik gekennzeichnet. Mit den sog. Non- und Nearbanks sind neue Wettbewerber in den Markt eingetreten, und die Subprime-Finanzkrise aus dem Jahr 2008 hat zu einer tiefgreifenden Vertrauenskrise bei den Konsumenten geführt. Die Möglichkeiten der Kreditinstitute, sich diesen Herausforderungen zu stellen, sind durch die angebotene Generaltauschware Geld, den fehlenden gesetzlichen Innovationsschutz sowie vergleichbare Vertriebsformen und Marktauftritte eher begrenzt. Es stellt sich somit die Frage, wie sich Kreditinstitute künftig nachhaltig im Wettbewerb behaupten können. Die Lösung wird im Konsumgüterbereich gesehen: Zur Überwindung der vorherrschenden technischen Produkthomogenität werden Marken dort erfolgreich als Strategie eingesetzt, um sich vom Wettbewerb zu differenzieren, den Kunden gezielt anzusprechen und preisliche Spielräume zu generieren. Der vorliegenden Dissertation liegen somit zwei zentrale Hypothesen zugrunde: H1) Im Bankbereich bestehen vergleichbare Sättigungseffekte und eine hohe Angebotshomogenität wie im Konsumgüterbereich. H2) Die Adaption von Markenführungs-konzepten aus dem Konsumgüterbereich generiert einen positiven Beitrag zur Profilierung, Differenzierung und Vertrauensbildung von Kreditinstituten. In einem deskriptiv-konzeptionellen Ansatz werden zunächst konstituierende Merkmale und Funktionen einer Marke erarbeitet. Mit Hilfe einer interdisziplinären Metaanalyse wird anschließend ein integratives holistisches Markenverständnis geschaffen und erklärt, wie und warum Marken funktionieren. Dabei wird insbesondere die Rolle der Marke als „Invisible Hand“ im gesellschaftlichen System gewürdigt, die die Handlungen der Individuen beeinflusst und dabei in einem zirkulär-kausalen Prozess von der Gesellschaft bzw. Zielgruppe selbst konstituiert wird. Mit dem Versuch, das Markenphänomen mit Hilfe der evolutorischen Ökonomik zu erklären, wird ferner Neuland betreten. Im Weiteren werden theoretische Konzepte der Markenführung diskutiert und bewertet. Auf Basis dieses neu geschaffenen Fundaments werden im Hauptteil der Arbeit sowohl Markenstrategien aus dem Konsumgüterbereich als auch Instrumente zur operativen Implementierung der Markenstrategie in einem diskursiven Ansatz mittels erarbeiteter Plausibilitätskriterien eingehend auf ihre Übertragbarkeit auf Kreditinstitute hin analysiert und bewertet. Als Ergebnis der Arbeit wurden H1 vollumfänglich und H2 mit Einschränkungen bestätigt. Diese Einschränkungen ergeben sich hauptsächlich dadurch, dass durch die Synchronität von Leistungserstellung und Leistungsinanspruchnahme eine Abkoppelung der Marke vom Unter-nehmen kaum darstellbar ist. Mehrmarkenstrategien sowie spitze Positionierungen sind bei den vorherrschenden Universalinstituten somit quasi nicht umsetzbar. Weitere Limitierungen resultieren aus der Vertrauensempfindlichkeit der Bankleistung, die Einschränkungen bei Markendehnungen (Produktlinien- und Transferstrategien) zur Folge hat. Die operativen Markeninstrumente aus dem Konsumgüterbereich hingegen sind weitestgehend anwendbar. Auch bei dem Einsatz der Controllinginstrumente zur Steuerung der Markenführung werden keine Einschränkungen gesehen. In einem Ausblick wird abschließend gezeigt, dass sich die Wettbewerbsintensität der Kreditinstitute nicht entspannen wird, es werden eher Tendenzen ihrer weiteren Verschärfung ausgemacht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zunehmend mehr Menschen wünschen sich ein selbstbestimmtes Leben, neue Formen eines sozialen Miteinanders und mehr zwischenmenschliche Verbindlichkeit im Alltag. Die Möglichkeiten zur Mitsprache bei der Entwicklung und in der Organisation des alltäglichen Wohnens bleiben jedoch in der Regel nur einer kleinen Gruppe von BauherrInnen vorbehalten. Doch was ist mit jenen, die zwar gemeinschaftliche Lebensmodelle suchen, sich jedoch aufgrund ihrer Lebensplanung oder ihrer fnanziellen Situation nicht langfristig binden wollen oder können? Etwa siebzig Prozent der deutschen Haushalte mit geringem Einkommen wohnen zur Miete – viele von ihnen in anonymen Mietverhältnissen, in denen Wunsch und Wirklichkeit hinsichtlich einer guten und verlässlichen Nachbarschaft weit auseinander liegen. In der vorliegenden Arbeit gehe ich der Frage nach, wie nachbarschaftliches Wohnen in klassischen Mietshäusern organisiert werden kann. Welche Motivationen haben die BewohnerInnen? Wie kann unterstützend in die Entwicklung der Projekte eingegrifen werden? Wo liegen die natürlichen Grenzen des Konzeptes? Und wie kann verhindert werden, dass die Projekte nach einer euphorischen Phase des Neubaus oder der Sanierung entweder an inneren Widersprüchen oder an äußeren Zwängen scheitern? Als Forschungsansatz wählte ich eine Einzelfallstudie. Das Untersuchungsobjekt ist ein Mietshaus mit siebenundzwanzig Wohneinheiten und zweiundvierzig BewohnerInnen im Berliner Stadtteil Wedding. Ich habe das Projekt und die beteiligten Akteure während der Projektentwicklung, der Sanierungs- und der Wohnphase über einen Zeitraum von insgesamt zehn Jahren aktiv als Planer, Bewohner und Beobachter begleitet. Im Rahmen der Untersuchung wurden die unterschiedlichen Projektphasen, die Entwicklung des nachbarschaftlichen Miteinanders, sowie besondere Ereignisse in deren Verlauf beschrieben. Dabei wurden vor allem die eingesetzten Werkzeuge und Methoden, sowie wesentliche Faktoren, die zu der Entwicklung beigetragen haben, herausgestellt und analysiert. Anhand von Einzelinterviews, Gruppengesprächen und teilnehmenden Beobachtungen wurden die Wünsche, Bedürfnisse und Ängste der BewohnerInnen, sowie deren Auswirkungen auf das alltägliche Miteinander erfasst. Die Ergebnisse der Beobachtungen wurden interpretiert und abschließend in Empfehlungen zusammengefasst. Da sich das Projekt auch zehn Jahre nach der Gründung ständig weiter entwickelt, kann und soll in dieser Arbeit nur der Prozess beschrieben und analysiert, jedoch kein Endergebnis der Projektentwicklung präsentiert werden. Die vorliegende Studie soll vielmehr dazu beitragen, das Mietshausprojekt als alternatives Wohn- und Lebensmodell weiterzuentwickeln und zu seiner weiteren Verbreitung beitragen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the past decades since Schumpeter’s influential writings economists have pursued research to examine the role of innovation in certain industries on firm as well as on industry level. Researchers describe innovations as the main trigger of industry dynamics, while policy makers argue that research and education are directly linked to economic growth and welfare. Thus, research and education are an important objective of public policy. Firms and public research are regarded as the main actors which are relevant for the creation of new knowledge. This knowledge is finally brought to the market through innovations. What is more, policy makers support innovations. Both actors, i.e. policy makers and researchers, agree that innovation plays a central role but researchers still neglect the role that public policy plays in the field of industrial dynamics. Therefore, the main objective of this work is to learn more about the interdependencies of innovation, policy and public research in industrial dynamics. The overarching research question of this dissertation asks whether it is possible to analyze patterns of industry evolution – from evolution to co-evolution – based on empirical studies of the role of innovation, policy and public research in industrial dynamics. This work starts with a hypothesis-based investigation of traditional approaches of industrial dynamics. Namely, the testing of a basic assumption of the core models of industrial dynamics and the analysis of the evolutionary patterns – though with an industry which is driven by public policy as example. Subsequently it moves to a more explorative approach, investigating co-evolutionary processes. The underlying questions of the research include the following: Do large firms have an advantage because of their size which is attributable to cost spreading? Do firms that plan to grow have more innovations? What role does public policy play for the evolutionary patterns of an industry? Are the same evolutionary patterns observable as those described in the ILC theories? And is it possible to observe regional co-evolutionary processes of science, innovation and industry evolution? Based on two different empirical contexts – namely the laser and the photovoltaic industry – this dissertation tries to answer these questions and combines an evolutionary approach with a co-evolutionary approach. The first chapter starts with an introduction of the topic and the fields this dissertation is based on. The second chapter provides a new test of the Cohen and Klepper (1996) model of cost spreading, which explains the relationship between innovation, firm size and R&D, at the example of the photovoltaic industry in Germany. First, it is analyzed whether the cost spreading mechanism serves as an explanation for size advantages in this industry. This is related to the assumption that the incentives to invest in R&D increase with the ex-ante output. Furthermore, it is investigated whether firms that plan to grow will have more innovative activities. The results indicate that cost spreading serves as an explanation for size advantages in this industry and, furthermore, growth plans lead to higher amount of innovative activities. What is more, the role public policy plays for industry evolution is not finally analyzed in the field of industrial dynamics. In the case of Germany, the introduction of demand inducing policy instruments stimulated market and industry growth. While this policy immediately accelerated market volume, the effect on industry evolution is more ambiguous. Thus, chapter three analyzes this relationship by considering a model of industry evolution, where demand-inducing policies will be discussed as a possible trigger of development. The findings suggest that these instruments can take the same effect as a technical advance to foster the growth of an industry and its shakeout. The fourth chapter explores the regional co-evolution of firm population size, private-sector patenting and public research in the empirical context of German laser research and manufacturing over more than 40 years from the emergence of the industry to the mid-2000s. The qualitative as well as quantitative evidence is suggestive of a co-evolutionary process of mutual interdependence rather than a unidirectional effect of public research on private-sector activities. Chapter five concludes with a summary, the contribution of this work as well as the implications and an outlook of further possible research.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Eine wesentliche Funktionalität bei der Verwendung semantischer Technologien besteht in dem als Reasoning bezeichneten Prozess des Ableitens von impliziten Fakten aus einer explizit gegebenen Wissensbasis. Der Vorgang des Reasonings stellt vor dem Hintergrund der stetig wachsenden Menge an (semantischen) Informationen zunehmend eine Herausforderung in Bezug auf die notwendigen Ressourcen sowie der Ausführungsgeschwindigkeit dar. Um diesen Herausforderungen zu begegnen, adressiert die vorliegende Arbeit das Reasoning durch eine massive Parallelisierung der zugrunde liegenden Algorithmen und der Einführung von Konzepten für eine ressourceneffiziente Ausführung. Diese Ziele werden unter Berücksichtigung der Verwendung eines regelbasierten Systems verfolgt, dass im Gegensatz zur Implementierung einer festen Semantik die Definition der anzuwendenden Ableitungsregeln während der Laufzeit erlaubt und so eine größere Flexibilität bei der Nutzung des Systems bietet. Ausgehend von einer Betrachtung der Grundlagen des Reasonings und den verwandten Arbeiten aus den Bereichen des parallelen sowie des regelbasierten Reasonings werden zunächst die Funktionsweise von Production Systems sowie die dazu bereits existierenden Ansätze für die Optimierung und im Speziellen der Parallelisierung betrachtet. Production Systems beschreiben die grundlegende Funktionalität der regelbasierten Verarbeitung und sind somit auch die Ausgangsbasis für den RETE-Algorithmus, der zur Erreichung der Zielsetzung der vorliegenden Arbeit parallelisiert und für die Ausführung auf Grafikprozessoren (GPUs) vorbereitet wird. Im Gegensatz zu bestehenden Ansätzen unterscheidet sich die Parallelisierung insbesondere durch die gewählte Granularität, die nicht durch die anzuwendenden Regeln, sondern von den Eingabedaten bestimmt wird und sich damit an der Zielarchitektur orientiert. Aufbauend auf dem Konzept der parallelen Ausführung des RETE-Algorithmus werden Methoden der Partitionierung und Verteilung der Arbeitslast eingeführt, die zusammen mit Konzepten der Datenkomprimierung sowie der Verteilung von Daten zwischen Haupt- und Festplattenspeicher ein Reasoning über Datensätze mit mehreren Milliarden Fakten auf einzelnen Rechnern erlauben. Eine Evaluation der eingeführten Konzepte durch eine prototypische Implementierung zeigt für die adressierten leichtgewichtigen Ontologiesprachen einerseits die Möglichkeit des Reasonings über eine Milliarde Fakten auf einem Laptop, was durch die Reduzierung des Speicherbedarfs um rund 90% ermöglicht wird. Andererseits kann der dabei erzielte Durchsatz mit aktuellen State of the Art Reasonern verglichen werden, die eine Vielzahl an Rechnern in einem Cluster verwenden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ZUSAMMENFASSUNG Von der „Chaosgruppe“ zur lernenden Organisation. Fallstudien zur Induzierung und Verbreitung von Innovation in ländlichen Kleinorganisationen im Buruli (Zentral-Uganda). Die oft fehlende Nachhaltigkeit landwirtschaftlicher Projekte in Afrika allgemein und in Buruli (Zentral-Uganda) insbesondere gab den Anstoß zu der Forschung, die der vorliegenden Dissertation zugrunde liegt. Ein häufiger Grund für das Scheitern von Projekten ist, dass die lokale Bevölkerung die landwirtschaftliche Innovation als Risiko für die Ernährungssicherheit der Familie betrachtet. Die vorliegende Arbeit ist daher ein Beitrag zur Suche nach einem Weg zur Nachhaltigkeit, der dieser Tatsache Rechnung trägt. Als Forschungsmethode wurden die Gruppendiskussion und die Beobachtung mit den beiden Varianten „teilnehmender Beobachter“ und „beobachtender Teilnehmer“ gemäß Lamnek(1995b) angewendet. Es stellte sich heraus, dass die ablehnende Haltung der Zielbevölkerung landwirtschaftlicher Innovation gegenüber durch finanzielle Anreize, Seminare oder die Überzeugungskunst von Mitarbeitern der Entwicklungsorganisationen kaum behoben werden kann, sondern nur durch den Einbezug der Menschen in einen von ihnen selbst gesteuerten Risikomanagementprozess. Die Prozessberatung von Schein (2000) und die nichtdirektive Beratung von Rogers (2010) haben sich im Rahmen unserer Untersuchung für die Motivierung der Bevölkerung für eine risikobewusste Entwicklungsinitiative von großem Nutzen erwiesen ebenso wie für die Beschreibung dieses Prozesses in der vorliegenden Studie. Die untersuchten Gruppen wurden durch diesen innovativen Ansatz der Entwicklungsberatung in die Lage versetzt, das Risiko von Innovation zu analysieren, zu bewerten und zu minimieren, ihre Zukunft selbst in die Hand zu nehmen und in einem sozialen, ökonomischen und physischen Umfeld zu gestalten sowie auf Veränderungen im Laufe der Umsetzung angemessen zu reagieren. Der Erwerb dieser Fähigkeit setzte eine Umwandlung einfacher Bauerngruppen ohne erkennbare Strukturen in strukturierte und organisierte Gruppen voraus, die einer lernenden Organisation im ländlichen Raum entsprechen. Diese Transformation bedarf als erstes eines Zugangs zur Information und einer zielorientierten Kommunikation. Die Umwandlung der Arbeitsgruppe zu einer lernenden Bauernorganisation förderte die Nachhaltigkeit des Gemüseanbauprojekts und das Risikomanagement und wurde so zu einem konkreten, von der Umwelt wahrgenommenen Beispiel für die Zweckmäßigkeit des oben beschriebenen Forschungsansatzes. Die Herausbildung einer lernenden Organisation ist dabei nicht Mittel zum Zweck, sondern ist selbst das zu erreichende Ziel. Die Beobachtung, Begleitung und Analyse dieses Umwandlungsprozesses erfordert einen multidisziplinären Ansatz. In diesem Fall flossen agrarwissenschaftliche, soziologische, linguistische und anthropologische Perspektiven in die partnerschaftlich ausgerichtete Forschung ein. Von der Entwicklungspolitik erfordert dieser Ansatz einen neuen Weg, der auf der Partnerschaft mit den Betroffenen und auf einer Entemotionalisierung des Entwicklungsvorhabens basiert und eine gegenseitige Wertschätzung zwischen den Akteuren voraussetzt. In diesem Prozess entwickelt sich im Laufe der Zeit die „lernende“ Bauernorganisation auch zu einer „lehrenden“ Organisation und wird dadurch eine Quelle der Inspiration für die Gesamtgesellschaft. Die Nachhaltigkeit von ländlichen Entwicklungsprojekten wird damit maßgeblich verbessert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit wird eine gemeinsame Optimierung der Hybrid-Betriebsstrategie und des Verhaltens des Verbrennungsmotors vorgestellt. Die Übernahme von den im Steuergerät verwendeten Funktionsmodulen in die Simulationsumgebung für Fahrzeuglängsdynamik stellt eine effiziente Applikationsmöglichkeit der Originalparametrierung dar. Gleichzeitig ist es notwendig, das Verhalten des Verbrennungsmotors derart nachzubilden, dass das stationäre und das dynamische Verhalten, inklusive aller relevanten Einflussmöglichkeiten, wiedergegeben werden kann. Das entwickelte Werkzeug zur Übertragung der in Ascet definierten Steurgerätefunktionen in die Simulink-Simulationsumgebung ermöglicht nicht nur die Simulation der relevanten Funktionsmodule, sondern es erfüllt auch weitere wichtige Eigenschaften. Eine erhöhte Flexibilität bezüglich der Daten- und Funktionsstandänderungen, sowie die Parametrierbarkeit der Funktionsmodule sind Verbesserungen die an dieser Stelle zu nennen sind. Bei der Modellierung des stationären Systemverhaltens des Verbrennungsmotors erfolgt der Einsatz von künstlichen neuronalen Netzen. Die Auswahl der optimalen Neuronenanzahl erfolgt durch die Betrachtung des SSE für die Trainings- und die Verifikationsdaten. Falls notwendig, wird zur Sicherstellung der angestrebten Modellqualität, das Interpolationsverhalten durch Hinzunahme von Gauß-Prozess-Modellen verbessert. Mit den Gauß-Prozess-Modellen werden hierbei zusätzliche Stützpunkte erzeugt und mit einer verminderten Priorität in die Modellierung eingebunden. Für die Modellierung des dynamischen Systemverhaltens werden lineare Übertragungsfunktionen verwendet. Bei der Minimierung der Abweichung zwischen dem Modellausgang und den Messergebnissen wird zusätzlich zum SSE das 2σ-Intervall der relativen Fehlerverteilung betrachtet. Die Implementierung der Steuergerätefunktionsmodule und der erstellten Steller-Sensor-Streckenmodelle in der Simulationsumgebung für Fahrzeuglängsdynamik führt zum Anstieg der Simulationszeit und einer Vergrößerung des Parameterraums. Das aus Regelungstechnik bekannte Verfahren der Gütevektoroptimierung trägt entscheidend zu einer systematischen Betrachtung und Optimierung der Zielgrößen bei. Das Ergebnis des Verfahrens ist durch das Optimum der Paretofront der einzelnen Entwurfsspezifikationen gekennzeichnet. Die steigenden Simulationszeiten benachteiligen Minimumsuchverfahren, die eine Vielzahl an Iterationen benötigen. Um die Verwendung einer Zufallsvariablen, die maßgeblich zur Steigerung der Iterationanzahl beiträgt, zu vermeiden und gleichzeitig eine Globalisierung der Suche im Parameterraum zu ermöglichen wird die entwickelte Methode DelaunaySearch eingesetzt. Im Gegensatz zu den bekannten Algorithmen, wie die Partikelschwarmoptimierung oder die evolutionären Algorithmen, setzt die neu entwickelte Methode bei der Suche nach dem Minimum einer Kostenfunktion auf eine systematische Analyse der durchgeführten Simulationsergebnisse. Mit Hilfe der bei der Analyse gewonnenen Informationen werden Bereiche mit den bestmöglichen Voraussetzungen für ein Minimum identifiziert. Somit verzichtet das iterative Verfahren bei der Bestimmung des nächsten Iterationsschrittes auf die Verwendung einer Zufallsvariable. Als Ergebnis der Berechnungen steht ein gut gewählter Startwert für eine lokale Optimierung zur Verfügung. Aufbauend auf der Simulation der Fahrzeuglängsdynamik, der Steuergerätefunktionen und der Steller-Sensor-Streckenmodelle in einer Simulationsumgebung wird die Hybrid-Betriebsstrategie gemeinsam mit der Steuerung des Verbrennungsmotors optimiert. Mit der Entwicklung und Implementierung einer neuen Funktion wird weiterhin die Verbindung zwischen der Betriebsstrategie und der Motorsteuerung erweitert. Die vorgestellten Werkzeuge ermöglichten hierbei nicht nur einen Test der neuen Funktionalitäten, sondern auch eine Abschätzung der Verbesserungspotentiale beim Verbrauch und Abgasemissionen. Insgesamt konnte eine effiziente Testumgebung für eine gemeinsame Optimierung der Betriebsstrategie und des Verbrennungsmotorverhaltens eines Hybridfahrzeugs realisiert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das ursprünglich in S. cerevisiae identifizierte Urm1 stellt aufgrund seiner dualen Funktionsweise ein besonderes UBL dar. In einem Prozess, der als Urmylierung bezeichnet wird, kann es ähnlich dem Ubiquitin kovalent mit anderen Proteinen verknüpft werden. Zusätzlich fungiert es aber auch als Schwefelträger, der an der Thiolierung des wobble-Uridins bestimmter cytoplasmatischer tRNAs beteiligt ist. Während neuere Untersuchungen zeigen, dass die Urm1-abhängige tRNA-Thiolierung zu einer effizienten Translation in Eukaryoten beiträgt, ist die Bedeutung der Urmylierung immer noch unklar. Um die Funktion der Urm1-vermittelten Proteinmodifikation weiter aufzuklären, wurde die Urmylierung des Peroxiredoxins Ahp1 im Rahmen dieser Arbeit näher untersucht. Es konnte demonstriert werden, dass Ahp1 nicht nur als Monomer, sondern auch als Dimer urmyliert vorliegt. Dies deutet darauf hin, dass die Urmylierung mit dem peroxidatischen Zyklus von Ahp1 verknüpft ist. Diese Annahme konnte durch die Untersuchung der Modifikation verschiedener ahp1-Punktmutanten bestätigt werden. Hierbei ließ sich ebenfalls zeigen, dass das Peroxiredoxin wahrscheinlich auch an alternativen Lysinresten urmyliert werden kann. Trotzdem bleibt unklar, inwiefern die Funktionalität von Ahp1 durch die Urm1-Konjugation beeinträchtigt wird. So konnte ein Einfluss der Urmylierung auf die Ahp1-vermittelte Entgiftung des Alkylhydroperoxids t-BOOH nicht festgestellt werden. Ein weiterer Schwerpunkt dieser Arbeit war die Untersuchung einer möglichen mechanistischen Verknüpfung beider Urm1-Funktionen. Es ließ sich zeigen, dass nicht nur Schwefelmangel, sondern auch ein Verlust der Schwefeltransferase Tum1 zu einer drastischen Reduktion der Urm1-Konjugation führt. Demnach wird die Urmylierung wahrscheinlich über denselben Schwefeltransferweg vermittelt, der ebenfalls zur tRNA-Thiolierung beiträgt. Trotzdem ist der Schwefeltransfer, der zur Urm1-Aktivierung führt, womöglich komplexer als bisher angenommen. Wurden die vermuteten katalytischen Cysteine des Urm1-Aktivatorproteins Uba4 mutiert oder dessen C-terminale RHD entfernt, waren eine gehemmte Urmylierung und tRNA-Thiolierung weiterhin nachweisbar. Somit scheint ein Schwefeltransfer auf Urm1 auch ohne direkte Beteiligung von Uba4 möglich zu sein. In dieser Arbeit ließ sich außerdem zeigen, dass Urm1 in Hefe durch sein humanes Homolog funktional ersetzt werden kann. Dies ist ein Hinweis dafür, dass der Urm1-Weg in allen Eukaryoten gleich funktioniert und konserviert ist. Darüber hinaus scheint für die Urmylierung auch eine Konservierung der Substratspezifität gegeben zu sein. Der Nachweis einer Uba4-Urmylierung in Hefe könnte durchaus darauf hindeuten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Beziehung zwischen Literatur und Gesellschaft wurden, im Laufe der Jahrhunderte, aus unterschiedlichen Perspektiven analysiert. Die Wissenschaftler analysieren manchmal die Aspekten der sozialen Realität, sie betonen manchmal die Natur der literarischen Werk. Wir glauben, dass Antonio Candido einen Gleichgewichtszustand erreicht, als er das Konzept der strukturellen Reduktion oder Formalisierung entwickelt. Nämlich, der Prozess, bei dem die menschliche und soziale Leben zu einem Bestandteil der literarischen Struktur wird. Der Autor tritt eine Einbahnstraße und er kann Daten aus der sozialen Ordnung aufholen, ohne dabei die Materialität des Textes den Augen verlieren. Und das sind die theoretische Annahmen, die die Entwicklung dieser Arbeit leiten. Wir wollen zu zeigen, dass die Struktur der mamediana Lyrik aufdeckt, signifikante Daten der Gesellschaft, in der der Autore eingefügt wurde enthüllt. Folglich, wir analysieren soziale Thema, das sein Werk durchzieht. Zuerst, wir untersuchen, wie Zila Mamede den Alltag der Gesellschaft vertreten. Von der strukturellen Organisation der Gedichte, wir erkennen, das die Episode aus kleiner Städte ein Akt des Widerstands gegen die fragmentierte Profil der kapitalistischen Gesellschaf sind. Das ist, warum sie doch eng mit der Idee der Tradition erscheinen. Die dichotome Beziehung zwischen den regionalen Daten und der Element der Modernisierung etabliert, sie wird durch die Organisation des Raumes verstärkt. Während die Stadt bei konkrete gesellschaftliche Ordnung Spitzenbeträge verweist, hat die Landschaft eine harmonische und warme Form. Allgemeinen, die moderne Stadt von Zila Mamede geformt, ist eine Abbild der Industriegesellschaft. Die Bilder die Landschaft sind ein Gegenmittel gegen die Feindseligkeiten Merkmale der neuen urbanen Zustand. So, die Landschaft hat die Funktion von Umstrukturierung der Persönlichkeit des Einzelnen durch die Erfahrung der großen Städte betroffen verdinglichenden. Der Konflikt, der durch das lyrische mamediana läuft, sind Reflexionen des Prozesses der Modernisierung der Stadt Natal, ihres eigenen Landes die politische Instabilität, sie durch verschiedene staatliche Programme ging, während Der Autor seine literarische Tätigkeit verfolgt

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es wurden Rueckstreueffekte in der kohaerentenEta-Photoproduktion amDeuteron im Bereich der S11(1535)-Resonanz untersucht. Fuerdenelementaren Prozess am Deuteron wurde ein effektivesResonanzmodelleinschliesslich Borntermen verwendet. Die Resonanzparameterwurdenausschliesslich an den elementaren Mesonproduktionsprozessenfestgelegt. Bei der kohaerenten Eta-Photoproduktion amDeuteron wurdedie Stossnaeherung fuer die P11(1440)-, D13(1520)- undS11(1535)-Resonanz sowie Rueckstreueffekte undMesonaustauschstroemeberuecksichtigt. Die Rueckstreuung wird innerhalb einesgekoppelten-Kanal-Modells unter Beruecksichtigung derResonanzanregungbehandelt. Es ergibt sich eine Erhoehung des differentiellenWirkungsquerschnitts um etwa 5% durch die Rueckstreuung. InihrerSumme sind Zweiteilcheneffekte kleine Beitraege zurkohaerentenEta-Photoproduktion am Deuteron.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Eine funktionell und strukturell diverse Gruppe von Transmembranproteinen wie beispielsweise Mediatoren und deren Rezeptoren können proteolytisch gespalten werden. Dieser Prozess wird als Shedding bezeichnet. Kürzlich konnte die proteolytische Aktivität identifiziert werden, die für die Prozessierung von proTNFa verantwortlich ist. Sie wurde TACE (TNF Alpha Converting Enzyme) genannt. In Experimenten mit TACE-/- Fibroblasten konnte ich herausfinden, dass das durch PMA induzierte Shedding des IL-6Rs stark reduziert war. Eine basale hydroxamatsensitive Freisetzung des IL-6Rs konnte allerdings noch detektiert werden. Um Unterschiede im Shedding von IL-6R und proTNFa zu untersuchen, generierte ich chimäre Proteine aus diesen beiden Proteinen, bei denen die Spaltstellenregionen gegeneinander vertauscht worden waren. TNFa Chimären zeigten nur sehr geringes Shedding. Im Gegensatz dazu wurden IL-6R Chimären, die die proTNFa Spaltstelle enthielten spontan gespalten. Die PMA-Induzierbarkeit war verloren gegangen. Daraufhin wurden verschiedene Chimären des unspaltbaren Proteins gp130 und der Spaltstellenpeptide aus TNFa, TGFa und IL-6R generiert. Hierbei wurde ein kurzes membranproximales Peptid aus gp130 gegen die Spaltstellen ausgetauscht. Diese Peptide übertrugen sowohl spontane ale auch PMA-induzierte Spaltbarkeit auf gp130. Um die minimalen Bedingungen für Shedding zu untersuchen, setzte ich verkürzte IL-6R Spaltstellenpeptide in gp130 ein. Die resultierenden Chimären waren empfänglich für reguliertes Shedding. Überaschenderweise konnten auch spaltbare Chimären durch das Ersetzen der membrannahem Region von gp130 durch die entsprechende Region aus dem ebenfalls nicht spaltbaren LIFR generiert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Prozessierung von internalisierten Proteinantigenen und die Beladung von MHC Klasse II – Heterodimeren mit den prozessierten Proteinfragmenten in Antigen präsentierenden Zellen sind Schlüsselprozesse der antigenspezifischen Immunantwort. In dieser Arbeit wurden grundlegende Studien durchgeführt, um die Antigenprozessierung in Makrophagen und dendritischen Zellen auf molekularer Ebene zu untersuchen. Als Sonde für die Antigenprozessierung wurde das Modellprotein Ovalbumin verwendet. Dieses wurde hoch gereinigt und mit einem Fluoreszenzmarker versehen. In Kinetikexperimenten wurde gezeigt, dass unabhängig vom Aktivierungszustand der akzessorischen Zellen ein Großteil des intakten Ovalbumins in den Zellen persistiert. Der Abbau des Proteins beginnt in den späten Endosomen und führt zu einem distinkten 40kD Abbaufragment. Der weitere schrittweise Abbau des Proteins findet in den Lysosomen statt. Die Edmann – Sequenzierung des Fragmentes ergab, dass die initiale Spaltung des Ovalbumin in einem zweistufigen Prozess abläuft. Beide Prozessierungsschritte erfolgen schnell aufeinander. Der erste Abbauschritt generiert das dominante Ovalbumin – Epitop OVA323-339.LPS – Stimulation der KMMÆ hatte zur Folge, dass die gleichen in nicht stimulierten Zellen beobachteten Fragmente gebildet wurden, jedoch zu einem erheblich späteren Zeitpunkt. In Gegenwart der Proteinase – Inhibitoren Leupeptin und Pepstatin A war diese verzögerte Degradierung nicht zu beobachten. LPS induziert vermutlich weitere Enzyme, die an der Prozessierung von Ovalbumin beteiligte Proteinasen beeinträchtigen. Eine vollständige Hemmung des Abbaus konnte jedoch nicht erreicht werden.Mit Molecular Modelling –Studien wurde ein Molekülmodell des Ratten MHC Klasse II – Moleküls RT1.Bl entwickelt und dessen Bindungsspezifität untersucht. Wesentliche Eigenschaften der RT1.Bl – Peptid Interaktionen wurden ermittelt. Auf der Grundlage der berechneten Molekülmodelle wurde ein Wirkmechanismus für die durch DM-Moleküle katalysierte Peptidbeladung von RT1.Bl postuliert. Bei einer Kooperativität der Wasserstoffbrücken – Bindungen genügt die Lösung einer einzigen Wasserstoffbrücke zwischen Peptid und MHC Klasse II – Molekül, um die Dissoziation von schwach gebundenen Peptiden erheblich zu beschleunigen. Hochaffine Binder werden hierdurch jedoch nicht beeinflusst.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wird eine Klasse von stochastischen Prozessen untersucht, die eine abstrakte Verzweigungseigenschaft besitzen. Die betrachteten Prozesse sind homogene Markov-Prozesse in stetiger Zeit mit Zuständen im mehrdimensionalen reellen Raum und dessen Ein-Punkt-Kompaktifizierung. Ausgehend von Minimalforderungen an die zugehörige Übergangsfunktion wird eine vollständige Charakterisierung der endlichdimensionalen Verteilungen mehrdimensionaler kontinuierlicher Verzweigungsprozesse vorgenommen. Mit Hilfe eines erweiterten Laplace-Kalküls wird gezeigt, dass jeder solche Prozess durch eine bestimmte spektral positive unendlich teilbare Verteilung eindeutig bestimmt ist. Umgekehrt wird nachgewiesen, dass zu jeder solchen unendlich teilbaren Verteilung ein zugehöriger Verzweigungsprozess konstruiert werden kann. Mit Hilfe der allgemeinen Theorie Markovscher Operatorhalbgruppen wird sichergestellt, dass jeder mehrdimensionale kontinuierliche Verzweigungsprozess eine Version mit Pfaden im Raum der cadlag-Funktionen besitzt. Ferner kann die (funktionale) schwache Konvergenz der Prozesse auf die vage Konvergenz der zugehörigen Charakterisierungen zurückgeführt werden. Hieraus folgen allgemeine Approximations- und Konvergenzsätze für die betrachtete Klasse von Prozessen. Diese allgemeinen Resultate werden auf die Unterklasse der sich verzweigenden Diffusionen angewendet. Es wird gezeigt, dass für diese Prozesse stets eine Version mit stetigen Pfaden existiert. Schließlich wird die allgemeinste Form der Fellerschen Diffusionsapproximation für mehrtypige Galton-Watson-Prozesse bewiesen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hämocyanine sind große, multimere Sauerstofftransport- proteine, die frei gelöst in der Hämolymphe von Arthropoden und Mollusken vorkommen.Zur Charakterisierung verschiedener Arthropoden-hämocyanine wurden deren molare Massen bestimmt. Die mit einer Vielwinkel-Laser-Lichtstreuapparatur ermittelten Molekulargewichte zeigten eine grosse Schwankungsbreite. Dies konnte auf Ungenauigkeiten der zur Berechnung der Molekulargewichte verwendeten spezifischen Extinktions- koeffizienten und Brechungsindex-Inkremente zurückgeführt werden.Mit der Methode der Massenspektrometrie (MALDI-TOF) bestimmte Molekulargewichte einzelner Untereinheiten des Hämocyanins der Vogelspinne Eurypelma californicum zeigten eine sehr gute Übereinstimmung mit aus der Sequenz errechneten Werten.Für das 24-mere Spinnenhämocyanin von Eurypelma californicum wurde die Stabilität gegenüber GdnHCl und der Temperatur auf den verschiedenen strukturellen Ebenen des Proteins untersucht.Viele Stabilitätsuntersuchungen werden an kleinen Proteinen durchgeführt, deren Entfaltung kooperativerfolgt. Bei größeren Proteinen mit unterschiedlichen strukturellen Bereichen (Domänen) ist der Entfaltungs-prozess weitaus komplexer. Ziel war es, durch die Denaturierung des Spinnen-Hämocyanins Erkenntnisse über die Stabilität und Entfaltung der verschiedenen strukturellen Ebenen eines so großen Proteinkomplexes zu gewinnen.Ein wichtiges Charakteristikum für die Interpretation der Entfaltungsexperimente ist die starke Löschung der Tryptophanfluoreszenz im oxygenierten Spinnen-Hämocyanin. Die Löschung kann vollständig durch Förster-Transfer erklärt werden kann. Sie bleibt auf die einzelnen Untereinheiten beschränkt und stellt somit ein reines O2-Beladungssignal dar.Unter Einwirkung von GdnHCl dissoziiert das native, 24-mere Spinnen-Hämocyanin ohne die Entstehung langlebiger Inter- mediate. Die Untereinheiten werden durch das Oligomer stabilisiert. Die Entfaltung eines Monomers, der Unter- einheit e, folgt einer Hierarchie der verschiedenen strukturellen Ebenen des Moleküls. Die Entfaltung beginnt zunächst von außen mit der Auflockerung der Tertiärstruktur. Der Kern von Domäne II mit dem aktiven Zentrum weist hingegen eine besondere Stabilität auf.Die ausgeprägte Hitzestabilität des Eurypelma-Hämocyanins hängt vom Oligomerisierungsgrad, dem verwendeten Puffer und dessen Ausgangs-pH-Wert ab und spiegelt offensichtlich die extremen Lebensbedingungen im Habitat wider.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es wurde eine homologe Reihe von Polyalkoholen mit der allgemeinen Summenformel CNHN+2(OH)N (N=3-6) hinsichtlich ihrer Glaseigenschaften ober- und unterhalb der Glasübergangstemperatur TG untersucht. Dabei kamen die dielektrische und magnetische Resonanzspektroskopie (NMR) zum Einsatz. Es ergab sich oberhalb TG eine systematische Zunahme aller untersuchten dynamischen Parameter wie Fragilität, Breite der angenommenen Korrelationszeitenverteilungen und der Sprungwinkel der primären Glasrelaxation mit zunehmendem N. Dies kann insgesamt als eine Abnahme des Netzwerkcharakters, der durch Wasserstoffbrückenbindungen bedingt ist, bei zunehmender Kettenlänge interpretiert werden. Unterhalb TG entwickelt sich mit zunehmendem N die Sekundärrelaxation von einem 'Wing Szenario' zu einem ausgeprägten Johari - Goldstein (JG) - Prozess. Ein Sprungmodell, welches eine eingeschränkte Reorientierung auf einem Konusrand beschreibt, erzeugt mit Hilfe der parametrisierten dielektrischen Verlustspektren Sprungwinkel, die mit denen aus aktuellen ²H - NMR spektroskopischen Untersuchungen vergleichbar sind. Durch den Vergleich unterschiedlich deuterierter Derivate von Glyzerin (N=3) und Sorbitol (N=6) wurde gefolgert, dass auch unterhalb TG der Netzwerkcharakter mit zunehmender Kettenlänge abnimmt.Aufgrund der hier durchgeführten Untersuchungen konnte eine Zeitskala für einen Johari - Goldstein - Prozess im Modellglasbildner Glyzerin extrapoliert werden. Eine Deutung des Wings als Hochfrequenzausläufer des JG - Prozesses ist dadurch möglich.Der JG - Prozess kann somit als universeller Glasprozess interpretiert werden, der in verschiedenen Glasbildnern in unterschiedlicher Ausprägung auftritt.