9 resultados para Entscheidung

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wurde die Druckabhängigkeit der molekularen Dynamik mittels 2H-NMR und Viskositätsmessungen untersucht. Für die Messungen wurde der niedermolekulare organische Glasbildner ortho-Terphenyl (OTP) ausgewählt, da dieser aufgrund einer Vielzahl vorliegender Arbeiten als Modellsubstanz angesehen werden kann. Daneben wurden auch Messungen an Salol durchgeführt.Die Untersuchungen erstreckten sich über einen weiten Druck- und Temperaturbereich ausgehend von der Schmelze bis weit in die unterkühlte Flüssigkeit. Dieser Bereich wurde aufgrund experimenteller Voraussetzungen immer durch eine Druckerhöhung erreicht.Beide Substanzen zeigten druckabhängig ein Verhalten, das dem der Temperaturvariation bei Normaldruck sehr ähnelt. Auf einer Zeitskala der molekularen Dynamik von 10E-9 s bis zu 10E+2 s wurde daher am Beispiel von OTP ein Druck-Temperatur-Zeit-Superpositionsprinzip diskutiert. Zudem konnte eine Temperatur-Dichte-Skalierung mit rho T-1/4 erfolgreich durchgeführt werden. Dies entspricht einem rein repulsiven Potentialverlauf mit rho -12±3 .Zur Entscheidung, ob die Verteilungsbreiten der mittleren Rotationskorrelationszeiten durch Druckvariation beeinflußt werden, wurden auch Ergebnisse anderer experimenteller Methoden herangezogen. Unter Hinzuziehung aller Meßergebnisse kann sowohl eine Temperatur- als auch Druckabhängigkeit der Verteilungsbreite bestätigt werden. Zur Auswertung von Viskositätsdaten wurde ein Verfahren vorgestellt, das eine quantitative Aussage über den Fragilitätsindex von unterkühlten Flüssigkeiten auch dann zuläßt, wenn die Messungen nicht bis zur Glasübergangstemperatur Tg durchgeführt werden. Die Auswertung der druckabhängigen Viskositätsdaten von OTP und Salol zeigt einen sehr differenzierten druckabhängigen Verlauf des Fragilitätsindexes für beide Glasbildner. OTP zeigt zunächst eine leichte Abnahme und danach wieder eine Zunahme des Fragilitätsindexes, dieses Ergebnis wird auch von Simulationsdaten, die der Literatur entnommen wurden, unterstützt. Salol hingegen zeigt zunächst eine deutliche Zunahme und danach eine Abnahme des Fragilitätsindexes. Das unterschiedliche Verhalten der beiden Glasbildner mit ähnlichem Fragilitätsindex bei Normaldruck wird auf die Wasserstoffbrückenbindungen innerhalb von Salol zurückgeführt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ökonomische Entscheidungen sind ebenso wie alltägliche Entscheidungen von der Aktivität von Hirnregionen abhängig, die zur Kontrolle verschiedener Teilschritte der Entscheidung beitragen. Aktivierung und Desaktivierung dieser Hirnregionen können mit Hilfe moderner bildgebender Verfahren, wie z.B. der funktionellen Magnet-Resonanz-Tomographie (fMRI) dargestellt werden. Die vorliegende Publikation gibt einen Überblick über das interdisziplinäre wissenschaftliche Arbeitsgebiet der „Neuroökonomie“ – einem jungen Forschungsfeld der Neurowissenschaften. Dieser Überblick ist auf sieben Hauptaspekte ökonomischer und finanzieller Entscheidungen fokusiert: 1. In welcher Weise werden ökonomische Parameter wie Wert und Nutzen einer Belohnung, Gewinn oder Verlust, Risiko und Ungewissheit in spezifischen Hirnregionen abgebildet? 2. In welcher spezifischen Weise tragen anatomisch definierte Areale des Gehirns zum Entscheidungsprozess bei? 3. In welcher Weise sind die Entscheidungsprozesse durch Läsion entscheidungsrelevanter Areale des Gehirns gestört? 4. In welcher Weise sind Hirnregionen, die an den Prozessen der Entscheidung beteiligt sind, miteinander vernetzt, um durch Interaktion die Entscheidung herbeizuführen? 5. In welcher Weise ist der Entscheidungsprozess von Persönlichkeitseigenschaften, von genetischen Variationen neuronaler Funktionen und von physiologischer Regulation, z.B. durch Hormone bestimmt? 6. In welcher Weise hängt der Entscheidungsprozess vom sozialen und kulturellen Umfeld des Entscheiders ab? 7. Auf welche Weise werden bei unvollständiger Information über die Optionen der Entscheidung Heuristiken oder Intuitionen genutzt, und in welcher Weise sind Entscheidungen durch Biases beeinflussbar? Der zentrale Teil dieser Publikation gibt einen zusammenfassenden Überblick (review) über die Ergebnisse neuroökonomischer Studien, die die fMRI-Technik nutzen (bis Juni 2010).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis concerns artificially intelligent natural language processing systems that are capable of learning the properties of lexical items (properties like verbal valency or inflectional class membership) autonomously while they are fulfilling their tasks for which they have been deployed in the first place. Many of these tasks require a deep analysis of language input, which can be characterized as a mapping of utterances in a given input C to a set S of linguistically motivated structures with the help of linguistic information encoded in a grammar G and a lexicon L: G + L + C → S (1) The idea that underlies intelligent lexical acquisition systems is to modify this schematic formula in such a way that the system is able to exploit the information encoded in S to create a new, improved version of the lexicon: G + L + S → L' (2) Moreover, the thesis claims that a system can only be considered intelligent if it does not just make maximum usage of the learning opportunities in C, but if it is also able to revise falsely acquired lexical knowledge. So, one of the central elements in this work is the formulation of a couple of criteria for intelligent lexical acquisition systems subsumed under one paradigm: the Learn-Alpha design rule. The thesis describes the design and quality of a prototype for such a system, whose acquisition components have been developed from scratch and built on top of one of the state-of-the-art Head-driven Phrase Structure Grammar (HPSG) processing systems. The quality of this prototype is investigated in a series of experiments, in which the system is fed with extracts of a large English corpus. While the idea of using machine-readable language input to automatically acquire lexical knowledge is not new, we are not aware of a system that fulfills Learn-Alpha and is able to deal with large corpora. To instance four major challenges of constructing such a system, it should be mentioned that a) the high number of possible structural descriptions caused by highly underspeci ed lexical entries demands for a parser with a very effective ambiguity management system, b) the automatic construction of concise lexical entries out of a bulk of observed lexical facts requires a special technique of data alignment, c) the reliability of these entries depends on the system's decision on whether it has seen 'enough' input and d) general properties of language might render some lexical features indeterminable if the system tries to acquire them with a too high precision. The cornerstone of this dissertation is the motivation and development of a general theory of automatic lexical acquisition that is applicable to every language and independent of any particular theory of grammar or lexicon. This work is divided into five chapters. The introductory chapter first contrasts three different and mutually incompatible approaches to (artificial) lexical acquisition: cue-based queries, head-lexicalized probabilistic context free grammars and learning by unification. Then the postulation of the Learn-Alpha design rule is presented. The second chapter outlines the theory that underlies Learn-Alpha and exposes all the related notions and concepts required for a proper understanding of artificial lexical acquisition. Chapter 3 develops the prototyped acquisition method, called ANALYZE-LEARN-REDUCE, a framework which implements Learn-Alpha. The fourth chapter presents the design and results of a bootstrapping experiment conducted on this prototype: lexeme detection, learning of verbal valency, categorization into nominal count/mass classes, selection of prepositions and sentential complements, among others. The thesis concludes with a review of the conclusions and motivation for further improvements as well as proposals for future research on the automatic induction of lexical features.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Small molecules affecting biological processes in plants are widely used in agricultural practice as herbicides or plant growth regulators and in basic plant sciences as probes to study the physiology of plants. Most of the compounds were identified in large screens by the agrochemical industry, as phytoactive natural products and more recently, novel phytoactive compounds originated from academic research by chemical screens performed to induce specific phenotypes of interest. The aim of the present PhD thesis is to evaluate different approaches used for the identification of the primary mode of action (MoA) of a phytoactive compound. Based on the methodologies used for MoA identification, three approaches are discerned: a phenotyping approach, an approach based on a genetic screen and a biochemical screening approach.rnFour scientific publications resulting from my work are presented as examples of how a phenotyping approach can successfully be applied to describe the plant MoA of different compounds in detail.rnI. A subgroup of cyanoacrylates has been discovered as plant growth inhibitors. A set of bioassays indicated a specific effect on cell division. Cytological investigations of the cell division process in plant cell cultures, studies of microtubule assembly with green fluorescent protein marker lines in vivo and cross resistant studies with Eleusine indica plants harbouring a mutation in alpha-tubulin, led to the description of alpha-tubulin as a target site of cyanoacrylates (Tresch et al., 2005).rnII. The MoA of the herbicide flamprop-m-methyl was not known so far. The studies described in Tresch et al. (2008) indicate a primary effect on cell division. Detailed studies unravelled a specific effect on mitotic microtubule figures, causing a block in cell division. In contrast to other inhibitors of microtubule rearrangement such as dinitroanilines, flamprop-m-methyl did not influence microtubule assembly in vitro. An influence of flamprop-m-methyl on a target within the cytoskeleton signalling network could be proposed (Tresch et al., 2008).rnIII. The herbicide endothall is a protein phosphatase inhibitor structurally related to the natural product cantharidin. Bioassay studies indicated a dominant effect on dark-growing cells that was unrelated to effects observed in the light. Cytological characterisation of the microtubule cytoskeleton in corn tissue and heterotrophic tobacco cells showed a specific effect of endothall on mitotic spindle formation and ultrastructure of the nucleus in combination with a decrease of the proliferation index. The observed effects are similar to those of other protein phosphatase inhibitors such as cantharidin and the structurally different okadaic acid. Additionally, the observed effects show similarities to knock-out lines of the TON1 pathway, a protein phosphatase-regulated signalling pathway. The data presented in Tresch et al. (2011) associate endothall’s known in vitro inhibition of protein phosphatases with in vivo-effects and suggest an interaction between endothall and the TON1 pathway.rnIV. Mefluidide as a plant growth regulator induces growth retardation and a specific phenotype indicating an inhibition of fatty acid biosynthesis. A test of the cuticle functionality suggested a defect in the biosynthesis of very-long-chain fatty acids (VLCFA) or waxes. Metabolic profiling studies showed similarities with different groups of VLCFA synthesis inhibitors. Detailed analyses of VLCFA composition in tissues of duckweed (Lemna paucicostata) indicated a specific inhibition of the known herbicide target 3 ketoacyl-CoA synthase (KCS). Inhibitor studies using a yeast expression system established for plant KCS proteins verified the potency of mefluidide as an inhibitor of plant KCS enzymes. It could be shown that the strength of inhibition varied for different KCS homologues. The Arabidopsis Cer6 protein, which induces a plant growth phenotype similar to mefluidide when knocked out, was one of the most sensitive KCS enzymes (Tresch et al., 2012).rnThe findings of my own work were combined with other publications reporting a successful identification of the MoA and primary target proteins of different compounds or compound classes.rnA revised three-tier approach for the MoA identification of phytoactive compounds is proposed. The approach consists of a 1st level aiming to address compound stability, uniformity of effects in different species, general cytotoxicity and the effect on common processes like transcription and translation. Based on these findings advanced studies can be defined to start the 2nd level of MoA characterisation, either with further phenotypic characterisation, starting a genetic screen or establishing a biochemical screen. At the 3rd level, enzyme assays or protein affinity studies should show the activity of the compound on the hypothesized target and should associate the in vitro effects with the in vivo profile of the compound.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ein Tag ohne Internet ist für viele kaum vorstellbar. Das Spektrum der Internetnutzer ist breiter geworden und damit sind die Ansprüche an die Websites massiv angestiegen. Die Entscheidung auf einer Website zu bleiben oder auf einer anderen zu suchen fällt innerhalb von wenigen Sekunden. Diese Entscheidung ist sowohl vom Website-Design als auch von dem dargestellten Inhalt abhängig. Die Auswertung, wie schnell der Benutzer Online-Informationen finden und wie einfach er sie verstehen kann, ist die Aufgabe von Web-Usability-Testing. Für das Finden und Verstehen von Informationen sind die computertechnischen zusammen mit den linguistischen Aspekten zuständig. In der Usability-Forschung liegt jedoch der Fokus bislang weitgehend auf der Bewertung der computer¬linguistischen und ästhetischen Aspekte der Websites. In den Hintergrund gedrängt wurden dabei die linguistischen Aspekte. Im Vergleich sind diese weniger systematisch erforscht und in Usability-Richtlinien kaum zu finden. Stattdessen stößt man überwiegend auf allgemeine Empfehlungen. Motiviert davon hat die vorliegende Arbeit das Ziel, Die Web-Usability systematisch sowohl aus linguistischer als auch aus formaler Sicht zu erforschen. Auf linguistischer Ebene wurde in Anlehnung an die Zeichentheorie von Morris die Web-Usability analysiert und der Begriff Linguistische Web-Usability eingeführt. Auf Basis dieser Analyse sowie einer literaturstudie ‘literature review’ mehrerer Usability-Richtlinien wurde ein Kriterienkatalog entwickelt. Bei der Umsetzung dieses Kriterienkatalogs im Rahmen einer Usability-Studie wurde die Website der Universität Johannes Gutenberg-Universität Mainz (JGU) im Usability-Labor unter Anwendung der Methode Eye-Tracking zusammen mit der Think-Aloud-Methode und der Retrospective-Think-Aloud-Methode getestet. Die empirischen Ergebnisse zeigen, dass die linguistischen Usability-Probleme genau wie die formalen die Benutzer hindern, die gesuchten Informationen zu finden, oder zumindest ihre Suche verlangsamen. Dementsprechend sollten die linguistischen Perspektiven in die Usability-Richtlinien miteinbezogen werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit behandelt Fragen des Dreistufentests, der mit dem Inkrafttreten des 12. Rundfunkänderungsstaatsvertrages am 1.6.2009 Eingang in das deutsche Rundfunkrecht gefunden hat. Voraus ging eine Auseinandersetzung der Bundesrepublik Deutschland mit der Europäischen Kommission im Rahmen von Beschwerden über die Zulässigkeit der deutschen Rundfunkfinanzierung. Das Verfahren endete mit Auflagen, die durch den deutschen Rundfunkgesetzgeber umgesetzt wurden, nicht zuletzt, um den Vorgaben des europäischen Beihilfenrechts zu entsprechen. Anders als zu dem Verfahren des Dreistufentests zuvor erschienenen Monografien setzt die vorliegende Arbeit an dessen Abschluss an und stellt die Frage, wie eine den Dreistufentest beendende Entscheidung überprüft werden kann, inwieweit und für wen sie justiziabel ist. rnrnDer Autor untersucht zunächst die Überprüfung des Dreistufentests durch die für die Rechtsaufsicht zuständige Stelle, die der Rundfunkstaatsvertrag vorsieht, um den europarechtlich geforderten staatlichen Betrauungsakt zu garantieren. Eingehend behandelt werden Fragen zur Verfassungsmäßigkeit einer obligatorischen rechtsaufsichtlichen Prüfung programmbezogener Thematiken unter den Gesichtspunkten der Staatsferne und Subsidiarität. Der Autor kommt zu dem Ergebnis, dass die Prüfung der für die Rechtsaufsicht zuständigen Stelle keine Aufsicht im eigentlichen Sinne darstellt, sondern eine Aufgabe sui generis und dass aufgrund einer durch Beurteilungsspielräume und Defizite in den Handlungsmitteln doppelt beschränkten Prüfungskompetenz der für die Rechtsaufsicht zuständigen Stelle den verfassungsmäßigen Vorgaben genügt wird. Die für die Rechtsaufsicht zuständige Stelle entscheidet durch einen Verwaltungsakt.rnrnSodann werden die Möglichkeiten eines verwaltungsgerichtlichen Vorgehens in verschiedenen theoretischen prozessualen Situationen untersucht. Im Ergebnis stellt sich eine Verpflichtungsklage einer Rundfunkanstalt gegen die Ablehnung der Bestätigung eines Dreistufentestergebnisses als zulässig und begründbar heraus. Gleiches gilt für eine Konkurrenten-Anfechtungsklage gegen die Bestätigung eines Dreistufentestergebnisses. In beiden Fällen ist für eine gute Erfolgsaussicht ein hohes Maß an argumentativer Kraft erforderlich. Untersucht werden schließlich Organstreitverfahren innerhalb einer Rundfunkanstalt. rnrnEin gerichtliches Vorgehen gegen den Dreistufentest auf der Basis des Wettbewerbsrechts vor ordentlichen Gerichten ist möglich. Exemplarisch wird der aktuelle Rechtsstreit um die Tagesschau-App behandelt, der auf § 4 Nr. 11 UWG basiert. Der gerichtlich überprüfbare Vorwurf wird in der konkreten Ausgestaltung eines Telemedienangebots in dem Verstoß einer Regelung des Rundfunkstaatsvertrages erhoben, etwa als nicht sendungsbezogen oder presseähnlich. Ergebnis der eingehenden Bewertung dieses Falles ist die Feststellung, dass nicht der Dreistufentest selbst Gegenstand einer Überprüfung ist, sondern die praktische Umsetzung seines Ergebnisses. Diskutiert werden insbesondere die Fragestellungen, inwieweit eine zumal bestandskräftige behördliche Entscheidung überhaupt durch ordentliche Gerichte zu überprüfen ist und ob ein solches behördliches Handeln als unlauter bewertet werden kann. rnrnSchließlich stellen sich die Erfolgsaussichten gerichtlicher Maßnahmen auf der Ebene der europäischen Gerichtsbarkeit im Ergebnis als gering heraus.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Dissertation befasst sich mit den umsatzsteuerrechtlichen Fragen, die sich mit Immobiliengeschäften verbinden. Zunächst werden die allgemeinen Voraussetzungen der Steuerbarkeit von Immobiliengeschäften untersucht. Hierbei wird zwischen den zivilrechtlichen Grundlagen und den steuerrechtlichen Folgen für die Fälle der Grundstücksübertragung, des Vorbehalts von Rechten (insbesondere des Nießbrauchsvorbehalts) und anderer Gestaltung, wie der ausschließlichen Einräumung eines Nießbrauchs oder eines Erbbaurechts unterschieden. Darüber hinaus wird die Unternehmereigenschaft insbesondere unter dem Gesichtspunkt der Drei-Objekt-Grenze untersucht. rnrnFerner wird das Zusammenspiel zwischen der Umsatzsteuerbefreiung und der parallelen Grunderwerbsteuerbarkeit insbesondere bei kombinierten Verträgen beleuchtet, bei denen sich jeweils die Frage stellt, ob und inwieweit sie oder ihre einzelnen Elemente der Grunderwerbsteuer und der Umsatzsteuer unterliegen. Bauträgerverträge und Bauherrenmodelle werden zivilrechtlich eingeordnet und in ihren steuerlichen Folgen beurteilt. rnrnHinsichtlich der steuerbefreiten sonstigen Leistung steht im Grundstücksbereich § 4 Nr. 12 UStG im Mittelpunkt, welcher die Umsatzsteuerbefreiung für Vermietungen bestimmt. In diesem Zusammenhang werden auch die ambivalenten Folgen einer Umsatzsteuerbefreiung untersucht, da mit der Befreiung auch die Möglichkeit zum Vorsteuerabzug verloren geht, was die rechtliche Möglichkeit der Option zur Steuerpflicht erklärt.rnrnDas im Zusammenhang mit Grundstückgeschäften immer zu beachtende Rechtsinstitut der Geschäftsveräußerung im Ganzen, deren Vorliegen schon die Umsatzsteuerbarkeit entfallen lässt, wird umfassend dargestellt. rnrnEin wesentlicher Teil der Ausarbeitung betrifft die Problematik der gemischt genutzten Grundstücke. Es wird die Entwicklung der Behandlung der gemischt genutzten Grundstücke von der Seeling-Entscheidung des europäischen Gerichtshofes bis zur Einführung des § 15 Abs. 1 b UStG mit Wirkung zum 01.01.2011 dargestellt. Während nach der Seeling-Rechtsprechung der Unternehmer noch die Wahl hatte, ein gemischt, also sowohl unternehmerisch wie auch privat genutztes Grundstück, vollständig in die unternehmerische Sphäre einzubeziehen und sogleich im vollen Umfang Vorsteuer geltend zu machen, kann der Unternehmer seit der Gesetzesänderung die Vorsteuer nur noch in dem Umfang geltend machen, indem das Grundstück tatsächlich für unternehmerische Zwecke genutzt wird. Das sogenannte Seeling-Modell, dessen Folgen mitunter als Staatsdarlehen charakterisiert worden sind, fand damit zu einem Ende. In diesem Zusammenhang wird auch das Ausscheiden der Immobilie aus dem unternehmerischen Bereich vor und nach Ablauf des Berichtigungszeitraums nach § 15 a UStG untersucht.rnrnSchließlich werden die Grundstücksgeschäfte im Zusammenhang mit Gesellschaften unterschiedlicher Rechtsform dargestellt. Hierbei wird zwischen den Fällen der Einbringung eines Grundstücks bei Gründung der Gesellschaft, der Einbringung nach Entstehung der Gesellschaft und der Grundstücksgeschäfte anlässlich des Ausscheidens aus einer Gesellschaft unterschieden. Es werden sowohl die zivilrechtlichen Grundlagen als auch die umsatzsteuerrechtlichen Folgen für Personengesellschaften, die GmbH und die AG dargestellt. rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Asthma, eine der häufigsten Atemwegserkrankungen, ist ein komplexes Syndrom heterogener Phänotypen. Ihnen allen gemeinsam ist eine Entzündung der Atemwege mit bronchialer Hyperreagibilität und variabler Atemwegsobstruktion.Die Globale Initiative für Asthma (GINA) empfiehlt, eine Therapie am Grad der Asthmakontrolle zu orientieren. Es wird dabei zwischen kontrolliertem, teilweise kontrolliertem und unkontrolliertem Asthma unterschieden. rnDer vorliegenden Dissertation lag die Frage zu Grunde, inwieweit etablierte klinische, funktionelle, zelluläre und Labor-Parameter den Verlauf der Asthmakontrolle wiederspiegeln. Diese Parameter sollten bei klinisch stabiler Kontrolle ebenfalls stabil bleiben, oder eine Änderung gleichgerichtet wiedergeben. Hierzu wurden 120 Patienten im Hinblick auf ihre Asthmakontrolle kategorisiert und im zeitlichen Verlauf an 3 Visiten zum Zeitpunkt 0 (V0), eine Woche (V1) und 6 Monate später (V2) untersucht. Bestimmt wurden klinische Parameter wie Fragebögen zur Asthmakontrolle (ACQ-5 Scores), funktionelle Parameter wie die Lungenfunktion oder die bronchiale Hyperreagibilität zelluläre Parameter wie das Stickoxid im Exhalat (NO) als Korrelat der bronchialen Entzündung, der Anteil eosinophiler Granulozyten im Sputum, die Anzahl eosinophiler und neutrophiler Granulozyten pro nl Blut, die Gesamt-IgE-Spiegel im Serum und zellbiologische Parameter wie die Anteile regulatorischer T-Zellen und die Anteile der T-Zellen, die die Zytokine IFN-ɣ, IL-4, IL-5, IL-10, IL-13 und IL-17 produzieren.rnDie Verbesserung der Asthmakontrolle spiegelte sich in einem Rückgang des NOs um im Median 5,8 ppb (p=0,016) nach 6 Monaten wieder. Sonst ließen sich keine Parameter identifizieren, die die Entwicklung der Asthmakontrolle in positiver oder negativer Richtung abbildeten. Bemerkenswerter Weise bildete selbst der ACQ, der als etabliertes Messinstrument für die Asthmakontrolle gilt, diese Veränderungen nicht ab.rnZellbiologisch unterschieden sich die Patienten mit unterschiedlicher Asthmakontrolle weder in den Anteilen Zytokin-produzierender T-Zellen, noch im Anteil regulatorischer T-Zellen.rnDie Anteile der Zytokin-produzierenden T-Zellen unterlagen im zeitlichen Verlauf zwar deutlicheren Schwankungen als die Anteile regulatorischer T-Zellen, im Median blieben beide jedoch konstant. Die Anteile der Zytokin-produzierenden T-Zellen und regulatorischer Zellen lassen also keine Rückschlüsse auf den Verlauf der Asthmakontrolle zu.rnZusammenfassend ist lediglich das NO geeignet, die Verbesserung der Asthmakontrolle zu beschreiben. Deshalb erscheint es im Angesicht der Ergebnisse dieser Studie nicht sinnvoll, therapeutische Entscheidung lediglich auf Basis eines einzelnen Parameters zu treffen. Hierfür bleibt nach wie vor nur die Zusammenschau verschiedener Untersuchungsergebnisse.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Dissertation „Strategisches Innovationsmanagement von Buchverlagen im Kontext konvergierender Medienmärkte“ nimmt sich des Themengebiets der Innovation in Buchverlagen in Zeiten der Digitalisierung an. Grob gliedert die Arbeit sich in einen Theorieteil und einen Empirieteil. Den Einstieg in den Theorieteil bildet eine Einführung in die Themenstellung, in der das Erkenntnisinteresse anhand von vier forschungsleitenden Fragen eingegrenzt wird: rn1) „Welche Anforderungen an die Innovationsfähigkeit von Verlagen ergeben sich aus aktuellen und antizipierten zukünftigen Entwicklungen, insbesondere der Medienkonvergenz?“rn2) „Welchen Beitrag kann strategisches Innovationsmanagement leisten, um diesen Anforderungen mit erfolgreichen Innovationen gerecht zu werden?“ rn3) „Welches sind die kritischen Faktoren für erfolgreiches Innovieren im Buchverlag?“ rn4) „Wie kann erfolgsförderndes Innovationsmanagement in Buchverlage implementiert werden?“rnrnDer Ausgangspunkt ist dabei die Darstellung aktueller Entwicklungen im Buchmarkt, die in ihrer Relevanz für das Thema bewertet werden. Dabei stehen solche Veränderungen im Mediennutzungsverhalten und dem veränderten Marktumfeld im Fokus, aus denen resultiert, dass Verlage sich nicht mehr nur auf ihre tradierten Kernkompetenzen verlassen können. Der Medienkonvergenz wird in dem Kontext als Suprakategorie eine herausgehobene Bedeutung zuerkannt. Am Ende des dritten Kapitels wird resümierend erörtert, woraus für Verlage heute die Notwendigkeit innovativen Handelns erwächst. Damit findet auch eine Überleitung in das folgende Kapitel über Innovation im Buchverlag statt, das inhaltlich den Kern des Theorieteils der Arbeit bildet.rnrnIm Kapitel Innovation im Buchverlag wird zuerst eine definitorische Eingrenzung des Innovationsbegriffs vorgenommen. Dabei wird eine Entscheidung für den mehrdimensionalen Ansatz nach Hauschildt und Salomo als definitorisches Grundraster getroffen. Darauf folgt eine Einführung in theoretische Grundbegriffe und Konzepte des Innovationsmanagements. Im Folgenden finden Erkenntnisse aus der Innovationsforschung Anwendung auf Spezifika in Buchverlagen, wobei zunächst Handlungsfelder identifiziert werden. Eine wesentliche Rolle im Argumentationsgang der Arbeit spielen dann die Erfolgsfaktoren des Innovationsmanagements in Buchverlagen. Eine herausragende Stellung wird dabei dem Wissensmanagement zuerkannt. Es folgt darauf ein Unterkapitel über Innovationskooperation. Darin wird zunächst die strategische Relevanz von Kooperationen beleuchtet, wobei auch eine teils kritische Auseinandersetzung mit dem modernen Begriff der Open Innovation stattfindet. Dann wird dargestellt, wer sich als Kooperationspartner für Buchverlage eignet und welche Modi des kooperativen Innovierens existieren. Es folgen darauf Ausführungen zur Implementierung einer Innovationsstrategie, wobei sowohl aufbau- als auch ablauforganisatorische Aspekte zum Tragen kommen. Im Mittelpunkt steht dabei die Darstellung des Stage-Gate-Modells als Ansatz für die Ablaufplanung von Innovationsprozessen in Buchverlagen. Wegen seiner guten Skalierbarkeit wird diesem Ansatz eine Eignung sowohl für kleine als auch mittelgroße und große Verlage zuerkannt. Den Abschluss des Kapitels über Innovation im Buchverlag bilden Betrachtungen über die rechtliche und technische Absicherung von Innovationen. rnrnDer empirische Teil der Arbeit wird eingeläutet mit einer Herleitung empirischer Fragestellungen. Dies geschieht zum einen auf der Grundlage einer Betrachtung, welche Erkenntnislücken die rein theoretische Auseinandersetzung mit dem Thema offengelassen hat. Die empirischen Fragestellungen bilden das Grundgerüst, auf dem im Folgenden die Ergebnisse einer qualitativen Maßnahme in Form von Interviews und einer quantitativen Maßnahme in Form einer Befragung per Fragebogen dargestellt werden. In der Auswertung der Ergebnisse werden dabei zunächst Hypothesen aus den Fallstudien gebildet, die auf Grundlage der Interviews entstanden sind. Diese Hypothesen werden anhand der Daten, die bei der Erhebung per Fragebogen gewonnen wurden, mit statistischen Methoden überprüft.rnrnDen Abschluss der Arbeit bildet eine Schlussbetrachtung, in der die gewonnenen Erkenntnisse verdichtet und vor dem Hintergrund der eingangs gestellten forschungsleitenden Fragen als Quintessens der Arbeit präsentiert werden. Zu jeder forschungsleitenden Frage findet dabei ein kurzes Resümee statt. Als größte Anforderung an die Innovationsfähigkeit von Verlagen wird darin erkannt, den Modus der eigenen Wertschöpfung kontinuierlich zu aktualisieren und an die dynamischen Veränderungen im Umfeld anzupassen. Dem strategischen Innovationsmanagement kommt dabei vor allem die Bedeutung zu, dass es ein konsistentes Handeln ermöglicht, das als Voraussetzung für die Planbarkeit von Innovationserfolgen gesehen wird. Auch erscheint es zunehmend wichtig, den Paradigmenwechsel weg vom Denken in Produktkategorien hin zu einem Denken in Problemlösungskategorien zu vollziehen, wobei ein strategisches Innovationsmanagement Buchverlagen hilfreich sein kann.rn