1000 resultados para Stochastische Prozesse


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Seit Anfang der 1990er Jahre wird Schulen mit dem Ziel der Qualitätsentwicklung größere Autonomie zugesprochen, um somit auch verstärkt lokalen und regionalen Anforderungen und Gegebenheiten gerecht zu werden (Rahm & Schröck, 2007). Die Profilierung als Partnerschule des Leistungssports (PdL) ist Ausdruck einer solchen Schulentwicklung (Fessler, 2010). Die PdL sind die federführenden Schulen im hessischen Landesprogramm „Talentsuche – Talentförderung“ und haben die Aufgabe, die Athleten bei der Bewältigung der Doppelbelastung durch Schule und Leistungssport zu unterstützen (Scheid, Eppinger & Adolph, 2007). Das Landesprogramm enthält verbindliche Vorgaben zur Struktur und Umsetzung der PdL (HKM & LSB Hessen, 2006). Diese werden jedoch auf Grund der unterschiedlichen Kontexte und individuellen Entscheidungen der Funktionsträger und Akteure auf der einzel-schulischen Ebene interpretiert und den jeweiligen Bedingungen angepasst. Dies führt zu unterschiedlichen Vor-Ort-Lösungen der schulischen Profilierung (Fend, 2008). Die Studie geht drei übergeordneten Fragestellungen nach: 1. Gelingt es den Partnerschulen die leistungssportlich ambitionierte Schülerinnen und Schüler zu fördern, pädagogisch zu unterstützen und die schulische Ausbildung zu gewährleisten? 2. Welche Bedeutung haben die Bereiche und Dimensionen der Schulqualität für die Partnerschulen im Hinblick auf eine effektive Verbindung von schulischer Ausbildung und leistungssportlicher Entwicklung? 3. Welche Besonderheiten und Unterschiede lassen sich zwischen den untersuchten Schulen feststellen? Die in zwei Phasen gegliederte Untersuchung zielt mit seinem qualitativen Vorgehen auf die Evaluation solcher individuellen Schulprofile und die Identifizierung der Bedingungen und Prozesse der Vernetzung von Schule und Leistungssport. Mittels Fragebögen und Schulprogrammanalysen (Phase 1 – Bestanderhebung an allen 27 PdL) sowie leitfadengestützter Interviews an sechs ausgewählten Standorten (Phase 2 – Qualitätsanalyse) werden die bedeutenden Bereiche der Qualitätsentwicklung herausgearbeitet und inhaltsanalytisch nach Mayring (2010) ausgewertet. Als wichtige Ergebnisse der Evaluation der Entwicklung des Schulprofils Partnerschule des Leistungssports kann u.a. festgestellt werden, dass 1. es allen Schulen weitestgehend gelingt die Nachwuchsathleten pädagogisch verant-wortungsbewusst zu fördern, sich jedoch einzelne Sportschüler auch dazu kritisch äußern. 2. die Bedeutung der Qualitätsbereiche zwischen den Schulen variiert; die Schulleitung im Prozess der Profilierung eine der wichtigsten Rollen einnimmt und die besondere Aufgabe für sie darin besteht – im Sinne von governance – unterschiedliche Ansichten und Einstellungen der Akteure zu reflektieren, zu kommunizieren und zu koordinieren. 3. an Schulen mit einer betont leistungssportlichen Ausrichtung vermehrt Konflikte auftreten können und mit Blick auf die Sportschüler die Gefahr besteht, dass an diesen Schulen nicht immer das Ziel der Mündigkeit erreicht wird.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die soziale Waldamöbe Dictystelium discoideum ist ein etablierter Modellorganismus zur Erforschung grundlegender zellbiologischer Prozesse. Innerhalb der letzten Jahre konnte dabei insbesondere das Wissen zum Lipidmetabolismus umfassend erweitert werden. In diesem Zusammenhang spielt besonders eine Enzymgruppe eine wichtige Rolle: die LC/VLC-Acyl-CoA-Synthetasen. Diese übernehmen dabei die Aufgabe Fettsäuren zu aktivieren, um sie so dem Zellmetabolismus überhaupt erst zugänglich zu machen. D. discoideum verfügt über insgesamt vier dieser Enzyme: FcsA, FcsB, FcsC und das Bubblegum-Enzym Acsbg1. Während die FcsA und FcsB bereits in vorangegangenen Arbeiten untersucht wurden, werden die FcsC und die Acsbg1 in dieser Arbeit erstmals biologisch charakterisiert. Untersuchungen zur subzellulären Lokalisation der Proteine zeigen, dass die meisten LC/VLC-Acyl-CoA-Synthetase auf Endosomen und im Cytoplasma gefunden werden können (FcsA, FcsC und Acsbg1), während die FcsB als Transmembranprotein über das ER zu den Peroxisomen transportiert wird. Die Acsbg1 akkumuliert dabei zusätzlich an der Plasmamembran. Funktionell konnte gezeigt werden, dass neben der FcsA auch die Acsbg1 an der Bereitstellung von Acyl-CoA für Triacylglyceridsynthese beteiligt ist. Dabei besitzt die FcsA die Hauptenzymaktivität und kompensiert den Verlust der Acsbg1 in acsbg1- Zellen. In fcsA-/acsbg1- Zellen dagegen kommt der Verlust der Acsbg1 durch eine zusätzliche Verringerung des TAG-Gehaltes der Doppel-KOs im Vergleich zu fcsA- Zellen zum tragen. Alle vier Enzyme beeinflussen die Phagozytose. Dabei zeigen fcsA- und fcsC- Zellen eine gesteigerte Phagozytose in Gegenwart von der gesättigten Fettsäure Palmitinsäure im Kulturmedium. Auch der knockout der Acsbg1 wirkt sich positiv auf die Phagozytoserate aus, jedoch kommt auch nur dieser zum tragen, wenn neben der Acsbg1 auch die FcsA ausgeschaltet wird. Die FcsB dagegen zeigt eine dramatische Reduktion der Partikelaufnahme in nicht Fettsäure gefütterten Zellen. Durch die Zugabe einer exogenen Fettsäure kann dieser Effekt nicht kompensiert werden. Auch der zusätzliche Verlust der FcsA-Enzymaktivität verändert dieses Verhalten in Palmitinsäure inkubierten Zellen nicht. In fcsA-/fcsB- konnte zudem ein Defekt beim Abbau von Triacylglyceriden gefunden werden. Dieser Defekt liefert erste Hinweise für ein Modell, das den Abbau von LD gespeicherten Lipiden durch Autophagozytose in D. discoideum beschreibt. Peroxisomen sind wichtige Organellen für die Detoxifikation und die Oxidation von Fettsäuren. Durch das Ausschalten der Acaa1, der Thiolase, die den letzten Schritt der β-Oxidation in Peroxisomen katalysiert, zeigte sich ein verlangsamter Triacylglycerol-Abbau sowie eine verringerte Degradation des Etherlipids UKL und von Sterolestern, was auf eine Beteiligung der Peroxisomen beim Abbau von langkettigen Fettsäuren schließen lässt. Bei dem Versuch durch das Ausschalten des pex19-Gens eine Zelllinie zu generieren, die keine Peroxisomen besitzt, wurde die Organelle überraschender Weise, wenn auch mit einer vom Wildtyp abweichenden Morphologie, weiterhin vorgefunden. Dieser Befund korrelierte mit dem Resultat, dass trotzdem das pex19-Gen erfolgreich unterbrochen wurde, dennoch eine intakte Kopie des Gens nachgewiesen werden konnte. Dementsprechend sollte die erschaffene pex19- Zelllinie als knockdown und nicht als knockout gewertet werden. Der pex19 knockdown zeigte beim Abbau von Triacylglyceriden eine ähnliche Verlangsamung wie acaa1- Zellen. Zusätzlich wurde eine Verringerung der Synthese des Etherlipids UKL beobachtet, was darauf hindeutet, dass dieses Lipid im Peroxisom gebildet wird. Auch die Phagozytose und das Wachstum auf Bakterienrasen waren im pex19 knockdown dramatisch reduziert. Durch die Überexpression von Pex19-GFP im knockdown Hintergrund konnten die physiologischen Defekte in den meisten so generierten Zelllinien ausgeglichen werden. Lipid Droplets sind Organellen, die in Eukaryoten und Prokaryoten als Speicher für Neutralfette dienen und ebenfalls als Ort der Lipidsynthese fungieren. Um diese Aufgaben erfüllen zu können, besitzen sie auf ihrer Oberfläche Proteine, die für die Regulierung dieser Prozesse notwendig sind. Durch die weiterführende Analyse von Kandidatenproteinen, die durch eine proteomische Analyse von aufgereinigten LDs identifiziert wurden, konnte für vier weitere Proteine (Plsc1, Net4, Lip5 und Nsdhl) die LD-Assoziation durch GFP-Fusionsproteine bestätigt werden. Bei der Charakterisierung von plsc1 knockouts zeigte sich eine verminderte Fähigkeit beim Wachstum auf Bakterienrasen sowie eine erhöhte Phagozytoserate in Gegenwart einer exogenen Fettsäure, was auf eine Involvierung des Proteins in die Phospholipidsynthese hindeutet. Die bisher einzige identifizierte LD-assoziierte Lipase Lip5 nimmt nur eine untergeordnete Rolle bei der Hydrolyse von Triacylglycerolen und Sterolestern ein, da in KO-Mutanten nur ein milder Defekt beim Abbau beider Substanzen beobachtet werden konnte. Die LD-Lokalisation von Net4 ist evolutionär konserviert und kann nicht nur in D. discoideum beobachtet werden, sondern auch in humanen Zellen. Welche Funktion das Protein auf der LD-Oberfläche ausübt, konnte nicht geklärt werden. Allerdings kann ein direkter Einfluss auf den TAG- und Sterolaufbau ausgeschlossen werden. LDs stehen in engem Kontakt mit anderen Organellen, die in den Lipidmetabolismus involviert sind, wie mit den Mitochondrien oder dem ER. Durch Perilipin-Hybridproteine können künstliche, stabile Verbindungen zwischen LDs und diesen Organellen hergestellt werden. Dabei zeigte Perilipin ein sehr starkes Targeting-Potenzial, durch welches es notwendig war, als zweite Hybridhälfte ein Transmembranprotein zu wählen. Die Analyse eines Hybrids, das eine dauerhafte Verbindung von LDs und dem ER herstellt, wies dabeieine Reduktion der LD-Größe auf, wobei der Gesamt-TAG-Gehalt der Zellen unbeeinflusst blieb. Durch die starke Affinität von Perilipin für die Assoziation an LDs konnten durch die Generierung von Hybriden andere Proteine an die LD-Oberfläche dirigiert werden. Auf diese Weise konnte erfolgreich die LC-Acyl-CoA-Synthetase FcsA auf das LD transplantiert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen der Organischen Optoelektronik wird der Weg vom Molekül zum Bauteil als Wertschöpfungskette verstanden, deren Kernziele wissenschaftlicher Erkenntnisfortschritt und Produktanwendungen sind. Eine besonders vielversprechende Möglichkeit diese Entwicklung auch in Zukunft erfolgreich und innovativ fortführen zu können, eröffnet sich durch das Einbeziehen magnetosensitiver Prozesse. Spinzustände werden als zusätzliche Regelgröße verstanden, die es erlauben, optoelektronische Abläufe zu optimieren und neuartige Funktionen zu generieren. Dieses Konzept integriert die Vorteile sowie das Potential der Spintronik in die Organische Optoelektronik und hat sich zu einem zukunftsweisenden, neuartigen Forschungsfeld entwickelt. Es wird als Organische Magnetooptoelektronik bezeichnet und beschäftigt sich mit der Wirkung magnetischer Felder auf optisch und elektronisch anregbare Zustände in organischen Halbleitern. Mit den durchgeführten Forschungsaktivitäten ist es gelungen, Organische Feldeffekt-Transistoren (OFETs) als neuartige Plattform zur Untersuchung magnetooptoelektronischer Phänomene in niedermolekularen Halbleitern zu etablieren. Der gezielte Einsatz geeigneter Funktionsmaterialien ermöglicht die Herstellung magnetoresistiver 3-Kontakt-Bauteile, die das Wissenschaftsfeld des Organischen Magnetowiderstands entscheidend erweitern und dessen Anwendungsspektrum vergrößern. Dabei offenbaren OFETs auf Basis der Lochtransportmaterialien Pentacen und TIPS-Pentacen unter Belichtung magnetosensitives Verhalten, das erlaubt den Organischen Magnetowiderstand optisch ein- und auszuschalten. Auch ohne zusätzliche Belichtung können Magnetfeldeffekte erzielt werden, wenn spezielle Donor- und Akzeptor-Komponenten eingesetzt werden. Aus der ionisierenden Wechselwirkung zwischen Spiro-TTB (Elektronendonor) und HAT-CN (Elektronenakzeptor) resultiert eine so ausgeprägte Magnetosensitivität, dass bereits ultrakleine Magnetfelder den Ladungstransport signifikant beeinflussen. Zudem ist das magnetoresistive Verhalten empfindlich von den Spannungsbedingungen abhängig und das MR-Vorzeichen kann durch die Drainspannung umgepolt werden. Donor- und Akzeptor-Syteme mit nichtionisierender Wechselwirkung erweisen sich ebenfalls als geeignet für die Herstellung magnooptoelektronisch aktiver Bauteile. Sowohl in Spiro-DPPFPy als auch in Spiro-TAD/Spiro-PFPy OFETs zeigen sich im Dunkeln positiver und unter Belichtung negativer Magnetowiderstand. Diese gegensätzlichen MR-Komponenten lassen sich mit der Belichtungsintensität sowie der Magnetfeldstärke systematisch modulieren und es ist das magnetooptoelektronische Schalten des MR-Vorzeichens möglich. Unterschiedliche MR-Komponenten treten auch in ambipolaren Spiro-DPASP-tBu-Phenyl OFETs auf. Deren Drainstrom lässt sich in lochdominierte, elektronendominierte sowie ambipolare Bereiche gliedern, wobei bei unipolarem Ladungstransport positiver und bei ambipolarem negativer Magnetowiderstand vorherrscht. Mit der Betriebsspannung kann zwischen den jeweiligen Transportbereichen und damit dem MR-Vorzeichen geschaltet werden. All diese Facetten des Organischen Magnetowiderstands sind nicht nur Ausdruck des weitreichenden physikalischen Hintergrunds, sondern eröffnen eine vielversprechende Perspektive zur Realisierung multifunktionaler, magnetooptoelektronischer 3-Kontakt-Bauteile auf Basis organischer Halbleiter. Neben dem Nachweis neuartiger magnetoresistiver Phänomene in Organischen Feldeffekt-Transistoren beinhaltet dieses Forschungsprojekt das Ziel, zur Entschlüsselung der zugrundeliegenden Elementarprozesse beizutragen. Dabei ergibt sich folgendes Resümee für die Interpretation der erzielten Magnetfeldeffekte: Unter unipolaren Transportbedingungen wird der Magnetowiderstand durch spinsensitive Bipolaronenbildung versursacht. Im Rahmen dieser Arbeit tragen Bipolaronen signifikant zum Drainstrom bei, wenn im Leitungskanal Gegenladungen vorhanden sind oder dieser aus chemischen Einheiten mit hoher Elektronenaffinitätsdifferenz aufgebaut ist. Weitere MR-Komponenten werden erschlossen, wenn im Transportvolumen simultan positive und negative Ladungsträger vorhanden sind. Deren Interaktion resultiert in Elektron-Loch Paaren, die über ein magnetosensitives Reaktionsverhalten verfügen. Sie werden entweder über Belichtung der OFET-Struktur erzeugt oder bilden sich während des ambipolaren Ladungstransports.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die laserinduzierte Plasmaspektroskopie (LIPS) ist eine spektrochemische Elementanalyse zur Bestimmung der atomaren Zusammensetzung einer beliebigen Probe. Für die Analyse ist keine spezielle Probenpräparation nötig und kann unter atmosphärischen Bedingungen an Proben in jedem Aggregatzustand durchgeführt werden. Femtosekunden Laserpulse bieten die Vorteile einer präzisen Ablation mit geringem thermischen Schaden sowie einer hohen Reproduzierbarkeit. Damit ist fs-LIPS ein vielversprechendes Werkzeug für die Mikroanalyse technischer Proben, insbesondere zur Untersuchung ihres Ermüdungsverhaltens. Dabei ist interessant, wie sich die initiierten Mikrorisse innerhalb der materialspezifschen Struktur ausbreiten. In der vorliegenden Arbeit sollte daher ein schnelles und einfach zu handhabendes 3D-Rasterabbildungsverfahren zur Untersuchung der Rissausbreitung in TiAl, einer neuen Legierungsklasse, entwickelt werden. Dazu wurde fs-LIPS (30 fs, 785 nm) mit einem modifizierten Mikroskopaufbau (Objektiv: 50x/NA 0.5) kombiniert, welcher eine präzise, automatisierte Probenpositionierung ermöglicht. Spektrochemische Sensitivität und räumliches Auflösungsvermögen wurden in energieabhängigen Einzel- und Multipulsexperimenten untersucht. 10 Laserpulse pro Position mit einer Pulsenergie von je 100 nJ führten in TiAl zum bestmöglichen Kompromiss aus hohem S/N-Verhältnis von 10:1 und kleinen Lochstrukturen mit inneren Durchmessern von 1.4 µm. Die für das Verfahren entscheidende laterale Auflösung, dem minimalen Lochabstand bei konstantem LIPS-Signal, beträgt mit den obigen Parametern 2 µm und ist die bislang höchste bekannte Auflösung einer auf fs-LIPS basierenden Mikro-/Mapping-Analyse im Fernfeld. Fs-LIPS Scans von Teststrukturen sowie Mikrorissen in TiAl demonstrieren eine spektrochemische Sensitivität von 3 %. Scans in Tiefenrichtung erzielen mit denselben Parametern eine axiale Auflösung von 1 µm. Um die spektrochemische Sensitivität von fs-LIPS zu erhöhen und ein besseres Verständnis für die physikalischen Prozesse während der Laserablation zu erhalten, wurde in Pump-Probe-Experimenten untersucht, in wieweit fs-Doppelpulse den laserinduzierten Abtrag sowie die Plasmaemission beeinflussen. Dazu wurden in einem Mach-Zehnder-Interferometer Pulsabstände von 100 fs bis 2 ns realisiert, Gesamtenergie und Intensitätsverhältnis beider Pulse variiert sowie der Einfluss der Materialparameter untersucht. Sowohl das LIPS-Signal als auch die Lochstrukturen zeigen eine Abhängigkeit von der Verzögerungszeit. Diese wurden in vier verschiedene Regimes eingeteilt und den physikalischen Prozessen während der Laserablation zugeordnet: Die Thermalisierung des Elektronensystems für Pulsabstände unter 1 ps, Schmelzprozesse zwischen 1 und 10 ps, der Beginn des Abtrags nach mehreren 10 ps und die Expansion der Plasmawolke nach über 100 ps. Dabei wird das LIPS-Signal effizient verstärkt und bei 800 ps maximal. Die Lochdurchmesser ändern sich als Funktion des Pulsabstands wenig im Vergleich zur Tiefe. Die gesamte Abtragsrate variiert um maximal 50 %, während sich das LIPS-Signal vervielfacht: Für Ti und TiAl typischerweise um das Dreifache, für Al um das 10-fache. Die gemessenen Transienten zeigen eine hohe Reproduzierbarkeit, jedoch kaum eine Energie- bzw. materialspezifische Abhängigkeit. Mit diesen Ergebnissen wurde eine gezielte Optimierung der DP-LIPS-Parameter an Al durchgeführt: Bei einem Pulsabstand von 800 ps und einer Gesamtenergie von 65 nJ (vierfach über der Ablationsschwelle) wurde eine 40-fache Signalerhöhung bei geringerem Rauschen erzielt. Die Lochdurchmesser vergrößerten sich dabei um 44 % auf (650±150) nm, die Lochtiefe um das Doppelte auf (100±15) nm. Damit war es möglich, die spektrochemische Sensitivität von fs-LIPS zu erhöhen und gleichzeitig die hohe räumliche Auflösung aufrecht zu erhalten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Wissenschaft weist im Zuge der Entwicklung von der Industrie- zu einer Wissensgesellschaft einschneidende Veränderungen in der Wissensordnung auf, welche sich bis hin zu einem zunehmenden Verlust der wissenschaftlichen Selbststeuerungsmechanismen bemerkbar machen und einen veränderten Umgang mit dem generierten Wissensschatz erfordern. Nicht nur Änderungen in der Wissensordnung und -produktion stellen die Psychoanalyse vor neue Herausforderungen: In den letzten Jahrzehnten geriet sie als Wissenschaft und Behandlungsverfahren zunehmend in die Kritik und reagierte mit einer konstruktiven Diskussion um ein dem Forschungsgegenstand – die Untersuchung unbewusster Prozesse und Fantasien – adäquates psychoanalytisches Forschungsverständnis. Die Auseinandersetzung mit Forderungen gesellschaftlicher Geldgeber, politischer Vertreter und Interessensgruppen wie auch der wissenschaftlichen Community stellt die Psychoanalyse vor besondere Herausforderungen. Um wissenschaftsexternen wie -internen Gütekriterien zu genügen, ist häufig ein hoher personeller, materieller, finanzieller, methodischer wie organisatorischer Aufwand unabdingbar, wie das Beispiel des psychoanalytischen Forschungsinstitutes Sigmund-Freud-Institut zeigt. Der steigende Aufwand schlägt sich in einer zunehmenden Komplexität des Forschungsprozesses nieder, die unter anderem in den vielschichtigen Fragestellungen und Zielsetzungen, dem vermehrt interdisziplinären, vernetzten Charakter, dem Umgang mit dem umfangreichen, hochspezialisierten Wissen, der Methodenvielfalt, etc. begründet liegt. Um jener Komplexität des Forschungsprozesses gerecht zu werden, ist es zunehmend erforderlich, Wege des Wissensmanagement zu beschreiten. Tools wie z. B. Mapping-Verfahren stellen unterstützende Werkzeuge des Wissensmanagements dar, um den Herausforderungen des Forschungsprozesses zu begegnen. In der vorliegenden Arbeit werden zunächst die veränderten Forschungsbedingungen und ihre Auswirkungen auf die Komplexität des Forschungsprozesses - insbesondere auch des psychoanalytischen Forschungsprozesses - reflektiert. Die mit der wachsenden Komplexität einhergehenden Schwierigkeiten und Herausforderungen werden am Beispiel eines interdisziplinär ausgerichteten EU-Forschungsprojektes näher illustriert. Um dieser wachsenden Komplexität psychoanalytischer Forschung erfolgreich zu begegnen, wurden in verschiedenen Forschungsprojekten am Sigmund-Freud-Institut Wissensmanagement-Maßnahmen ergriffen. In der vorliegenden Arbeit wird daher in einem zweiten Teil zunächst auf theoretische Aspekte des Wissensmanagements eingegangen, die die Grundlage der eingesetzten Wissensmanagement-Instrumente bildeten. Dabei spielen insbesondere psychologische Aspekte des Wissensmanagements eine zentrale Rolle. Zudem werden die konkreten Wissensmanagement-Tools vorgestellt, die in den verschiedenen Forschungsprojekten zum Einsatz kamen, um der wachsenden Komplexität psychoanalytischer Forschung zu begegnen. Abschließend werden die Hauptthesen der vorliegenden Arbeit noch einmal reflektiert und die geschilderten Techniken des Wissensmanagements im Hinblick auf ihre Vor- und Nachteile kritisch diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the past decades since Schumpeter’s influential writings economists have pursued research to examine the role of innovation in certain industries on firm as well as on industry level. Researchers describe innovations as the main trigger of industry dynamics, while policy makers argue that research and education are directly linked to economic growth and welfare. Thus, research and education are an important objective of public policy. Firms and public research are regarded as the main actors which are relevant for the creation of new knowledge. This knowledge is finally brought to the market through innovations. What is more, policy makers support innovations. Both actors, i.e. policy makers and researchers, agree that innovation plays a central role but researchers still neglect the role that public policy plays in the field of industrial dynamics. Therefore, the main objective of this work is to learn more about the interdependencies of innovation, policy and public research in industrial dynamics. The overarching research question of this dissertation asks whether it is possible to analyze patterns of industry evolution – from evolution to co-evolution – based on empirical studies of the role of innovation, policy and public research in industrial dynamics. This work starts with a hypothesis-based investigation of traditional approaches of industrial dynamics. Namely, the testing of a basic assumption of the core models of industrial dynamics and the analysis of the evolutionary patterns – though with an industry which is driven by public policy as example. Subsequently it moves to a more explorative approach, investigating co-evolutionary processes. The underlying questions of the research include the following: Do large firms have an advantage because of their size which is attributable to cost spreading? Do firms that plan to grow have more innovations? What role does public policy play for the evolutionary patterns of an industry? Are the same evolutionary patterns observable as those described in the ILC theories? And is it possible to observe regional co-evolutionary processes of science, innovation and industry evolution? Based on two different empirical contexts – namely the laser and the photovoltaic industry – this dissertation tries to answer these questions and combines an evolutionary approach with a co-evolutionary approach. The first chapter starts with an introduction of the topic and the fields this dissertation is based on. The second chapter provides a new test of the Cohen and Klepper (1996) model of cost spreading, which explains the relationship between innovation, firm size and R&D, at the example of the photovoltaic industry in Germany. First, it is analyzed whether the cost spreading mechanism serves as an explanation for size advantages in this industry. This is related to the assumption that the incentives to invest in R&D increase with the ex-ante output. Furthermore, it is investigated whether firms that plan to grow will have more innovative activities. The results indicate that cost spreading serves as an explanation for size advantages in this industry and, furthermore, growth plans lead to higher amount of innovative activities. What is more, the role public policy plays for industry evolution is not finally analyzed in the field of industrial dynamics. In the case of Germany, the introduction of demand inducing policy instruments stimulated market and industry growth. While this policy immediately accelerated market volume, the effect on industry evolution is more ambiguous. Thus, chapter three analyzes this relationship by considering a model of industry evolution, where demand-inducing policies will be discussed as a possible trigger of development. The findings suggest that these instruments can take the same effect as a technical advance to foster the growth of an industry and its shakeout. The fourth chapter explores the regional co-evolution of firm population size, private-sector patenting and public research in the empirical context of German laser research and manufacturing over more than 40 years from the emergence of the industry to the mid-2000s. The qualitative as well as quantitative evidence is suggestive of a co-evolutionary process of mutual interdependence rather than a unidirectional effect of public research on private-sector activities. Chapter five concludes with a summary, the contribution of this work as well as the implications and an outlook of further possible research.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Since no physical system can ever be completely isolated from its environment, the study of open quantum systems is pivotal to reliably and accurately control complex quantum systems. In practice, reliability of the control field needs to be confirmed via certification of the target evolution while accuracy requires the derivation of high-fidelity control schemes in the presence of decoherence. In the first part of this thesis an algebraic framework is presented that allows to determine the minimal requirements on the unique characterisation of arbitrary unitary gates in open quantum systems, independent on the particular physical implementation of the employed quantum device. To this end, a set of theorems is devised that can be used to assess whether a given set of input states on a quantum channel is sufficient to judge whether a desired unitary gate is realised. This allows to determine the minimal input for such a task, which proves to be, quite remarkably, independent of system size. These results allow to elucidate the fundamental limits regarding certification and tomography of open quantum systems. The combination of these insights with state-of-the-art Monte Carlo process certification techniques permits a significant improvement of the scaling when certifying arbitrary unitary gates. This improvement is not only restricted to quantum information devices where the basic information carrier is the qubit but it also extends to systems where the fundamental informational entities can be of arbitary dimensionality, the so-called qudits. The second part of this thesis concerns the impact of these findings from the point of view of Optimal Control Theory (OCT). OCT for quantum systems utilises concepts from engineering such as feedback and optimisation to engineer constructive and destructive interferences in order to steer a physical process in a desired direction. It turns out that the aforementioned mathematical findings allow to deduce novel optimisation functionals that significantly reduce not only the required memory for numerical control algorithms but also the total CPU time required to obtain a certain fidelity for the optimised process. The thesis concludes by discussing two problems of fundamental interest in quantum information processing from the point of view of optimal control - the preparation of pure states and the implementation of unitary gates in open quantum systems. For both cases specific physical examples are considered: for the former the vibrational cooling of molecules via optical pumping and for the latter a superconducting phase qudit implementation. In particular, it is illustrated how features of the environment can be exploited to reach the desired targets.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der kundenindividuelle Anlagenbau (z. B. im Bereich Energie-, Kraftwerk- und Umwelttechnik) ist durch ein klassisches Projektgeschäft geprägt und erfordert ein individuelles Projektmanagement in Abhängigkeit von dem zu liefernden Produkt und den jeweiligen kunden- und projektindividuellen Rahmenbedingungen. So steht das Projektmanagement hier vor der Herausforderung, dass Anlagen in Form einer Baustellenfertigung als Unikate realisiert werden müssen, wobei die einzelnen Module häufig an unterschiedlichen Standorten gefertigt und dann unter Beachtung systemtechnischer, konstruktiver, lokaler, logistischer, energetischer, wetterbedingter, zeitlicher und finanzieller Randbedingungen beim Kunden montiert werden müssen. Zudem werden Projekterfahrungen selten über Projekte hinaus weitergereicht, d. h. es erfolgt nur bedingt eine Zusammenführung des Erfahrungswissens, das während der Projektrealisierung anwächst. Zur Risikovermeidung im Projektverlauf und zur Erreichung einer termingerechten Inbetriebnahme sind daher in Erweiterung zu den heutigen Projektmanagementwerkzeugen ergänzende Methoden zur Abschätzung von Projektunsicherheiten und zur Bewertung von Projektplänen, aber auch zur nachhaltige Nutzung von Projektwissen notwendig. Zur Verbesserung des logistikintegrierten Projektmanagements im kundenindividuellen Anlagenbau wurde daher eine Methodik zur projekt- und produktspezifischen Unterstützung des Projektmanagements entwickelt und anhand eines Demonstrators umgesetzt. Statt den Unsicherheiten im Projektverlauf mit zusätzlichen Pufferzeiten zu begegnen, bewertet jetzt eine mit Optimierungs-, Analyse- und Visualisierungsverfahren kombinierte Ablaufsimulation zufällige Einflüsse in den Plänen. Hierdurch wird eine Verbesserung des Risikomanagements in den Projekten erreicht, indem bestehende Unsicherheiten in den Planungsprozessen simuliert und reduziert werden. Um einen transparenten Projektmanagementprozess zu erhalten und auch Erfahrungswissen aus vorangegangenen Projekten einzubinden, lassen sich Referenzprojektpläne unter Berücksichtigung von Restriktionen nutzen, die durch das zu erstellende Produkt, die zu verwendenden Technologien, die zugrundeliegenden Prozesse oder die notwendigen logistischen Ressourcen bedingt sind. Die IT-Architektur der Plattform ist werkzeugneutral, so dass das entwickelte Konzept auf Branchen außerhalb des Anlagenbaus übertragbar ist. Dies haben Vertreter verschiedener Industrieunternehmen des Anlagenbaus aus den Bereichen der Umwelt- und Energietechnik, des Schiffbaus, der Automobilindustrie sowie dem OWL Maschinenbau e.V. bestätigt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neben der Verbreitung von gefährlichen Krankheiten sind Insekten für enorme agrarwirtschaftliche Schäden verantwortlich. Ein Großteil der Verhaltensweisen bei Insekten wird über den Geruchssinn gesteuert, der somit einen möglichen Angriffspunkt zur Bekämpfung von Schadinsekten darstellt. Hierzu ist es allerdings nötig, die Mechanismen der olfaktorischen Signalübertragung im Detail zu verstehen. Neben den duftstoffbindenden olfaktorischen Rezeptoren spielt hier auch ein konservierter Korezeptor (Orco) eine entscheidende Rolle. Inwieweit bei diesen Proteinen ionotrope bzw. metabotrope Prozesse involviert sind ist bislang nicht vollständig aufgeklärt. Um weitere Einzelheiten aufzuklären wurden daher Einzelsensillenableitungen am Tabakschwärmer Manduca sexta durchgeführt. Orco-Agonisten und Antagonisten wurden eingesetzt, um die Funktion des Korezeptors besser zu verstehen. Bei dem Einsatz des Orco-Agonisten VUAA1 konnte keine Verstärkung der Pheromonantworten bzw. eine Sensitivierung beobachtet werden, wie im Falle einer ionotropen Signalweiterleitung zu erwarten gewesen wäre. Ein ionotroper Signalweg über den OR/Orco-Komplex in M. sexta ist daher unwahrscheinlich. Der Orco-Antagonist OLC15 beeinflusste die gleichen Parameter wie VUAA1 und konnte die von VUAA1 generierte Spontanaktivität blocken. Daher ist es wahrscheinlich, dass dieser einen spezifischen Orco-Blocker darstellt. Sowohl VUAA1 als auch OLC15 hatten großen Effekt auf die langanhaltende Pheromonantwort, welches die Vermutung nahelegt, dass Orco modulierend auf die Sensitivität der Nervenzelle einwirkt. Von OLC15 abweichende Effekte durch die getesteten Amiloride HMA und MIA auf die Pheromonantwort lassen nicht auf eine spezifische Wirkung dieser Agenzien auf Orco schließen und zusätzliche Wirkorte sind anzunehmen. Um die These eines metabotropen Signalwegs zu überprüfen wurde ebenfalls der G-Protein-Blocker GDP-β-S eingesetzt. Alle Parameter der Pheromonantwort die innerhalb der ersten Millisekunden analysiert wurden wiesen eine Reduktion der Sensitivität auf. Im Gegensatz dazu hatte GDP-β-S keinen Effekt auf die langanhaltende Pheromonantwort. Somit scheint ausschließlich die schnelle Pheromonantwort über einen Ligand-bindenden G-Protein-gesteuerten Rezeptor gesteuert zu werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In den letzten Jahrzehnten haben sich makroskalige hydrologische Modelle als wichtige Werkzeuge etabliert um den Zustand der globalen erneuerbaren Süßwasserressourcen flächendeckend bewerten können. Sie werden heutzutage eingesetzt um eine große Bandbreite wissenschaftlicher Fragestellungen zu beantworten, insbesondere hinsichtlich der Auswirkungen anthropogener Einflüsse auf das natürliche Abflussregime oder der Auswirkungen des globalen Wandels und Klimawandels auf die Ressource Wasser. Diese Auswirkungen lassen sich durch verschiedenste wasserbezogene Kenngrößen abschätzen, wie z.B. erneuerbare (Grund-)Wasserressourcen, Hochwasserrisiko, Dürren, Wasserstress und Wasserknappheit. Die Weiterentwicklung makroskaliger hydrologischer Modelle wurde insbesondere durch stetig steigende Rechenkapazitäten begünstigt, aber auch durch die zunehmende Verfügbarkeit von Fernerkundungsdaten und abgeleiteten Datenprodukten, die genutzt werden können, um die Modelle anzutreiben und zu verbessern. Wie alle makro- bis globalskaligen Modellierungsansätze unterliegen makroskalige hydrologische Simulationen erheblichen Unsicherheiten, die (i) auf räumliche Eingabedatensätze, wie z.B. meteorologische Größen oder Landoberflächenparameter, und (ii) im Besonderen auf die (oftmals) vereinfachte Abbildung physikalischer Prozesse im Modell zurückzuführen sind. Angesichts dieser Unsicherheiten ist es unabdingbar, die tatsächliche Anwendbarkeit und Prognosefähigkeit der Modelle unter diversen klimatischen und physiographischen Bedingungen zu überprüfen. Bisher wurden die meisten Evaluierungsstudien jedoch lediglich in wenigen, großen Flusseinzugsgebieten durchgeführt oder fokussierten auf kontinentalen Wasserflüssen. Dies steht im Kontrast zu vielen Anwendungsstudien, deren Analysen und Aussagen auf simulierten Zustandsgrößen und Flüssen in deutlich feinerer räumlicher Auflösung (Gridzelle) basieren. Den Kern der Dissertation bildet eine umfangreiche Evaluierung der generellen Anwendbarkeit des globalen hydrologischen Modells WaterGAP3 für die Simulation von monatlichen Abflussregimen und Niedrig- und Hochwasserabflüssen auf Basis von mehr als 2400 Durchflussmessreihen für den Zeitraum 1958-2010. Die betrachteten Flusseinzugsgebiete repräsentieren ein breites Spektrum klimatischer und physiographischer Bedingungen, die Einzugsgebietsgröße reicht von 3000 bis zu mehreren Millionen Quadratkilometern. Die Modellevaluierung hat dabei zwei Zielsetzungen: Erstens soll die erzielte Modellgüte als Bezugswert dienen gegen den jegliche weiteren Modellverbesserungen verglichen werden können. Zweitens soll eine Methode zur diagnostischen Modellevaluierung entwickelt und getestet werden, die eindeutige Ansatzpunkte zur Modellverbesserung aufzeigen soll, falls die Modellgüte unzureichend ist. Hierzu werden komplementäre Modellgütemaße mit neun Gebietsparametern verknüpft, welche die klimatischen und physiographischen Bedingungen sowie den Grad anthropogener Beeinflussung in den einzelnen Einzugsgebieten quantifizieren. WaterGAP3 erzielt eine mittlere bis hohe Modellgüte für die Simulation von sowohl monatlichen Abflussregimen als auch Niedrig- und Hochwasserabflüssen, jedoch sind für alle betrachteten Modellgütemaße deutliche räumliche Muster erkennbar. Von den neun betrachteten Gebietseigenschaften weisen insbesondere der Ariditätsgrad und die mittlere Gebietsneigung einen starken Einfluss auf die Modellgüte auf. Das Modell tendiert zur Überschätzung des jährlichen Abflussvolumens mit steigender Aridität. Dieses Verhalten ist charakteristisch für makroskalige hydrologische Modelle und ist auf die unzureichende Abbildung von Prozessen der Abflussbildung und –konzentration in wasserlimitierten Gebieten zurückzuführen. In steilen Einzugsgebieten wird eine geringe Modellgüte hinsichtlich der Abbildung von monatlicher Abflussvariabilität und zeitlicher Dynamik festgestellt, die sich auch in der Güte der Niedrig- und Hochwassersimulation widerspiegelt. Diese Beobachtung weist auf notwendige Modellverbesserungen in Bezug auf (i) die Aufteilung des Gesamtabflusses in schnelle und verzögerte Abflusskomponente und (ii) die Berechnung der Fließgeschwindigkeit im Gerinne hin. Die im Rahmen der Dissertation entwickelte Methode zur diagnostischen Modellevaluierung durch Verknüpfung von komplementären Modellgütemaßen und Einzugsgebietseigenschaften wurde exemplarisch am Beispiel des WaterGAP3 Modells erprobt. Die Methode hat sich als effizientes Werkzeug erwiesen, um räumliche Muster in der Modellgüte zu erklären und Defizite in der Modellstruktur zu identifizieren. Die entwickelte Methode ist generell für jedes hydrologische Modell anwendbar. Sie ist jedoch insbesondere für makroskalige Modelle und multi-basin Studien relevant, da sie das Fehlen von feldspezifischen Kenntnissen und gezielten Messkampagnen, auf die üblicherweise in der Einzugsgebietsmodellierung zurückgegriffen wird, teilweise ausgleichen kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der täglich Wechsel von Hell- und Dunkelphasen führte während der Evolution zur Entwicklung innerer Uhren in nahezu allen Organismen. In der Schabe Rhyparobia maderae lokalisierten Läsions- und Transplantationsexperimente die innere Uhr in der akzessorischen Medulla (AME). Dieses kleine birnenförmige Neuropil am ventromedianen Rand der Medulla ist mit etwa 240 Neuronen assoziiert, die eine hohe Anzahl an zum Teil kolokalisierten Neuropeptiden und Neurotransmittern exprimieren. Diese Signalstoffe scheinen essentiell zu sein für die Synchronisation der inneren Uhr mit der Umwelt, der Kopplung der beiden bilateralen AME, der Aufrechterhaltung des circadianen Rhythmus sowie der zeitlichen Steuerung bestimmter Verhaltensweisen. Während die Funktion einiger dieser neuronalen Botenstoffe bereits gut untersucht ist, fehlt sie für andere. Zudem ist noch ungeklärt, wann einzelne Botenstoffe im circadianen Netzwerk agieren. Im Fokus dieser Studie lag daher die Erforschung der Funktion von SIFamide und Corazonin im circadianen Netzwerk sowie die weitere Untersuchung der Funktionen der Neuropeptide MIP und PDF. Es konnte gezeigt werden, dass SIFamide auch in R. maderae in vier großen neurosekretorischen Zellen in der pars intercerebralis exprimiert wird. Varikosenreiche SIFamide-immureaktive (-ir) Fasern innervieren eine Vielzahl an Neuropilen und finden sich auch in der Hüllregion der AME. Injektionsexperimente resultierten in einer monophasischen Phasen-Antwort-Kurve (PRC) mit einer Verzögerung zur frühen subjektiven Nacht. SIFamide ist also ein Eingangssignal für das circadiane Netzwerk und könnte in der Kontrolle der Schalf/Wach-Homöostase involviert sein. Auch Corazonin fungiert als Eingangssignal. Da die Injektionsexperimente in einer monophasischen PRC mit einem Phasenvorschub zur späten subjektiven Nacht resultierten, ist davon auszugehen, dass die Corazonin-ir AME-Zelle Bestandteil des Morning-Oszillator-Netzwerkes in R. maderae ist. Darüber hinaus zeigten Backfill-Experimente, dass MIP an der Kopplung beider AMAE beteiligt ist. ELISA-Quantifizierungen der PDF-Level im Tagesverlauf ergaben Schwankungen in der Konzentration, die auf eine Ausschüttung des Peptids während des Tages hindeuten – ähnlich wie es in Drosophila melanogaster der Fall ist. Dies spiegelt sich in der vervollständigten bimodalen PDF-PRC wieder. Hier führen Injektionen zu einem Phasenvorschub, bevor maximale Peptidlevel erreicht werden, sowie zu einer Phasenverzögerung, sobald die Peptidlevel wieder zu sinken beginnen. Die PRCs erlauben somit Rückschlüsse auf den Zeitpunkt der maximalen Peptidfreisetzung. PDF-ir Neuriten findet sich zudem in sämtlichen Ganglien des ventralen Strickleiternervensystems, was eine Funktion in der Kontrolle der Prozesse impliziert, die durch die Mustergeneratoren in Thorakal- und Abdominalganglien gesteuert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zusammenfassung: Prostaglandine (PG) sind wichtige biologische Entzündungsmediatoren, die aus der Arachidonsäure (AA) durch das Enzym Cyclooxygenase (COX) entstehen. Trotz einiger unerwünschter Wirkungen, sind Cyclooxygenase-Hemmer Mittel der Wahl zur Unterdrückung entzündlicher Prozesse. Von der Cyclooxygenase existieren zwei Isoenzyme: COX-1 und COX-2. Eine selektive Hemmung der COX-2 bzw. eine duale Hemmung der COX-1 und COX-2 wird als erfolgversprechendes Prinzip zur Behandlung von entzündlichen Erkrankungen diskutiert.Ziel der Arbeit war die Synthese und in vitro Testung sowie die Erstellung von Struktur-Wirkungs-Beziehungen selektiver bzw. dualer Hemmstoffe der COX-1/-2. Zusätzlich wurden die Substanzen auf inhibitorische Aktivität gegenüber der 5- und 12-Lipoxygenase untersucht.Ausgehend von der Struktur selektiver Hemmstoffe der COX-2 bzw. von dualen COX-1/ COX-2-Inhibitoren sowie von marktüblichen nichtsteroidalen Antirheumatika (NSAR), wurde das Diarylmethanon-Element als Basis gewählt. An diesem Strukturelement wurden Modifikationen vorgenommen, um selektive Hemmstoffe der COX-2 bzw. duale COX-1/ COX-2-Hemmstoffe zu erhalten.Die synthetisierten Verbindungen lassen sich in [4-(Methylsulfanyl)phenyl]- und [4-(Methylsulfonyl)phenyl](aryl)methanone, N-(Aroylphenyl)sulfonamide und -amide sowie (Hydroxyphenyl)(2-thienyl)methanone unterteilen.In der Reihe der [4-(Methylsulfanyl)phenyl](aryl)methanone sind potente Hemmstoffe sowohl der COX-1 als auch der COX-2 erhalten worden. Im Gegensatz dazu zeigen die [4-(Methylsulfonyl)phenyl](aryl)methanone gegenüber COX-1 und COX-2 keine inhibitorische Aktivität. Mit dem 2-Thienylderivat wurde ein potenter, dualer Hemmstoff beider Cyclooxygenase-Isoenzyme identifiziert, dessen Wirkstärke (bezüglich der COX-2) auf den Austausch von Phenyl gegen 2-Thienyl zurückzuführen ist.Die N-(Aroylphenyl)sulfonamide und -amide bilden die umfangreichste Gruppe bei den durchgeführten Untersuchungen, wobei besonders die regioisomeren N-(2-Aroylphenyl)sulfonamide und -amide eingehender studiert wurden. Auf der Basis der (2-Aroylphenyl)sulfonamide läßt sich für die Hemmung der COX-1 eine Struktur-Wirkungs-Beziehungen formulieren, die anhand Hilfe geeigneter Verbindungen überprüft wurde. Die Untersuchungen wurden zum Teil auch auf die 3- und 4-Regioisomeren ausgedehnt, wobei sich die erhaltenen Struktur-Wirkungs-Beziehungen bestätigten. Die Arylsulfonamide inhibieren bevorzugt die COX-1. Auch (4-Aroylphenyl)sulfonamide wurden auf mögliche inhibitorische Aktivität untersucht. Die Einbindung des Amidstickstoffs in ein Indolin- bzw. Tetrahydrochinolin-Ringsystem oder des Sulfonamids in ein 1,3-Propansultam führte in jedem Falle zu wenig aktiven Verbindungen gegenüber der COX-1. N-(2-Aroylphenyl)amide zeigten in Übereinstimmung mit der Hypothese an der COX-1 eine gute inhibitorische Aktivität.Aus der Reihe der (Hydroxyphenyl)(2-thienyl)methanone wurden die freien Alkohole, die Methylether und verschiedene Ester dargestellt und auf COX-1-Aktivität untersucht. Acetate, aber auch Phenole sind die potentesten Inhibitoren der COX-1. Als günstigte Positionen für die 2-Thienylcarbonyl-Einheit am Hydroxyphenylrest erweist sich die ortho- bzw. para-Position.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Nichtlineare Zeitreihenanalyse konnte in den letzten Jahren im Rahmen von Laborexperimenten ihre prinzipelle Brauchbarkeit beweisen. Allerdings handelte es sich in der Regel um ausgewählte oder speziell konstruierte nichtlineare Systeme. Sieht man einmal von der Überwachung von Prozessen und Produkten ab, so sind Anwendungen auf konkrete, vorgegebene dynamische Probleme im industriellen Bereich kaum bekannt geworden. Ziel dieser Arbeit war es, an Hand von zwei Problemen aus der technischen Praxis zu untersuchen, ob die Anwendung des kanonischen Schemas der Nichtlinearen Zeitreihenanalyse auch dort zu brauchbaren Resultaten führt oder ob Modifikationen (Vereinfachungen oder Erweiterungen) notwendig werden. Am Beispiel der Herstellung von optischen Oberflächen durch Hochpräzisionsdrehbearbeitung konnte gezeigt werden, daß eine aktive Störungskompensation in Echtzeit mit einem speziell entwickelten nichtlinearen Vorhersagealgorithmus möglich ist. Standardverfahren der Nichtlinearen Zeitreihenanalyse beschreiten hier den allgemeinen, aber sehr aufwendigen Weg über eine möglichst vollständige Phasenraumrekonstruktion. Das neue Verfahren verzichtet auf viele der kanonischen Zwischenschritte. Dies führt zu einererheblichen Rechenzeitersparnis und zusätzlich zu einer wesentlich höheren Stabilität gegenüber additivem Meßrauschen. Mit den berechneten Vorhersagen der unerwünschten Maschinenschwingungen wurde eine Störungskompensation realisiert, die die Oberflächengüte des bearbeiteten Werkstücks um 20-30% verbesserte. Das zweite Beispiel betrifft die Klassifikation von Körperschallsignalen, die zur Überwachung von Zerspansprozessen gemessen werden. Diese Signale zeigen, wie auch viele andere Prozesse im Bereich der Produktion, ein hochgradig nichtstationäres Verhalten. Hier versagen die Standardverfahren der Nichtlinearen Datenanalyse, die FT- bzw. AAFT-Surrogate benutzen. Daher wurde eine neue Klasse von Surrogatdaten zum Testen der Nullhypothese nichtstationärer linearer stochastischer Prozesse entwickelt, die in der Lage ist, zwischen deterministischen nichtlinear chaotischen und stochastischen linearen nichtstationären Zeitreihen mit change points zu unterscheiden. Damit konnte gezeigt werden, daß die untersuchten Köperschallsignale sich statistisch signifikant einer nichtstationären stochastischen Folge von einfachen linearen Prozessen zuordnen lassen und eine Interpretation als nichtlineare chaotische Zeitreihe nicht erforderlich ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Poröse Medien spielen in der Hydrosphäre eine wesentliche Rolle bei der Strömung und beim Transport von Stoffen. In diesem Raum finden komplexe Prozesse statt: Advektion, Kon-vektion, Diffusion, hydromechanische Dispersion, Sorption, Komplexierung, Ionenaustausch und Abbau. Die strömungsmechanischen- und die Transportverhältnisse in porösen Medien werden direkt durch die Geometrie des Porenraumes selbst und durch die Eigenschaften der transportierten (oder strömenden) Medien bestimmt. In der Praxis wird eine Vielzahl von empirischen Modellen verwendet, die die Eigenschaften des porösen Mediums in repräsentativen Elementarvolumen wiedergeben. Die Ermittlung der in empirischen Modellen verwendeten Materialparameter erfolgt über Labor- oder Feldbestimmungsmethoden. Im Rahmen dieser Arbeit wurde das Computer-modell PoreFlow entwickelt, welches die hydraulischen Eigenschaften eines korngestützten porösen Mediums aus der mikroskopischen Modellierung des Fluidflusses und Transportes ableitet. Das poröse Modellmedium wird durch ein dreidimensionales Kugelpackungsmodell, zusam-mengesetzt aus einer beliebigen Kornverteilung, dargestellt. Im Modellporenraum wird die Strömung eines Fluids basierend auf einer stationären Lösung der Navier-Stokes-Gleichung simuliert. Die Ergebnisse der Modellsimulationen an verschiedenen Modellmedien werden mit den Ergebnissen von Säulenversuchen verglichen. Es zeigt sich eine deutliche Abhängigkeit der Strömungs- und Transportparameter von der Porenraumgeometrie sowohl in den Modell-simulationen als auch in den Säulenexperimenten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Verstaendnis der in der Atmosphaere stattfindendenOzonproduktions- und Ozonabbaumechanismen ist eines derwichtigsten Ziele der aktuellen Umweltforschung. Da Ozon inder Atmosphaere ausschliesslich durch photochemischeProzesse gebildet wird, ist die Kenntnis der aktinischenStrahlung eine grundlegende Voraussetzung fuer die Prognosevon Ozonkonzentrationen. Die vorliegende Arbeit befasst sichdaher mit der Modellierung der aktinischen Strahlung alsBasis zur Untersuchung photochemischer Prozesse. Dazu wurde eine Modellhierarchie entwickelt, welcheausgehend von der Berechnung der optischen Eigenschaften deratmosphaerischen Extingenten den Strahlungstransport in derAtmosphaere bestimmt. Dazu wurden verschiedeneStrahlungstransportmodelle verwendet, welche sich durch dieLoesungsmethode der Strahlungstransportgleichung und dieAnzahl der raeumlichen Dimensionen unterscheiden. Zur Ueberpruefung der entwickelten Modellhierarchie und zurUntersuchung des Einflusses der verschiedenen Extingentenauf das atmosphaerische Strahlungsfeld wurden zahlreicheSensitivitaetsstudien durchgefuehrt. Dabei zeigte sich, dasssich der Einfluss von Ozon fast ausschliesslich auf denAnteil der Strahlung mit Wellenlaengen kleiner 340 nmauswirkt. Bei der Untersuchung des Einflusses vonAerosolpartikeln und Wolkentropfen auf die aktinischeStrahlung wurde festgestellt, dass die chemischeZusammensetzung, das Vertikalprofil, die Groesse und dieGroessenverteilung der Partikel einen entscheidendenEinfluss nehmen. Eine Evaluierung des 1-dimensionalenStrahlungstransportmodells an Hand von Vergleichen mit denErgebnissen anderen Strahlungstransportmodelle undverschiedenen Messungen ergab, dass die entwickelteModellhierarchie sehr zuverlaessige Resultate liefert. Die Effekte durchbrochener Bewoelkung konnten mit einer2-dimensionalen Simulation untersucht werden. DieUntersuchungen zeigen, dass die haeufig durchgefuehrteapproximative Betrachtung von partieller Bewoelkung mit1-dimensionalen Strahlungstransportmodellen im Vergleich zuden Ergebnissen der 2-dimensionalen Simulation grosse Fehlerverursacht, da die Effekte an den seitlichen Wolkenraendernvon den 1-dimensionalen Strahlungstransportmodellen nichtberuecksichtigt werden koennen.