154 resultados para Biografische Methode
Resumo:
Es soll im Folgenden nicht darum gehen, eine neue Methode zu kreieren, eine Bindestrich-Methode wie etwa "psychoanalytische Organisationsberatung" oder dergleichen. Vielmehr gehen wir davon aus, dass jeder Berater, der als Externer mit einer Organisation in Kontakt kommt auf Neues und damit Unbekanntes stößt. Wir machen dabei immer wieder die schmerzhafte Erfahrung, nicht zu durchschauen, nicht zu wissen, d.h. unsicher zu sein über die eigene Rolle und Identität. Die Realität von Institutionen erleben wir als unüberschaubar komplex. Damit ist eine Gefahr verbunden, denn der Organisationsberater selbst bewegt sich in der Unbewusstheit der Institution. Er selbst ist Produkt dieses Prozesses. Mit diesem Neuen und Unbekannten kann man in zweierlei Hinsicht umgehen: Entweder man versucht sich an vorherigen Erfahrungen zu orientieren und subsumiert das Neue unter das Alte, oder man nimmt das Neue bewusst wahr und lässt sich verunsichern, um die Irritationen produktiv im Sinne eines diagnostischen Erkenntnisinteresses zu nutzen. In diesem Sinne geht es nicht um eine Methode, sondern um eine Haltung, die mit anderen methodischen Grundorientierungen durchaus kompatibel sein kann. Im folgenden greifen wir auf unsere Vorarbeiten zu dem Thema "Supervision als praktische Ethnopsychoanalyse" (Pühl 1992, 1998, Möller 1997) zurück und vervollständigen diesen Ansatz um den Kulturbegriff, der der Ethnopsychoanalyse immanent ist.
Resumo:
Zusammenfassung - Der sekundäre Botenstoff zyklisches Adenosinmonophosphat (cAMP) reguliert viele fundamentale zelluläre Prozesse wie Zellproliferation, Differenzierung, Energiemetabolismus und Genexpression. In eukaryotischen Zellen vermittelt die cAMP-abhängige Proteinkinase (PKA) die meisten biologischen Funktionen von cAMP. Die PKA besteht aus jeweils zwei regulatorischen (R) und katalytischen (C) Untereinheiten, die zusammen einen inaktiven Holoenzymkomplex bilden, der durch cAMP aktiviert wird. In dieser Arbeit wurde die Bindung von cAMP und cAMP-Analoga an die R Untereinheit der PKA unter funktionellen und mechanistischen Aspekten untersucht. Eine neue, auf Fluoreszenzpolarisation basierende Methode wurde entwickelt, um die Affinität von cAMP-Analoga in einem homogenen Ansatz schnell, reproduzierbar und nicht radioaktiv zu quantifizieren. Zur detaillierten Untersuchung des Bindungsmechanismus von cAMP und cAMP Analoga (Agonisten und Antagonisten) wurden thermodynamische Studien im direkten Vergleich mittels isothermaler Titrationskalorimetrie und kinetischen Analysen (Oberflächenplasmonresonanz, SPR) durchgeführt, wodurch thermodynamische Signaturen für das Bindungsverhalten der Nukleotide an die R Untereinheit der PKA erhalten werden konnten. Durch Interaktionsstudien an mutagenisierten R Untereinheiten wurde der intramolekulare Aktivierungsmechanismus der PKA in Bezug auf cAMP-Bindung, Holoenzymkomplex-Formierung und -Aktivierung untersucht. Die dabei erhaltenen Ergebnisse wurden mit zwei Modellen der cAMP-induzierten Konformationsänderung verglichen, und ein Aktivierungsmechanismus postuliert, der auf konservierten hydrophoben Aminosäuren basiert. Für in vivo Untersuchungen wurden zusammen mit Kooperationspartnern membranpermeable, fluoreszierende cAMP Analoga entwickelt, die Einblicke in die Dynamik der cAMP-Verteilung in Zellen erlauben. Neu entwickelte, Festphasen gebundene cAMP-Analoga (Agonisten und Antagonisten) wurden in einem (sub)proteomischen Ansatz dazu genutzt, natürliche Komplexe der R Untereinheit und des PKA-Holoenzyms aus Zelllysaten zu isolieren und zu identifizieren. Diese Untersuchungen fließen letztlich in einem systembiologischen Ansatz zusammen, der neue Einblicke in die vielschichtigen cAMP gesteuerten Netzwerke und Regulationsprozesse erlaubt.
Resumo:
In dieser Arbeit wird ein modulares Agentensystem entworfen und auf einer marktüblichen PC-basierten SPS-Steuerung implementiert, welches in der Lage ist, den logistischen Anlagenteil eines Hybriden Prozessmodells abhängig von einem dynamischen Energiepreis zu steuern. Dies wird durch die Rekonfiguration und energetische Optimierung der Funktionen einzelner Module auf Grundlage eines Umweltmodells durch Softwareagenten erreicht. Dieses Umweltmodell wird zunächst in verschiedenen Diagrammen der objektorientierten Modellierungssprachen UML und SysML modelliert. Hierfür werden im Rahmen dieser Arbeit dazu notwendige Erweiterungen des Timing-Diagramms der UML entworfen. Das Agentensystem wird mit der Methode Gaia entworfen. Durch das in dieser Methode enthaltene Rollenkonzept werden Möglichkeiten zur Wiederverwendung von Teilen des Entwurfs auch innerhalb von anderen Arbeiten ermöglicht. Die Echtzeitanforderungen, welche sich an die Steuerungssoftware des logistischen Prozesses ergeben, können bei dem Entwurf durch Gaia modelliert werden. Das im Vorgehen nach Gaia enthaltene Bekanntschaftsmodell wird um die Darstellung weiterer wichtiger Informationen erweitert.
Resumo:
Die vorliegende Arbeit befasst sich mit den Fehlern, die bei der Berechnung von Tragstrukturen auftreten können, dem Diskretisierungs- und dem Modellfehler. Ein zentrales Werkzeug für die Betrachtung des lokalen Fehlers in einer FE-Berechnung sind die Greenschen Funktionen, die auch in anderen Bereichen der Statik, wie man zeigen kann, eine tragende Rolle spielen. Um den richtigen Einsatz der Greenschen Funktion mit der FE-Technik sicherzustellen, werden deren Eigenschaften und die konsistente Generierung aufgezeigt. Mit dem vorgestellten Verfahren, der Lagrange-Methode, wird es möglich auch für nichtlineare Probleme eine Greensche Funktion zu ermitteln. Eine logische Konsequenz aus diesen Betrachtungen ist die Verbesserung der Einflussfunktion durch Verwendung von Grundlösungen. Die Greensche Funktion wird dabei in die Grundlösung und einen regulären Anteil, welcher mittels FE-Technik bestimmt wird, aufgespalten. Mit dieser Methode, hier angewandt auf die Kirchhoff-Platte, erhält man deutlich genauere Ergebnisse als mit der FE-Methode bei einem vergleichbaren Rechenaufwand, wie die numerischen Untersuchungen zeigen. Die Lagrange-Methode bietet einen generellen Zugang zur zweiten Fehlerart, dem Modellfehler, und kann für lineare und nichtlineare Probleme angewandt werden. Auch hierbei übernimmt die Greensche Funktion wieder eine tragende Rolle, um die Auswirkungen von Parameteränderungen auf ausgewählte Zielgrößen betrachten zu können.
Resumo:
In der funktionellen Proteomforschung werden bekannte Interaktionen eines zellulären Netzwerkes qualitativ untersucht. Diese Veröffentlichung beschreibt verschiedene biomolekulare Interaktionsanalysen, anhand des Modellsystems PKA, die zur detaillierten Charakterisierung von Bindungen herangezogen werden können. Neben den Gleichgewichtsbindungsdaten (generiert aus AlphaScreen, FP, SPR und ITC Messungen) wurden aus ITC Messungen die thermodynamischen Parameter G, H und S ermittelt. Durch Anwendung der BRET2 (Bioluminescence resonance energy transfer) Methode konnten in lebenden Zellen Aussagen über Bindungsereignisse und deren Lokalisation getroffen werden.
Resumo:
Relativistic density functional theory is widely applied in molecular calculations with heavy atoms, where relativistic and correlation effects are on the same footing. Variational stability of the Dirac Hamiltonian is a very important field of research from the beginning of relativistic molecular calculations on, among efforts for accuracy, efficiency, and density functional formulation, etc. Approximations of one- or two-component methods and searching for suitable basis sets are two major means for good projection power against the negative continuum. The minimax two-component spinor linear combination of atomic orbitals (LCAO) is applied in the present work for both light and super-heavy one-electron systems, providing good approximations in the whole energy spectrum, being close to the benchmark minimax finite element method (FEM) values and without spurious and contaminated states, in contrast to the presence of these artifacts in the traditional four-component spinor LCAO. The variational stability assures that minimax LCAO is bounded from below. New balanced basis sets, kinetic and potential defect balanced (TVDB), following the minimax idea, are applied with the Dirac Hamiltonian. Its performance in the same super-heavy one-electron quasi-molecules shows also very good projection capability against variational collapse, as the minimax LCAO is taken as the best projection to compare with. The TVDB method has twice as many basis coefficients as four-component spinor LCAO, which becomes now linear and overcomes the disadvantage of great time-consumption in the minimax method. The calculation with both the TVDB method and the traditional LCAO method for the dimers with elements in group 11 of the periodic table investigates their difference. New bigger basis sets are constructed than in previous research, achieving high accuracy within the functionals involved. Their difference in total energy is much smaller than the basis incompleteness error, showing that the traditional four-spinor LCAO keeps enough projection power from the numerical atomic orbitals and is suitable in research on relativistic quantum chemistry. In scattering investigations for the same comparison purpose, the failure of the traditional LCAO method of providing a stable spectrum with increasing size of basis sets is contrasted to the TVDB method, which contains no spurious states already without pre-orthogonalization of basis sets. Keeping the same conditions including the accuracy of matrix elements shows that the variational instability prevails over the linear dependence of the basis sets. The success of the TVDB method manifests its capability not only in relativistic quantum chemistry but also for scattering and under the influence of strong external electronic and magnetic fields. The good accuracy in total energy with large basis sets and the good projection property encourage wider research on different molecules, with better functionals, and on small effects.
Resumo:
In dieser Arbeit werden nichtüberlappende Gebietszerlegungsmethoden einerseits hinsichtlich der zu lösenden Problemklassen verallgemeinert und andererseits in bisher nicht untersuchten Kontexten betrachtet. Dabei stehen funktionalanalytische Untersuchungen zur Wohldefiniertheit, eindeutigen Lösbarkeit und Konvergenz im Vordergrund. Im ersten Teil werden lineare elliptische Dirichlet-Randwertprobleme behandelt, wobei neben Problemen mit dominantem Hauptteil auch solche mit singulärer Störung desselben, wie konvektions- oder reaktionsdominante Probleme zugelassen sind. Der zweite Teil befasst sich mit (gleichmäßig) monotonen koerziven quasilinearen elliptischen Dirichlet-Randwertproblemen. In beiden Fällen wird das Lipschitz-Gebiet in endlich viele Lipschitz-Teilgebiete zerlegt, wobei insbesondere Kreuzungspunkte und Teilgebiete ohne Außenrand zugelassen sind. Anschließend werden Transmissionsprobleme mit frei wählbaren $L^{\infty}$-Parameterfunktionen hergeleitet, wobei die Konormalenableitungen als Funktionale auf geeigneten Funktionenräumen über den Teilrändern ($H_{00}^{1/2}(\Gamma)$) interpretiert werden. Die iterative Lösung dieser Transmissionsprobleme mit einem Ansatz von Deng führt auf eine Substrukturierungsmethode mit Robin-artigen Transmissionsbedingungen, bei der eine Auswertung der Konormalenableitungen aufgrund einer geschickten Aufdatierung der Robin-Daten nicht notwendig ist (insbesondere ist die bekannte Robin-Robin-Methode von Lions als Spezialfall enthalten). Die Konvergenz bezüglich einer partitionierten $H^1$-Norm wird für beide Problemklassen gezeigt. Dabei werden keine über $H^1$ hinausgehende Regularitätsforderungen an die Lösungen gestellt und die Gebiete müssen keine zusätzlichen Glattheitsvoraussetzungen erfüllen. Im letzten Kapitel werden nichtmonotone koerzive quasilineare Probleme untersucht, wobei das Zugrunde liegende Gebiet nur in zwei Lipschitz-Teilgebiete zerlegt sein soll. Das zugehörige nichtlineare Transmissionsproblem wird durch Kirchhoff-Transformation in lineare Teilprobleme mit nichtlinearen Kopplungsbedingungen überführt. Ein optimierungsbasierter Lösungsansatz, welcher einen geeigneten Abstand der rücktransformierten Dirichlet-Daten der linearen Teilprobleme auf den Teilrändern minimiert, führt auf ein optimales Kontrollproblem. Die dabei entstehenden regularisierten freien Minimierungsprobleme werden mit Hilfe eines Gradientenverfahrens unter minimalen Glattheitsforderungen an die Nichtlinearitäten gelöst. Unter zusätzlichen Glattheitsvoraussetzungen an die Nichtlinearitäten und weiteren technischen Voraussetzungen an die Lösung des quasilinearen Ausgangsproblems, kann zudem die quadratische Konvergenz des Newton-Verfahrens gesichert werden.
Resumo:
The 21st century has brought new challenges for forest management at a time when globalization in world trade is increasing and global climate change is becoming increasingly apparent. In addition to various goods and services like food, feed, timber or biofuels being provided to humans, forest ecosystems are a large store of terrestrial carbon and account for a major part of the carbon exchange between the atmosphere and the land surface. Depending on the stage of the ecosystems and/or management regimes, forests can be either sinks, or sources of carbon. At the global scale, rapid economic development and a growing world population have raised much concern over the use of natural resources, especially forest resources. The challenging question is how can the global demands for forest commodities be satisfied in an increasingly globalised economy, and where could they potentially be produced? For this purpose, wood demand estimates need to be integrated in a framework, which is able to adequately handle the competition for land between major land-use options such as residential land or agricultural land. This thesis is organised in accordance with the requirements to integrate the simulation of forest changes based on wood extraction in an existing framework for global land-use modelling called LandSHIFT. Accordingly, the following neuralgic points for research have been identified: (1) a review of existing global-scale economic forest sector models (2) simulation of global wood production under selected scenarios (3) simulation of global vegetation carbon yields and (4) the implementation of a land-use allocation procedure to simulate the impact of wood extraction on forest land-cover. Modelling the spatial dynamics of forests on the global scale requires two important inputs: (1) simulated long-term wood demand data to determine future roundwood harvests in each country and (2) the changes in the spatial distribution of woody biomass stocks to determine how much of the resource is available to satisfy the simulated wood demands. First, three global timber market models are reviewed and compared in order to select a suitable economic model to generate wood demand scenario data for the forest sector in LandSHIFT. The comparison indicates that the ‘Global Forest Products Model’ (GFPM) is most suitable for obtaining projections on future roundwood harvests for further study with the LandSHIFT forest sector. Accordingly, the GFPM is adapted and applied to simulate wood demands for the global forestry sector conditional on selected scenarios from the Millennium Ecosystem Assessment and the Global Environmental Outlook until 2050. Secondly, the Lund-Potsdam-Jena (LPJ) dynamic global vegetation model is utilized to simulate the change in potential vegetation carbon stocks for the forested locations in LandSHIFT. The LPJ data is used in collaboration with spatially explicit forest inventory data on aboveground biomass to allocate the demands for raw forest products and identify locations of deforestation. Using the previous results as an input, a methodology to simulate the spatial dynamics of forests based on wood extraction is developed within the LandSHIFT framework. The land-use allocation procedure specified in the module translates the country level demands for forest products into woody biomass requirements for forest areas, and allocates these on a five arc minute grid. In a first version, the model assumes only actual conditions through the entire study period and does not explicitly address forest age structure. Although the module is in a very preliminary stage of development, it already captures the effects of important drivers of land-use change like cropland and urban expansion. As a first plausibility test, the module performance is tested under three forest management scenarios. The module succeeds in responding to changing inputs in an expected and consistent manner. The entire methodology is applied in an exemplary scenario analysis for India. A couple of future research priorities need to be addressed, particularly the incorporation of plantation establishments; issue of age structure dynamics; as well as the implementation of a new technology change factor in the GFPM which can allow the specification of substituting raw wood products (especially fuelwood) by other non-wood products.
Resumo:
Im Rahmen dieser Dissertation wurden die Dynamik und die Kommunikation innerhalb der mikrobiellen Population der Rhizosphäre von Deutschem Weidelgras (Lolium perenne) untersucht, welches auf einer teilweise rekultivierten Rückstandshalde der Kaliindustrie wuchs. Um die niederschlagsbedingte Auswaschung von Salzen zu reduzieren, wird die Rückstandshalde des Kaliwerks Sigmundshall (in Bokeloh bei Hannover) schrittweise mit dem technogenen Abdecksubstrat REKAL/SAV ummantelt. Dieses weist eine hohe Standfestigkeit und Wasserspeicherkapazität auf und kann zudem begrünt werden, wofür als Pionierpflanze Lolium perenne dient. Durch diese Rekultivierung wird Niederschlag besser gespeichert und über Evapotranspiration wieder in die Luft abgegeben, was letztendlich die Bildung von Salzwasser vermindert. Da das Abdecksubstrat neben alkalischem pH-Wert auch teilweise hohe Schwermetallkonzentrationen aufweist, sollte in der vorliegenden Arbeit erstmals die mikrobielle Rhizosphären-Gemeinschaft in diesem extremen Habitat mittels einer kulturunabhängigen Methode erforscht werden. Zudem wurden erste Untersuchungen angestellt, ob im Substrat die zelldichte-abhängige bakterielle Kommunikation (Quorum Sensing) nachgewiesen werden kann. Mittels extrahierter Gesamt-DNA wurde anhand der 16S rDNA die Analyse des „Terminalen Restriktonsfragmentlängenpolymorphismus“ (TRFLP) verwendet, um die komplexe bakterielle Rhizosphären-Gemeinschaft unter zeitlichen und lokalen Aspekten zu vergleichen. Auftretende Veränderungen bei den bakteriellen Populationen der jeweiligen Proben wurden durch eine Zu- oder Abnahme der auch als Ribotypen bezeichneten terminalen Restriktionsfragmente (TRF) erfasst. Hierbei zeigten sich am Südhang der Halde während der Sommermonate der Jahre 2008 und 2009 zwar Schwankungen in den bakteriellen Gemeinschaftsprofilen, es lagen jedoch keine eindeutigen Dynamiken vor. Im Vergleich zum Südhang der Halde wies der Nordhang eine höhere Ribotyp-Diversität auf, was mit der fortgeschritteneren Rekultivierung dieses Haldenabschnitts zusammenhängen könnte. Zusätzlich wurden Bakterien aus der Rhizosphäre von Lolium perenne isoliert und mithilfe der Biosensoren Agrobacterium tumefaciens A136 pCF218 pCF372 und Chromobacterium violaceum CV026 auf die Produktion von N-Acylhomoserinlactonen (AHLs) überprüft. Diese AHLs werden von Gram-negativen Mikroorganismen als Signalmoleküle verwendet, um ihre Genexpression zelldichteabhängig zu kontrollieren. Von den 47 getesteten Gram-negativen Rhizosphärenisolaten konnten nur bei einem reproduzierbar AHL-Moleküle mithilfe des Reporterstamms A. tumefaciens nachgewiesen werden. Der AHL-Produzent wurde als Pseudomonas fluorescens identifiziert. Mittels dünnschichtchromatographischer Analysen konnten die extrahierten bakteriellen AHL-Moleküle den N-Octanoyl-L-homoserinlactonen zugeordnet werden.
Resumo:
Land use has become a force of global importance, considering that 34% of the Earth’s ice-free surface was covered by croplands or pastures in 2000. The expected increase in global human population together with eminent climate change and associated search for energy sources other than fossil fuels can, through land-use and land-cover changes (LUCC), increase the pressure on nature’s resources, further degrade ecosystem services, and disrupt other planetary systems of key importance to humanity. This thesis presents four modeling studies on the interplay between LUCC, increased production of biofuels and climate change in four selected world regions. In the first study case two new crop types (sugarcane and jatropha) are parameterized in the LPJ for managed Lands dynamic global vegetation model for calculation of their potential productivity. Country-wide spatial variation in the yields of sugarcane and jatropha incurs into substantially different land requirements to meet the biofuel production targets for 2015 in Brazil and India, depending on the location of plantations. Particularly the average land requirements for jatropha in India are considerably higher than previously estimated. These findings indicate that crop zoning is important to avoid excessive LUCC. In the second study case the LandSHIFT model of land-use and land-cover changes is combined with life cycle assessments to investigate the occurrence and extent of biofuel-driven indirect land-use changes (ILUC) in Brazil by 2020. The results show that Brazilian biofuels can indeed cause considerable ILUC, especially by pushing the rangeland frontier into the Amazonian forests. The carbon debt caused by such ILUC would result in no carbon savings (from using plant-based ethanol and biodiesel instead of fossil fuels) before 44 years for sugarcane ethanol and 246 years for soybean biodiesel. The intensification of livestock grazing could avoid such ILUC. We argue that such an intensification of livestock should be supported by the Brazilian biofuel sector, based on the sector’s own interest in minimizing carbon emissions. In the third study there is the development of a new method for crop allocation in LandSHIFT, as influenced by the occurrence and capacity of specific infrastructure units. The method is exemplarily applied in a first assessment of the potential availability of land for biogas production in Germany. The results indicate that Germany has enough land to fulfill virtually all (90 to 98%) its current biogas plant capacity with only cultivated feedstocks. Biogas plants located in South and Southwestern (North and Northeastern) Germany might face more (less) difficulties to fulfill their capacities with cultivated feedstocks, considering that feedstock transport distance to plants is a crucial issue for biogas production. In the fourth study an adapted version of LandSHIFT is used to assess the impacts of contrasting scenarios of climate change and conservation targets on land use in the Brazilian Amazon. Model results show that severe climate change in some regions by 2050 can shift the deforestation frontier to areas that would experience low levels of human intervention under mild climate change (such as the western Amazon forests or parts of the Cerrado savannas). Halting deforestation of the Amazon and of the Brazilian Cerrado would require either a reduction in the production of meat or an intensification of livestock grazing in the region. Such findings point out the need for an integrated/multicisciplinary plan for adaptation to climate change in the Amazon. The overall conclusions of this thesis are that (i) biofuels must be analyzed and planned carefully in order to effectively reduce carbon emissions; (ii) climate change can have considerable impacts on the location and extent of LUCC; and (iii) intensification of grazing livestock represents a promising venue for minimizing the impacts of future land-use and land-cover changes in Brazil.
Resumo:
Die spektrale Zusammensetzung von Licht ändert sich, wenn es mit gasförmiger, flüssiger oder fester Materie d.h. mit Ionen, Atomen, Molekülen, Atom- und Molekülverbänden und amorphen oder kristallinen Festkörpern interagiert. Spektroskopische Messungen des Lichts nach der Wechselwirkung geben Aufschluss über die Eigenschaften der zu untersuchenden Materie [2]. Viele der heute noch nicht realisierbaren Ideen und Konzepte in den verschiedensten Anwendungsfeldern der Sensorik benötigen aber für ihre Umsetzung extrem miniaturisierte Spektrometer als Kernbestandteil der Sensoren. Ziel ist es jedoch nicht, dem Anwender dieser Sensoren Informationen über das Spektrum zu liefern, sondern die ausgewerteten spektralen Information als Indikator zum Handeln zu nutzen. Derartige intelligente Sensoren werden in Zukunft unter anderem dazu beitragen intelligente persönliche Umgebungen (engl.: smart rooms, smart buildings, smart cities, samrt personal environments) zu entwerfen und zu realisieren. Grundvoraussetzung für die Erschließung der verschiedenen Anwendungsgebiete sind Spektrometer, die die Anforderungen an niedrige Kosten, hohe Stückzahlen sowie geringe Größe und geringes Gewicht besser als verfügbare Hochleistungsgitter-Spektrometer erfüllen, die zwar bereits in den Bereich weniger Zentimeter miniaturisiert wurden, aber immer noch makroskopisch sind. Ziel dieser Arbeit ist es, zu zeigen, dass es möglich ist, ein Fabry-Pérot Filterfeld herzustellen, welches später den Kern eines Nanospektrometers darstellen soll, bei dem die unterschiedlichen Kavitäten in einem einzigen Schritt mithilfe der Nanoimprint-Technologie erzeugt werden. Angesichts des Forschungsdefizits hinsichtlich der Nutzung der Nanoimprint-Technologie zur Fertigung von in ihrer Höhe exakten Strukturen werden in der vorliegenden Arbeit zwei Nanoimprint-Technologien untersucht: Das Heißprägen und das UV-Prägen. Das Ergebnis dieser Arbeit ist ein Fabry-Pérot Filterfeld, welches mittels geeigneter Nanoimprint-Technologie hergestellt wurde und demonstriert, dass ein Nanospektrometer auf der Basis eines Feldes von Filtern technisch realisierbar ist. Dazu werden im praktischen Teil dieser Arbeit (Untersuchung der Prägeprozesse) verschiedene technologische Methoden und Maschinen vorgestellt und die damit erreichten Ergebnisse hinsichtlich der Fabry-Pérot-Filterfelder verglichen. Die hergestellten Filterfelder wurden systematisch spektral vermessen. Diese Analyse zeigt 64 Transmissionsbänder der einzelnen Filter eines Feldes. Ein Vergleich mit publizierten Arbeiten des Standes der Wissenschaft und Technik zeigt, dass im Rahmen der vorliegenden Arbeit eine deutliche Verbesserung erreicht wurde. So konnte eine drastische Steigerung der transmittierten Lichtintensität der Filter erzielt werden und eine Nanoimprint-Methode identifiziert werden, mit welcher es möglich ist, einen Demonstrator herzustellen. Aufgrund der im Rahmen einer ausführlichen Charakterisierung ermittelten sehr guten experimentellen Ergebnisse des Demonstrators kann ein Nanospektrometer mit dem Fabry-Pérot-Filterfeld als Kernbestandteil in Zukunft hergestellt werden.
Resumo:
Die Reduktion von Schadstoff-Emissionen und des Kraftstoffverbrauches sind für die Einhaltung von immer strenger werdenden Abgasgrenzwerten zum Schutz der menschlichen Gesundheit und der Vegetation von großer gesellschaftlicher Bedeutung. Ob Deutschland die innerstädtischen Immissionsgrenzwerte der Europäischen Union (EU) für Stickstoffdioxid (NO2) ab 2010 einhalten wird, ist fraglich. Vor allem Lastkraftwagen mit Dieselmotor emittieren einen Großteil dieses Schadstoffes, sodass man mit einer Senkung der NO2-Emissionen dem gesetzten Ziel der Einhaltung der von der EU festgelegten NO2-Immisionsgrenzwerte bereits erheblich näher kommen würde. Ziel dieser Arbeit war es zu untersuchen, ob mit der Kenntnis der NO2-Konzentration im Abgas von Lastkraftwagen mit Dieselmotor mittels Spektroskopie eine Reduzierung der NO2-Emissionen und eine Senkung des Kraftstoffverbrauches erreicht werden kann. Hierzu muss sowohl die Bestimmung der NO2-Konzentration aus der spektralen Analyse des Abgases möglich sein, als auch die Herstellung eines mikromechanisch durchstimmbaren optischen Fabry-Pérot-Filters mit Bragg-Spiegeln, der die Voraussetzungen erfüllt, das für die spektrale Analyse benötigte Spektrum quantifizieren zu können. Zusätzlich soll mit Hilfe der aus den Spektren extrahierten Information eine in Echtzeit gemessene NO2-Konzentration im Abgas ableitbar sein. Damit sollen Kraftstoff eingespart und Schadstoff-Emissionen reduziert werden. Hierfür wird am Beispiel eines Lastkraftwagens mit typischer Abgasnachbehandlung aufgezeigt, wie über innermotorische Maßnahmen die Verbrennung optimierbar ist und wie die Eigenschaften der Abgasnachbehandlung verbesserbar sind, sodass die gewünschten Senkungen erreicht werden. Zusätzlich kann auf den Einbau eines Sperrkatalysators im Abgasstrang verzichtet werden. Ferner reduziert sich auch der Verbrauch des für die Abgasnachbehandlung benötigten Harnstoffs. Zur Klärung, ob die NO2-Konzentration aus der spektralen Analyse des Abgases bestimmt werden kann, wurden an einem Motorprüfstand Spektren für verschiedene NO2-Konzentrationen gemessen. Zusätzlich wurde das in dieser Arbeit behandelte Sensor-System mittels mathematischer Modellrechnung beschrieben, sodass dieses Modell anschließend auf die am Motorprüfstand gemessenen Spektren angewendet werden konnte. Die auf diese Weise berechneten Ergebnisse wurden mit den NO2-Messungen am Motorprüfstand verglichen und zeigen eine große Korrelation. In dem mathematischen Modell wird auch die spektrale Auflösung des Sensors berücksichtigt, die vom optischen Filter erreicht werden muss. Es wurde in dieser Arbeit untersucht, ob ein solches Filter realisiert werden kann. Hierzu wurde unter Anwendung der Transfer-Matrix-Methode (TMM) zur Berechnung optischer Eigenschaften von Dünnschichtsystemen eine Struktur entwickelt, die den optischen Anforderungen an das Filter genügt. Grundlage für dieses Design ist ein mikromechanisch durchstimmbares Fabry-Pérot-Filter mit Bragg-Spiegeln. Zur Herstellung dieses mikromechanisch durchstimmbaren, optischen Filters wurde eine Prozesskette entwickelt, mit der Filter mit einer Transmission von über 60 % hergestellt wurden. Die mit dieser Prozesskette hergestellten Strukturen wurden topografisch und optisch charakterisiert. Der Vergleich der gemessenen Ergebnisse mit theoretischen Modellrechnungen zeigt eine hohe Übereinstimmung, sodass mit der verwendeten Methodik gute Prognosen von Filtereigenschaften getroffen werden können. Es kann außerdem ein verbessertes Design präsentiert werden, welches eine um 10 % höhere Transmission und ein doppelt so großes Auflösungsvermögen gegenüber dem ursprünglichen Design aufweist. Verbesserungspotenziale in der Prozesskette können präsentiert werden, mit denen die optischen und mechanischen Eigenschaften zukünftiger Filter optimiert werden können. Es wird gezeigt, dass ein optisches Filter hergestellt werden kann, mit dem die NO2-Konzentration im Abgas von Lastkraftwagen mit Dieselmotoren spektroskopisch bestimmt werden kann, sodass der Kraftstoffverbrauch gesenkt und die Schadstoffemissionen reduziert werden können. In Abgasnormen sind einzuhaltende NOX-Grenzwerte festgelegt. Sollten in Zukunft auch NO2-Emissionsgrenzwerte in den Abgasnormen festgelegt werden, kann deren Einhaltung mit dem vorgestellten Sensor-Prinzip überwacht werden. Auf diese Weise wird die Chance auf Einhaltung der NO2-Immissionsgrenzwerte der EU maßgeblich erhöht.
Resumo:
Die vorliegende Arbeit ist Teil eines Verbund-Forschungsprojektes mit dem Ziel, eine Präzisions-Bodenbearbeitung in Abhängigkeit von verschiedenen Bodenparametern sowie dem Bodenbedeckungsgrad zu realisieren. Ziel dieses Teilprojektes war die Bereitstellung einer Online-Messung des Bedeckungsgrades, um die Bearbeitungsintensität während der Feldüberfahrt regeln zu können: Ein Kamerasensor vorne am Schlepper ermittelt die Bodenbedeckung und ein Tiefen-Sollwert wird an das Regelsystem eines Gerätes zur teilfächenspezifischen Bodenbearbeitung ausgegeben. Da unter Feldbedingungen Methoden zur Bedeckungsgradmessung nur relativ zueinander verglichen werden können, wurde zunächst ein Laborvergleich mit wohldefinierten Bodenbedeckungen durchgeführt, um die prinzipiellen Stärken und Schwächen von Bildanalyse sowie zwei visuellen Methoden (Gitterraster-Methode und „Meterstick-Methode“) zu ermitteln: • Eine visuelle Methode, die auf einer begrenzten Anzahl von einfachen Stichprobenbeobachtungen beruht (Gitter), überschätzte den Bedeckungsgrad systematisch, wobei dieser Effekt unter Feldbedingungen vermutlich klein gegenüber der bekannten Schwankungsbreite zwischen Messungen verschiedener Beobachter ist. • Eine visuelle Methode, die auch Größe und Orientierung des Strohs berücksichtigt (Meterstick), lieferte präzise mittlere Messwerte. Diese Methode war die mit Abstand arbeitsaufwändigste. • Nach einer einfachen Korrektur des Abbildungsfehlers des Kameraobjektivs war auch die Bildverarbeitungs-Methode in der Lage, die bekannten tatsächlichen Bedeckungsgrade exakt darzustellen, bei gleichzeitig der geringsten Schwankungsbreite der Messwerte. Die Online-Messung der Bodenbedeckung durch Ernterückstände ist bisher jedoch ungelöst. Obwohl in früheren Untersuchungen Texturmerkmale oder Farbunterschiede erfolgreich genutzt wurden, um den Bedeckungsgrad zu bestimmen, wird eine Bedienperson zur interaktiven Festlegung bestimmter Parameter benötigt. Um den Prototypen eines onlinefähigen Kamerasensors zu entwickeln, wurden geeignete Ausrüstung und Bedingungen zur Bildaufnahme untersucht und verschiedene Auswertealgorithmen mit Hilfe einer wissenschaftlichen Bildanalysesoftware geschrieben und getestet: • Da im Nahinfraroten zwischen ca. 800 und 1400 nm der größte Intensitäts-Kontrast zwischen Stroh und Boden besteht wurde zur Bildaufnahme eine Schwarz-Weiss-CCD-Kamera mit aufgesetztem Infrarotfilter gewählt. Eine Diffusor-Box sorgte für homogene Beleuchtungsbedingungen. • Zwei auf Kantendetektion und automatischer Schwellwertsetzung basierende Versionen („A“ und „B“) eines „klassischen“ Segmentierungsalgorithmus wurden geschrieben. Durch einen iterativen Ansatz konnten geeignete Thresholding-Verfahren abhängig von der Größenordnung der Bodenbedeckung verwendet werden. Die zur Online-Regelung der Bearbeitungstiefe nötige Beschränkung der Prozesslaufzeit auf ca. 1000 ms/Bild konnte eingehalten werden. • Eine alternative automatisierbare Kontrollmethode wurde entwickelt, welche Merkmale der Grauwerthistogramme der Stroh/Boden-Bilder auswertet (Algorithmus „C“). Dieser Ansatz ist nochmals deutlich schneller als eine Bildsegmentierung (ca. 5 – 10 Bilder/s). • Der Sensor wurde an einem Quad montiert und die Bodenbedeckung auf drei Testfeldern untersucht. Zwischen den Messergebnissen eines Algorithmus vom Typ A/B und dem Ansatz C wurde eine Pearson-Korrelation von 0,967 für die Messwertegesamtheit gefunden. • Auf Versuchsparzellen mit definiert aufgebrachten Strohmengen (ein weiteres Teil-projekt) wurden an GPS-referenzierten Punkten Bilder mit dem Sensor aufgenommen und Referenzmessungen mit der visuellen Gitterraster-Methode durchgeführt. Zwischen der Bildverarbeitung (A, B) und dem Gitter ergaben sich befriedigende Pearson-Korrelationen im Bereich von 0,7 – 0,8. Allerdings waren für hohe Bedeckungen die Ergebnisse des Sensors meist signifikant niedrigere als der Mittelwert von drei das Gitter auszählenden Personen. Eine Kontrolle mit Ansatz C ergab, dass die Histogramm-Merkmale der einzelnen Bilder deutlich besser mit den per Bildverarbeitung ermittelten Bedeckungsgraden korrelierten als mit den Gittermessungen. – Insgesamt erwies sich die schnelle Bildverarbeitung als geeignet für den Einsatz als neue Referenzmethode zur Messung der Bodenbedeckung durch Ernterückstände. • Da der Aufbau des Sensors ohne die Diffusor-Box praxisgerechter ist, besteht weiterer Forschungsbedarf in Bezug auf die dann auftretenden Probleme durch stark wechselnde Beleuchtung und Schattenwurf. • In einem letzten Schritt wurde der Kamerasensor erfolgreich in ein bereits entwickeltes System zur teilflächenspezifischen Bodenbearbeitung an der Universität Kiel integriert. Eine Regelung der Arbeitstiefe durch den Kamerasensor war problemlos möglich, allerdings gilt es noch belastbare Kriterien für die Vorgabe von Tiefen-Sollwerten in Abhängigkeit vom Bedeckungsgrad zu entwickeln.
Resumo:
Hairpin Ribozyme kommen natürlich in den Minussträngen der Satelliten RNAs dreier Pflanzenviren (sTRsV, sArMV and sCYMoV) vor. In dieser Arbeit wurden mit dem Programm Mfold darin mehrere distinkte Sekundärstrukturelemente gefunden, die außerhalb des katalytischen Zentrums der Ribozyme lokalisieren. Verschiedene Varianten der drei Ribozyme wurden hergestellt und die Funktion der beobachteten peripheren Strukturelemente biochemisch untersucht. Die sTRsV Hairpin Ribozyme mit unterschiedlichen Längen in Arm C wiesen ähnliche cis-Spaltungsreaktionen auf, unabhängig von der Anzahl interner bulges in Arm C. Das gleiche Verhalten, jedoch bei schnelleren Spaltungsraten, wurde nach Entfernen der three-way junction, die 3’ von der Spaltstelle in Arm A liegt, beobachtet. Hier hat Arm C demnach keinen Einfluss auf die Katalyse, wogegen ein verlängerter Arm A die Reaktion verlangsamt. Unter den experimentellen Bedingungen war die Rückreaktion in Anwesenheit des natürlichen Arms A nicht messbar. Im Gegensatz dazu zeigten alle Varianten ohne die Arm A Erweiterung Ligationsaktivität, die am höchsten in dem Molekül mit dem längsten Arm C war, und gleichermaßen erniedrigt für zwei Varianten mit kürzerem Arm C. Keine der Reaktionen diverser sArMV Hairpin Ribozyme konnte reproduzierbar analysiert werden. Für das sCYMoV Hairpin Ribozym wurde schließlich in cis-Spaltungsreaktionen eine Zunahme der Geschwindigkeit mit Abnahme der Länge von Arm D beobachtet. Dies war der Fall in Anwesenheit der three-way junction in Arm A, nicht jedoch in ihrer Abwesenheit, wo Varianten mit unterschiedlichen Längen des Arms D ähnliche Spaltungsreaktionen aufwiesen. In Anwesenheit der three-way junction in Arm A war eine Reduzierung der Ligationsgeschwindigkeit zu beobachten, und bei ihrer Abwesenheit stieg diese mit der Länge von Arm D. Dies zeigt, dass sowohl die three-way junction in Arm A, als auch die Länge und Anzahl der bulges in Arm D die Reaktion des Hairpin Ribozyms aus sCYMoV beeinflussen, wobei sich Unterschiede in Vorwärts- und Rückreaktion auf die experimentellen Bedingungen zurückführen lassen. In zwei Serien wurde die zentrale five-way junction dieses Ribozyms durch verschiedene four-way junctions ersetzt. Die kinetischen Parameter der Selbstspaltung waren ähnlich für Varianten ohne Arm E auf, jedoch verlangsamt bei Varianten ohne Arm C. Dies zeigt, dass das sCYMoV Hairpin Ribozym auch um eine four-way junction gebildet werden kann, deren konstituierenden Helices jedoch nicht beliebig sind. In einem zweiten Projekt wurde die Konservierung von Hammerhead Ribozym-motiven, die bereits früher im Genom der Brassicacee A. thaliana gefunden worden waren, exemplarisch an zehn Mitgliedern dieser Familie untersucht. Da deren Genome nicht sequenziert sind, wurde PCR mit Primern angewandt, die für die A. thaliana Motive spezifisch waren. Damit konnten Ribozymmotive in allen untersuchten Brassicaceen außer B. nigra and B. oleracea gefunden werden. Diese gehören zu den sechs Brassica Pflanzen, für die der koreanische Botaniker U 1935 im “triangle of U” die genetische Verwandtschaft beschrieb. Darin ist B. carinata, für die Ribozymmotive gezeigt wurden, die Tochterspezies der Brassica Pflanzen ohne diese Motive. Dieser Widerspruch könnte darauf zurückzuführen sein, dass in der PCR unspezifische Primer genutzt wurden, oder aber die Motive aus B. carinata könnten ein Artefakt aus einer Luft-übertragenen Kontamination sein. Technische Schwierigkeiten in der Durchführung von Southern Blots, mit denen zwischen diesen Möglichkeiten unterschieden werden sollte, haben eine abschließende Antwort verhindert. Nach einer Optimierung der Methode sollte diese aber geeignet sein, diese Frage zu klären.
Resumo:
Diese Arbeit behandelt die numerische Simulation von Rührbehältern und Flotationszellen mit Hilfe kommerzieller Software basierend auf einer Finite-Volumen-Methode. Ziel der Untersuchungen ist es, ein Verfahren zu entwickeln, das eine Beurteilung der Anlagen in Abhängigkeit verschiedener geometrischer und strömungsmechanischer Parameter ermöglicht und so unterstützend zur Prozessauslegung beiträgt. An zwei einfachen Geometrien (Strömungsrohr, Scheibenrührer) werden grundsätzliche Parameter und Fragestellungen erläutert, welche für die Simulation von Bedeutung sind und der Verifzierung des eingesetzten Programmpakets dienen. Die Betrachtung industriell eingesetzter Flotationsmaschinen erfolgt beispielhaft an zwei Anlagen mit unterschiedlichen Rotor-Stator-Systemen. Eine Modellzelle im Labormaßstab dient zur Berechnung der Verweilzeitverteilung und zur Charakterisierung wichtiger Einflussgrößen (Drehzahl, Volumenstrom, Durchströmungskonfiguration, Partikelmasse, Randbedingung). Die numerisch gewonnenen Ergebnisse werden dabei erfolgreich mit Experimenten validiert. Ein Flotationssegment in Originalgröße liefert weitere Ergebnisse zur Hydrodynamik. Die Berechnung wird stationär und transient vorgenommen, um die Bedeutung der Zeitabhängigkeit bewerten zu können. Damit ist ferner eine Aussage zum Einlaufverhalten der Strömung möglich, indem das Drehmoment am Rührer als Funktion der Zeit ausgewertet wird. Eine Bewertung erfolgt über die Bestimmung der Verweilzeitverteilung in Abhängigkeit verschiedener Strömungskonfigurationen.