5 resultados para usable leftovers

em Universitätsbibliothek Kassel, Universität Kassel, Germany


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die in dieser Arbeit durchgeführten Untersuchungen zeigen, daß es möglich ist, komplexe thermische Systeme, unter Verwendung der thermisch-, elektrischen Analogien, mit PSpice zu simulieren. Im Mittelpunkt der Untersuchungen standen hierbei Strangkühlkörper zur Kühlung von elektronischen Bauelementen. Es konnte gezeigt werden,daß alle Wärmeübertragungsarten, (Wärmeleitung, Konvektion und Wärmestrahlung) in der Simulation berücksichtigt werden können. Für die Berechnung der Konvektion wurden verschiedene Methoden hergeleitet. Diese gelten zum einen für verschiedene Kühlkörpergeometrien, wie z.B. ebene Flächen und Kühlrippenzwischenräume, andererseits unterscheiden sie sich, je nachdem, ob freie oder erzwungene Konvektion betrachtet wird. Für die Wärmestrahlung zwischen den Kühlrippen wurden verschiedenen Berechnungsmethoden entwickelt. Für die Simulation mit PSpice wurde die Berechnung der Wärmestrahlung zwischen den Kühlrippen vereinfacht. Es konnte gezeigt werden, daß die Fehler, die durch die Vereinfachung entstehen, vernachlässigbar klein sind. Für das thermische Verhalten einer zu kühlenden Wärmequelle wurde ein allgemeines Modell entworfen. Zur Bestimmung der Modellparameter wurden verschiedene Meßverfahren entwickelt. Für eine im Fachgebiet Elektromechanik entwickelte Wärmequelle zum Test von Kühlvorrichtungen wurde mit Hilfe dieser Meßverfahren eine Parameterbestimmung durchgeführt. Die Erstellung des thermischen Modells eines Kühlkörpers für die Simulation in PSpice erfordert die Analyse der Kühlkörpergeometrie. Damit diese Analyse weitestgehend automatisiert werden kann, wurden verschiedene Algorithmen unter Matlab entwickelt. Es wurde ein Algorithmus entwickelt, der es ermöglicht, den Kühlkörper in Elementarzellen zu zerlegen, die für die Erstellung des Simulationsmodells benötigt werden. Desweiteren ist es für die Simulation notwendig zu wissen, welche der Elementarzellen am Rand des Kühlkörpers liegen, welche der Elementarzellen an einem Kühlrippenzwischenraum liegen und welche Kühlkörperkanten schräg verlaufen. Auch zur Lösung dieser Aufgaben wurden verschiedene Algorithmen entwickelt. Diese Algorithmen wurden zu einem Programm zusammengefaßt, das es gestattet, unterschiedliche Strangkühlkörper zu simulieren und die Simulationsergebnisse in Form der Temperaturverteilung auf der Montagefläche des Kühlkörpers grafisch darzustellen. Es können stationäre und transiente Simulationen durchgeführt werden. Desweiteren kann der thermische Widerstand des Kühlkörpers RthK als Funktion der Verlustleistung der Wärmequelle dargestellt werden. Zur Verifikation der Simulationsergebnisse wurden Temperaturmessungen an Kühlkörpern durchgeführt und mit den Simulationsergebnissen verglichen. Diese Vergleiche zeigen, daß die Abweichungen im Bereich der Streuung der Temperaturmessung liegen. Das hier entwickelte Verfahren zur thermischen Simulation von Strangkühlkörpern kann somit als gut bewertet werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Mittelpunkt der Dissertation stehen das Schutzgut ‚Landschaft’ sowie ‚Prognosemethoden in der Umweltprüfung’. Mit beiden Themenbereichen verbinden sich bereits heute ungelöste methodische Probleme, die mit der Umsetzung der Richtlinie zur Strategischen Umweltprüfung (SUP) zusätzlich komplexer und deren Lösung mithin anspruchsvoller werden. Dies hängt einerseits damit zusammen, dass eine gesetzeskonforme Gleichbehandlung aller Schutzgüter zunehmend eingefordert wird und gerade das Schutzgut ‚Landschaft’ in einer SUP methodisch besondere Aufmerksamkeit verlangt. Zum anderen führt die gängige planungsmethodische Diskussion allein nicht zu geeigneten Antworten auf o.g. Fragen, und es bedarf der Prüfung verschiedener Methodenbausteine, auch aus anderen Wissensgebieten, um – über ein eindimensionales Landschaftsverständnis einerseits und die bisher bekannten linearen Wirkungsprognosen andererseits hinaus gehend – mehrfach verknüpfte Prognoseschritte zur Anwendung in der SUP zu entwickeln, in denen das Schutzgut ‚Landschaft’ modellhaft für Bewertungsschritte nachvollziehbar abgebildet wird. Hierbei müssen entscheidungsrelevante Prognosezeiträume ebenso beachtet werden, wie in diesen Zeiträumen möglicherweise auftretende sekundäre, kumulative, synergetische, positive und negative Auswirkungen der zu beurteilenden Planung. Dieser Ziel- und Aufgabenstellung entsprechend erfolgt die theoretische Herangehensweise der Arbeit von zwei Seiten: 1. Die Funktionen und Stellung von Prognosen innerhalb der SUP wird erläutert (Kap. 2), und es wird der Frage nachgegangen, welche Anforderungen an Prognosemethoden zu stellen sind (Kap. 2.4) und welche Prognosemethoden in der SUP Verwendung finden bzw. finden können (Kap. 3). Der Schwerpunkt wird dabei auf die Anwendung der Szenariotechnik gelegt. 2. Es wird dargestellt wie Landschaft für Aufgaben der Landschaftsplanung und Umweltprüfung bisher üblicherweise erfasst und analysiert wird, um in Prognoseschritten handhabbar behandelt zu werden (Kap. 4). Beide Zugänge werden sodann zusammengeführt (Kap. 5), um am Beispiel einer Hochwasserschutzkonzeption im Rahmen der SUP Landschaftliche Prognosen zu erarbeiten. Die Prognose setzt methodisch mit der Beschreibung des zu verwendenden Landschaftsmodells und der Klärung des Modellzwecks ein. Bezugsbasis ist die Beschreibung des Charakters einzelner logisch hergeleiteter Landschaftseinheiten bzw. Landschaftsräume, die typisiert werden. Die Prognose selber unterscheidet zwischen der Abschätzung zu erwartender Landschaftsveränderungen im Sinne der ‚Status-quo-Prognose’ (einschließlich der Entwicklung von drei Szenarien möglicher Zukunftslandschaften bis 2030) und der Wirkungsabschätzungen verschiedener Maßnahmen bzw. Planungsalternativen und zwar zunächst raumunabhängig, und dann raumkonkret. Besondere Bedeutung bei den Wirkungsabschätzungen erhält die klare Trennung von Sach- und Wertebene, eine angemessene Visualisierung und die Dokumentation von Informationslücken und Unsicherheiten bei der Prognose. Diskutiert wird u.a. (Kap. 6) · die Bildung und Abgrenzung landschaftlicher Einheiten und Typen in Bezug zu der Aufgabe, landschaftliche Eigenart zu definieren und planerisch handhabbar und anwendbar zu bestimmen, · die Bedeutung angemessener Visualisierung zur Unterstützung von Beteiligungsverfahren und · die Bestimmung des so genannten ‚Raumwiderstandes’. Beigefügt sind zwei Karten des gesamten Bearbeitungsgebietes: Karte 1 „Landschaftstypen“, Karte 2 „Maßnahmentypen des Hochwasserschutzes mit möglichen Synergieeffekten für die Landschaft“.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we describe an interdisciplinary project in which visualization techniques were developed for and applied to scholarly work from literary studies. The aim was to bring Christof Schöch's electronic edition of Bérardier de Bataut's Essai sur le récit (1776) to the web. This edition is based on the Text Encoding Initiative's XML-based encoding scheme (TEI P5, subset TEI-Lite). This now de facto standard applies to machine-readable texts used chiefly in the humanities and social sciences. The intention of this edition is to make the edited text freely available on the web, to allow for alternative text views (here original and modern/corrected text), to ensure reader-friendly annotation and navigation, to permit on-line collaboration in encoding and annotation as well as user comments, all in an open source, generically usable, lightweight package. These aims were attained by relying on a GPL-based, public domain CMS (Drupal) and combining it with XSL-Stylesheets and Java Script.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Numerous studies have proven an effect of a probable climate change on the hydrosphere’s different subsystems. In the 21st century global and regional redistribution of water has to be expected and it is very likely that extreme weather phenomenon will occur more frequently. From a global view the flood situation will exacerbate. In contrast to these discoveries the classical approach of flood frequency analysis provides terms like “mean flood recurrence interval”. But for this analysis to be valid there is a need for the precondition of stationary distribution parameters which implies that the flood frequencies are constant in time. Newer approaches take into account extreme value distributions with time-dependent parameters. But the latter implies a discard of the mentioned old terminology that has been used up-to-date in engineering hydrology. On the regional scale climate change affects the hydrosphere in various ways. So, the question appears to be whether in central Europe the classical approach of flood frequency analysis is not usable anymore and whether the traditional terminology should be renewed. In the present case study hydro-meteorological time series of the Fulda catchment area (6930 km²), upstream of the gauging station Bonaforth, are analyzed for the time period 1960 to 2100. At first a distributed catchment area model (SWAT2005) is build up, calibrated and finally validated. The Edertal reservoir is regulated as well by a feedback control of the catchments output in case of low water. Due to this intricacy a special modeling strategy has been necessary: The study area is divided into three SWAT basin models and an additional physically-based reservoir model is developed. To further improve the streamflow predictions of the SWAT model, a correction by an artificial neural network (ANN) has been tested successfully which opens a new way to improve hydrological models. With this extension the calibration and validation of the SWAT model for the Fulda catchment area is improved significantly. After calibration of the model for the past 20th century observed streamflow, the SWAT model is driven by high resolution climate data of the regional model REMO using the IPCC scenarios A1B, A2, and B1, to generate future runoff time series for the 21th century for the various sub-basins in the study area. In a second step flood time series HQ(a) are derived from the 21st century runoff time series (scenarios A1B, A2, and B1). Then these flood projections are extensively tested with regard to stationarity, homogeneity and statistical independence. All these tests indicate that the SWAT-predicted 21st-century trends in the flood regime are not significant. Within the projected time the members of the flood time series are proven to be stationary and independent events. Hence, the classical stationary approach of flood frequency analysis can still be used within the Fulda catchment area, notwithstanding the fact that some regional climate change has been predicted using the IPCC scenarios. It should be noted, however, that the present results are not transferable to other catchment areas. Finally a new method is presented that enables the calculation of extreme flood statistics, even if the flood time series is non-stationary and also if the latter exhibits short- and longterm persistence. This method, which is called Flood Series Maximum Analysis here, enables the calculation of maximum design floods for a given risk- or safety level and time period.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work presents the developement of an chemically stable and easy to produce in situ sensor for fast and reliable detection of polycyclic aromatic hydrocarbons (PAH) in low nanomolar concentrations. Metallic nanoparticles on dielectric substrates werde used for the rst time with surface enhanced Raman spectroscopy (SERS) in combination with shifted excitation Raman difference spectroscopy (SERDS). The preparation of the metallic nanoparticle ensembles with Volmer-Webergrowth is described first. The nanoparticles are characterized with both, optical spectroscopy and atomic force microscopy. The morphological properties of the nanoparticle ensembles are de ned by the mean axial ratio (a/b) and the mean equivalent radius (R Äq), respectively. The prepared and characterized nanoparticles were then used for intensive Raman spectroscopy measurements. Two sophisticated diode laser systems were used in cooperation with the TU Berlin, to carry out these experiments. The first step was to establish the ideal combination of excitation wavelength of the diode laser and the maximum of the surface plasmon resonance of the nanoparticle ensembles. From these results it was deduced, that for an optimum Raman signal the plasmon resonance maximum of the nanoparticle ensemble has to be red-shifted a few nanometeres in respect to the excitation wavelength. Different PAHs werde detected in concentrations of only 2 and 0.5 nmol/, respectively. Furthermore, the obtained results show an excellent reproducability. In addition the time dependence of the Raman signal intensity was investigated. The results of these measurements show, that only 2 minutes after placing the substrates in the molecular solution, a detectable Raman signal was generated. The maximum Raman signal, i.e. the time in which the molecular adsorption process is finished, was determined to about 10 minutes. In summary it was shown, that the used metallic nanoparticle ensembles are highly usable as substrates for SERS in combination with SERDS to detect PAHs in low nanomolar concentrations.