59 resultados para Verbesserung
Resumo:
In der vorliegenden Arbeit wird ein am Strengths-Modell orientiertes Case Management-Projekt zur Prozess- und Ergebnisoptimierung der bereits bestehenden ambulanten gerontopsychiatrischen Versorgungsstruktur untersucht. Dazu arbeitete eine Krankenpflegerin mit psychiatrischer Fachausbildung in einer Berliner Sozialstation auf Basis einer professionellen Beziehung für 4-6 Wochen bei Klientinnen mit gerontopsychiatrischen Problemlagen, erstellte ein Assessment, leistete notwendige Unterstützung zunächst selbst, vermittelte gestützt auf die eigenen Erfahrungen weiterführende Dienste, leitete diese Dienste an, zog sich dann aus dem direkten Kontakt mit den Klientinnen zurück und blieb beratend für die weiterführenden Dienste verfügbar. Zur Untersuchung des Projekts wurden qualitative und quantitative Verfahren eingesetzt. Zur Beschreibung der Inhalte wurden die für jede Klientin verfasste Dokumentation und die Ergebnisse von grob strukturierten Interviews mit der Case Managerin, angelehnt an eine reduzierte Form der Methode Grounded Theory, in einem iterativen Prozess analysiert. In einem zweiten Schritt wurde dann untersucht, inwieweit die einzelnen Arbeitsinhalte des Case Managements die sozial-räumlichdingliche Umweltanpassung und Proaktivität der Klientinnen unterstützten. Die Wirkungen des Projektes auf Kognition, Aktivitäten des täglichen Lebens (ADL), Instrumentelle Aktivitäten des täglichen Lebens (IADL), Stimmung sowie soziales und störendes Verhalten wurden mittels eines standardisierten Fragebogens mit einem quasi-experimentellen prospektiven Untersuchungsdesign analysiert. Zur Analyse der subjektiven Wirkung des Projektes auf Angehörige wurden in den Ergebnissen von grob strukturierten Interviews mittels eines iterativen Prozesses Themen identifiziert. Die Klientinnen (n=11) erhielten durchschnittlich 23 Stunden Case Management. Neben den typischen Case Management-Aufgaben führte die Case Managerin, basierend auf den Gewohnheiten, Interessen und Selbsteinschätzungen der Klientinnen, therapeutische und pflegerische Maßnahmen durch und unterstützte dabei die sozial-dinglichräumliche Umweltanpassung und Proaktivität der Klientinnen. Zusätzlich wurden Hauspflegerinnen von der Case Managerin individuell in der Wohnung von Klientinnen hinsichtlich der Kommunikation mit und Unterstützung der Proaktivität von Klientinnen angeleitet. Die Hauspflegerinnen führten die von der Case Managerin eingeleiteten Maßnahmen erfolgreich fort. Bei den Klientinnen zeigten sich signifikante Verbesserungen in Gedächtnis, Stimmung, IADL-Funktionen und Sozialverhalten, aber nicht in ADL-Funktionen und störendem Verhalten. Diese Verbesserungen wurden subjektiv von den Angehörigen (n=7) bestätigt. Zusätzlich empfanden Angehörige eine zeitliche aber keine psychische Entlastung. Mit diesem Projekt wurde gezeigt, dass ein zeitlich begrenztes klientenzentriertes Case Management kognitive, soziale und emotionale Funktionen von gerontopsychiatrisch Erkrankten verbessert, Angehörige zeitlich entlastet und dass Hauspflegerinnen bei entsprechender Anleitung die vom Case Management eingeleiteten Maßnahmen fortführen können. In Folgestudien mit größerem Umfang sollten diese Ergebnisse überprüft werden um dann zu entscheiden, ob dieser Ansatz geeignet ist, die ambulante gerontopsychiatrische Versorgung gemeindenah zu verbessern.
Resumo:
Wenn Schulen Selbstverantwortung und ein Qualitätssicherungssystem als Mittel zur Verbesserung von Schulqualität einsetzen, stellt sich die Frage nach der Kontrolle von Schulen neu: Wer kontrolliert und steuert die Prozesse, wer die Ergebnisse? Die Autoren geben eine Antwort auf diese Fragen, indem sie ein Verfahren für die externe Evaluation selbstverantwortlicher Schulen, die über ein Qualitätsmanagementsystem verfügen, vorschlagen.
Resumo:
Die vorliegende Arbeit liefert erstmals einen umfassenden Überblick über die molekulare Epidemiologie von Methicillin resistenten Staphylococcus aureus (MRSA) eines nordhessischen Krankenhauses inklusive seines Umfeldes und deren Entwicklung in einem Zeitraum von fünf Jahren. Von besonderer Bedeutung ist, dass die MRSA-Stämme hierfür nicht nur anhand ihrer SCCmec-Region (staphylococcal cassette chromosome) typisiert wurden, sondern eine weitergehende Charakterisierung auf Grund der Bestimmung des Vorkommens von Antibiotikaresistenz- und Toxingenen, sowie Plasmiden erfolgte. Dabei wurde ein neuer SCCmec-Typ entdeckt und charakterisiert und weitere noch unbekannte SCCmec-Elemente beschrieben. Bei der Charakterisierung der MRSA-Kollektive konnten bzgl. aller untersuchten Eigenschaften im Laufe der Zeit signifikante Veränderungen beobachtet werden. Am deutlichsten waren diese Unterschiede zwischen dem ältesten Kollektiv aus 1999 und allen nachfolgenden Kollektiven. Die Kollektive aus 2001, 2002, 2003 und 2004 zeigten untereinander größere Ähnlichkeiten, aber dennoch gleichzeitig eine tendenziell divergente Entwicklung einzelner Eigenschaften. Besonders auffallend war das dominante Auftreten von SCCmecIV mit 63-87% der Isolate eines Kollektivs ab 2001, gegenüber 16% in 1999. Weiterhin erfolgte eine markante Veränderung im Vorkommen einzelner Antibiotikaresistenzgene von 1999 bis 2004. So waren aacA-aphD und ermA bei MRSA aus 1999 mit 84% bzw. 90% deutlich häufiger als in allen Kollektiven der folgenden Jahre (aacA-aphD: max. 32%, ermA: max. 40%). Wohingegen ermC ein stets zunehmendes Vorkommen von 3% auf 67% über den Untersuchungszeitraum zeigte. Unkontinuierliches aber statistisch relevant vermehrtes Auftreten von tetM konnte bei Isolaten aus 1999 (40%) und 2004 (74%) nachgewiesen werden. Auch bei Toxingenen zeigten sich deutliche Unterschiede in der zeitlichen Verteilung. Ab 2001 zeigten alle Isolate wesentlich höhere Anteile an sec, seg und sei verglichen mit den MRSA aus 1999. So konnte sec im Kollektiv aus 1999 gar nicht nachgewiesen werden, in denen der Folgejahre mit 54-77%. Die Werte für seg und sei stiegen von 48% bzw. 41% in 1999 kontinuierlich auf über 90% in 2004. Die Häufigkeit von MRSA sowohl mit mehreren Resistenzgenen als auch die mit mehreren Toxingenen nahm im Laufe der Zeit zu und korrelierte mit dem Vorkommen von Plasmiden. Bezüglich seiner Korrelation mit den vorkommenden Plasmiden zeigte SCCmecIV im Erhebungszeitraum besonders deutlich eine Veränderung. So nahm über den Zeitraum der Beobachtung die Anzahl der Stämme die zusätzlich zu einem großen Plasmid ein weiteres kleines Plasmid besaßen signifikant zu. Auch beim Vergleich der SCCmec-Typen der MRSA-Isolate konnten Unterschiede bzgl. aller weiteren untersuchten Eigenschaften dargestellt werden. So zeigten z.B. alle SCCmecIIIA das sea-Gen, während dies bei allen anderen in der vorliegenden Arbeit untersuchten SCCmec-Typen nur vereinzelt vorkam. SCCmecII-Stämme wiesen sowohl die meisten Antibiotikaresistenz- als auch Toxingene auf. Es wurde ferner gezeigt, dass Stämme mit vielen Resistenzgenen auch eine hohe Anzahl Toxingene besaßen und dies im Zusammenhang mit einem erhöhten Plasmidgehalt stehen könnte. Aus den MRSA-Kollektiven isolierte Plasmide konnten aufgrund von Restriktionsanalysen als verwandt zu β-Laktamase-Plasmiden des Grundtyps pI524 und pI258 beschrieben werden. Der in vorliegender Arbeit gezeigte Zusammenhang zwischen der Anzahl von direct repeat units (dru) in der Hypervariablen Region (HVR) und dem SCCmec-Typ half den Unterschied zwischen SCCmecIV und SCCmecIVA, sowie die Sonderstellung des in vorliegender Arbeit erstmalig beschriebenen SCCmecIA/II darzustellen. Nicht alle Isolate konnten einem bekannten SCCmec-Typ zugeordnet werden, es handelt sich bei diesen Ausnahmen um weitere noch unbekannte und hier erstmalig beschriebene SCCmec-Typen. Aufgrund der vorliegenden Arbeit konnte ein neuer SCCmec-Typ definiert werden, namentlich der Typ SCCmecIA/II, der seit 1999 in der Region gehäuft vorkommt Die vorliegenden Untersuchungen zeigten somit, dass die Epidemiologie von MRSA der Region Nordhessen trotz bestehender Gemeinsamkeiten zur MRSA-Situation in ganz Deutschland auch Besonderheiten aufweist. Diese nun zu kennen kann einen Beitrag zur gezielten Verbesserung bisheriger Maßnahmen zur Ausbreitungskontrolle von MRSA in der nordhessischen Region leisten.
Resumo:
Im Rahmen dieser Arbeit wurde mittels einer umfassenden und von einer Projektgruppe begleiteten Literaturanalyse sowie anhand von Praxiserhebungen der Frage nachgegangen, wie es um die Tiergesundheit in der ökologischen Schweinehaltung bestellt ist. Ferner wurde untersucht, ob die ökologischen Rahmenrichtlinien (EWG-VO 2092/91) ein Hemmnis für die Sicherstellung eines hohen Gesundheitsstatus der Nutztiere darstellen. Die Literaturauswertung ergab, dass die Erkrankungsraten sowohl auf ökologisch wie auf konventionell geführten Betrieben ein hohes Niveau aufwiesen. Die Ursachen wurden vorrangig in einem unzureichenden betrieblichen Management gesehen, während den EG-Rahmenrichtlinien in der Regel keine maßgebliche Bedeutung für den Gesundheitsstatus beigemessen wurde. In Praxiserhebungen wurde die Status-quo-Situation zur Tiergesundheit auf sechs ökologisch wirt- schaftenden Schweinemastbetrieben erfasst. Ferner wurde untersucht, inwieweit eine Verbesserung des Gesundheitsstatus auf den Betrieben mit einem Mehraufwand an Arbeitszeit und Investitionen verbunden ist. Hierzu wurden die Bereiche Haltung, Fütterung und Hygienemanagement mittels einer Schwachstellenanalyse (Hazard Analysis Critical Control Points-Konzept) beurteilt. Der Zeit- bedarf für Maßnahmen zur Gesundheitsvorsorge wurde durch Arbeitszeitaufzeichnungen erfasst. Die Untersuchungen zeigten, dass auf den Betrieben zum Teil erhebliche Mängel im Hygiene- management bestanden. Anhand von Schlachtkörperbefunden wurde eine hohe Rate pathologischer Leberveränderungen, verursacht durch Larven des Schweinespulwurms Ascaris suum, diagnosti- ziert. Insgesamt wiesen die Schlachtkörper der Tiere von den sechs Betrieben mit durchschnittlich 48,8 % sowie die Schlachtkörper von ökologischen Vergleichsbetrieben mit 63,9 % signifikant höhere Befundraten auf als die Schlachtkörper konventioneller Vergleichsbetriebe (17,4 %). Der Arbeitszeitbedarf für die Mastschweinehaltung auf den sechs Betrieben variierte zwischen 2,0 und 3,7 Arbeitskraftstunden pro Mastplatz und Jahr und lag damit deutlich höher als vergleichbare Literaturdaten. Zwischen den Betrieben traten hohe Unterschiede hinsichtlich der zeitlichen Aufwendungen für Hygiene- und Tiergesundheitsmaßnahmen auf. Während der Interventionsphase wurden das Entwurmungs- und das Hygieneregime der sechs Betriebe optimiert. Die Buchten wurden ordnungsgemäß gereinigt und desinfiziert und der erforderliche Arbeitszeitaufwand quantifiziert. Dieser lag zusammen mit den zusätzlichen Kosten um ca. 46 % höher als der betrieblich übliche Arbeitszeitaufwand. Betriebe mit neu konzipierten Ställen und glatten Buchtenböden und -wänden konnten diese mit vergleichsweise geringem Arbeitsaufwand reinigen und desinfizieren. In einigen Altgebäuden hingegen war aufgrund rauer und schadhafter Oberflächen eine ordnungsgemäße Reinigung und Desinfektion nur bedingt durchzuführen. Die Rate der Leberveränderungen am Schlachthof konnte von durchschnittlich 48,9 % auf 32,7 % gesenkt werden. Während sich die Befundraten auf einigen Betrieben signifikant verbesserten, trat bei der Nutzung von unrenovierten Ställen in Altgebäuden keine Besserung ein. Es wird geschlussfolgert, dass die Rahmenbedingungen der EG-Verordnung einem hohen Tiergesundheitsstatus nicht entgegen stehen, in der Regel jedoch mit einem erhöhten Aufwand für Hygienemaßnahmen verbunden sind. Voraussetzung für eine geringe Parasitenbelastung sind ein konsequent umgesetztes Hygiene- und Entwurmungsregime sowie gut zu reinigende Buchten. Letzteres ist allerdings bei der Nutzung von Altgebäuden nicht immer gegeben.
Resumo:
Die Geschäftspolitik der Banken und Sparkassen befindet sich in einem tiefgreifenden Veränderungsprozess. Lange Zeit war der stationäre Vertrieb mit großem Abstand der bedeutendste Absatzweg der Kreditinstitute. Damit ist es nun offenbar zu Ende. Alternative Vertriebskanäle gewinnen zunehmend an Bedeutung. Online-Broker und Direktbanken, wie z.B. DAB bank und ING-DiBa, sind dafür die besten Beispiele. Der Verfasser hat sich mit der vorliegenden Promotion der Aufgabe unterworfen, die Erfolgsstrategien und weitere Entwicklung der Direktbanken in Deutschland einer kritischen Analyse zu unterziehen. Dabei werden in erster Linie Direktbanken und Online-Broker betrachtet, aber auch sog. Internet-Only-Banken bzw. virtuelle Banken in die Überlegungen einbezogen. Gegenstand des ersten Kapitels ist die Betrachtung der traditionellen Vertriebswegestruktur im Privatkundengeschäft. Dabei wird deutlich, dass die neue Entwicklungsstufe “Direct Banking” die ehemals so monotone Vertriebspolitik der Kreditinstitute zwar nicht völlig ersetzen, aber gut ergänzen kann. Im zweiten Kapitel werden die Grundlagen des “Direct Banking” beschrieben und abgegrenzt, wobei die historische Entwicklung, die Beweggründe der Kreditinstitute und auch die Anbieterstruktur im einzelnen untersucht werden. Das Discount-Broking wird ebenfalls angesprochen, weil es als Vorläufer des Direktbankgeschäfts angesehen wird. Das dritte Kapitel stellt die strategischen Erfolgsfaktoren im Direct Banking vor und beschreibt einige Vorbehalte und derzeit noch bestehende Problemfelder. Der Ansatz einer ganzheitichen Direct-Banking-Strategie wird in einem gesonderten Abschnitt dargestellt und in sechs Phasen unterteilt. Abschließend werden fünf strategische Maßnahmen zur Verbesserung des Stellenwertes der Direktbanken präsentiert. Das vierte Kapitel beschäftigt sich mit den Auswirkungen auf das traditionelle Bankgeschäft und beleuchtet somit die Zukunft des Retail Banking. Der notwendige Anpassungsprozess im Filil Banking wird erklärt. Dabei werden die strategischen Herausforderungen im Filialbankgeschäft behandelt und Maßnahmen zur Kundenbindung und Kostensenkung aufgezeigt. Im letzten Kapitel werden die Zukunftsaspekte des Direct Banking etwas näher untersucht. Zunächst werden die wesentlichen Ergebnisse zur erfolgreichen Ausübung des Direkbankgeschäfts in Thesen zusammengefasst. Anschließend wird die Umbruchphase zum Virtual Banking anhand von drei Grundtrends analysiert.
Resumo:
Der Schwerpunkt dieser Arbeit liegt in der Anwendung funktionalisierter Mikrocantilever mit integrierter bimorpher Aktuation und piezo-resistiver Detektion als chemische Gassensoren für den schnellen, tragbaren und preisgünstigen Nachweis verschiedener flüchtiger Substanzen. Besondere Beachtung erfährt die Verbesserung der Cantilever-Arbeitsleistung durch den Betrieb in speziellen Modi. Weiterer Schwerpunkt liegt in der Untersuchung von spezifischen Sorptionswechselwirkungen und Anwendung von innovativen Funktionsschichten, die bedeutend auf die Sensorselektivität wirken.
Resumo:
In der Arbeit werden zunächst die wesentlichsten Fakten über Schiefpolynome wiederholt, der Fokus liegt dabei auf Shift- und q-Shift-Operatoren in Charakteristik Null. Alle für die Arithmetik mit diesen Objekten notwendigen Konzepte und Algorithmen finden sich im ersten Kapitel. Einige der zur Bestimmung von Lösungen notwendigen Daten können aus dem Newtonpolygon, einer den Operatoren zugeordneten geometrischen Figur, abgelesen werden. Die Herleitung dieser Zusammenhänge ist das Thema des zweiten Kapitels der Arbeit, wobei dies insbesondere im q-Shift-Fall in dieser Form neu ist. Das dritte Kapitel beschäftigt sich mit der Bestimmung polynomieller und rationaler Lösungen dieser Operatoren, dabei folgt es im Wesentlichen der Darstellung von Mark van Hoeij. Der für die Faktorisierung von (q-)Shift Operatoren interessanteste Fall sind die sogenannten (q-)hypergeometrischen Lösungen, die direkt zu Rechtsfaktoren erster Ordnung korrespondieren. Im vierten Kapitel wird der van Hoeij-Algorithmus vom Shift- auf den q-Shift-Fall übertragen. Außerdem wird eine deutliche Verbesserung des q-Petkovsek-Algorithmus mit Hilfe der Daten des Newtonpolygons hergeleitet. Das fünfte Kapitel widmet sich der Berechnung allgemeiner Faktoren, wozu zunächst der adjungierte Operator eingeführt wird, der die Berechnung von Linksfaktoren erlaubt. Dann wird ein Algorithmus zur Berechnung von Rechtsfaktoren beliebiger Ordnung dargestellt. Für die praktische Benutzung ist dies allerdings für höhere Ordnungen unpraktikabel. Bei fast allen vorgestellten Algorithmen tritt das Lösen linearer Gleichungssysteme über rationalen Funktionenkörpern als Zwischenschritt auf. Dies ist in den meisten Computeralgebrasystemen nicht befriedigend gelöst. Aus diesem Grund wird im letzten Kapitel ein auf Evaluation und Interpolation basierender Algorithmus zur Lösung dieses Problems vorgestellt, der in allen getesteten Systemen den Standard-Algorithmen deutlich überlegen ist. Alle Algorithmen der Arbeit sind in einem MuPAD-Package implementiert, das der Arbeit beiliegt und eine komfortable Handhabung der auftretenden Objekte erlaubt. Mit diesem Paket können in MuPAD nun viele Probleme gelöst werden, für die es vorher keine Funktionen gab.
Resumo:
The oil price rises more and more, and the world energy consumption is projected to expand by 50 percent from 2005 to 2030. Nowadays intensive research is focused on the development of alternative energies. Among them, there are dye-sensitized nanocrystalline solar cells (DSSCs) “the third generation solar cells”. The latter have gained attention during the last decade and are currently subject of intense research in the framework of renewable energies as a low-cost photovoltaic. At present DSSCs with ruthenium based dyes exhibit highest efficiencies (ca 11%). The objective of the present work is to fabricate, characterize and improve the performance of DSSCs based on metal free dyes as sensitizers, especially on perylene derivatives. The work begins by a general introduction to the photovoltaics and dye-sensitized solar cells, such as the operating principles and the characteristics of the DSSCs. Chapter 2 and 3 discuss the state of the art of sensitizers used in DSSCs, present the compounds used as sensitizer in the present work and illustrate practical issues of experimental techniques and device preparation. A comparative study of electrolyte-DSSCs based on P1, P4, P7, P8, P9, and P10 are presented in chapter 4. Experimental results show that the dye structure plays a crucial role in the performance of the devices. The dye based on the spiro-concept (bipolar spiro compound) exhibited a higher efficiency than the non-spiro compounds. The presence of tert-butylpyridine as additive in the electrolyte was found to increase the open circuit voltage and simultaneously decrease the efficiency. The presence of lithium ions in the electrolyte increases both output current and the efficiency. The sensitivity of the dye to cations contained in the electrolyte was investigated in the chapter 5. FT-IR and UV-Vis were used to investigate the in-situ coordination of the cation to the adsorbed dye in the working devices. The open-circuit voltage was found to depend on the number of coordination sites in the dye. P1 with most coordination sites has shown the lowest potential drop, opposite to P7, which is less sensitive to cations in the working cells. A strategy to improve the dye adsorption onto the TiO2 surface, and thus the light harvesting efficiency of the photoanode by UV treatment, is presented in chapter 6. The treatment of the TiO2 film with UV light generates hydroxyl groups and renders the TiO2 surface more and more hydrophilic. The treated TiO2 surface reacts readily with the acid anhydride group of the dye that acts as an anchoring group and improves the dye adsorption. The short-circuit current density and the efficiency of the electrolyte-based dye cells was considerably improved by the UV treatment of the TiO2 film. Solid-state dye-sensitized solar cells (SSDs) based on spiro-MeOTAD (used as hole transport material) are studied in chapter 7. The efficiency of SSDs was globally found to be lower than that of electrolyte-based solar cells. That was due to poor pore filling of the dye-loaded TiO2 film by the spin-coated spiro-MeOTAD and to the significantly slower charge transport in the spiro-MeOTAD compared to the electrolyte redox mediator. However, the presence of the donor moieties in P1 that are structurally similar to spiro-MeOTAD was found to improve the wettability of the P1-loaded TiO2 film. As a consequence the performance of the P1-based solid-state cells is better compared to the cells based on non-spiro compounds.
Resumo:
Die vorliegende Arbeit befasst sich mit den Fehlern, die bei der Berechnung von Tragstrukturen auftreten können, dem Diskretisierungs- und dem Modellfehler. Ein zentrales Werkzeug für die Betrachtung des lokalen Fehlers in einer FE-Berechnung sind die Greenschen Funktionen, die auch in anderen Bereichen der Statik, wie man zeigen kann, eine tragende Rolle spielen. Um den richtigen Einsatz der Greenschen Funktion mit der FE-Technik sicherzustellen, werden deren Eigenschaften und die konsistente Generierung aufgezeigt. Mit dem vorgestellten Verfahren, der Lagrange-Methode, wird es möglich auch für nichtlineare Probleme eine Greensche Funktion zu ermitteln. Eine logische Konsequenz aus diesen Betrachtungen ist die Verbesserung der Einflussfunktion durch Verwendung von Grundlösungen. Die Greensche Funktion wird dabei in die Grundlösung und einen regulären Anteil, welcher mittels FE-Technik bestimmt wird, aufgespalten. Mit dieser Methode, hier angewandt auf die Kirchhoff-Platte, erhält man deutlich genauere Ergebnisse als mit der FE-Methode bei einem vergleichbaren Rechenaufwand, wie die numerischen Untersuchungen zeigen. Die Lagrange-Methode bietet einen generellen Zugang zur zweiten Fehlerart, dem Modellfehler, und kann für lineare und nichtlineare Probleme angewandt werden. Auch hierbei übernimmt die Greensche Funktion wieder eine tragende Rolle, um die Auswirkungen von Parameteränderungen auf ausgewählte Zielgrößen betrachten zu können.
Resumo:
A real-time analysis of renewable energy sources, such as arable crops, is of great importance with regard to an optimised process management, since aspects of ecology and biodiversity are considered in crop production in order to provide a sustainable energy supply by biomass. This study was undertaken to explore the potential of spectroscopic measurement procedures for the prediction of potassium (K), chloride (Cl), and phosphate (P), of dry matter (DM) yield, metabolisable energy (ME), ash and crude fibre contents (ash, CF), crude lipid (EE), nitrate free extracts (NfE) as well as of crude protein (CP) and nitrogen (N), respectively in pretreated samples and undisturbed crops. Three experiments were conducted, one in a laboratory using near infrared reflectance spectroscopy (NIRS) and two field spectroscopic experiments. Laboratory NIRS measurements were conducted to evaluate to what extent a prediction of quality parameters is possible examining press cakes characterised by a wide heterogeneity of their parent material. 210 samples were analysed subsequent to a mechanical dehydration using a screw press. Press cakes serve as solid fuel for thermal conversion. Field spectroscopic measurements were carried out with regard to further technical development using different field grown crops. A one year lasting experiment over a binary mixture of grass and red clover examined the impact of different degrees of sky cover on prediction accuracies of distinct plant parameters. Furthermore, an artificial light source was used in order to evaluate to what extent such a light source is able to minimise cloud effects on prediction accuracies. A three years lasting experiment with maize was conducted in order to evaluate the potential of off-nadir measurements inside a canopy to predict different quality parameters in total biomass and DM yield using one sensor for a potential on-the-go application. This approach implements a measurement of the plants in 50 cm segments, since a sensor adjusted sideways is not able to record the entire plant height. Calibration results obtained by nadir top-of-canopy reflectance measurements were compared to calibration results obtained by off-nadir measurements. Results of all experiments approve the applicability of spectroscopic measurements for the prediction of distinct biophysical and biochemical parameters in the laboratory and under field conditions, respectively. The estimation of parameters could be conducted to a great extent with high accuracy. An enhanced basis of calibration for the laboratory study and the first field experiment (grass/clover-mixture) yields in improved robustness of calibration models and allows for an extended application of spectroscopic measurement techniques, even under varying conditions. Furthermore, off-nadir measurements inside a canopy yield in higher prediction accuracies, particularly for crops characterised by distinct height increment as observed for maize.
Resumo:
Die spektrale Zusammensetzung von Licht ändert sich, wenn es mit gasförmiger, flüssiger oder fester Materie d.h. mit Ionen, Atomen, Molekülen, Atom- und Molekülverbänden und amorphen oder kristallinen Festkörpern interagiert. Spektroskopische Messungen des Lichts nach der Wechselwirkung geben Aufschluss über die Eigenschaften der zu untersuchenden Materie [2]. Viele der heute noch nicht realisierbaren Ideen und Konzepte in den verschiedensten Anwendungsfeldern der Sensorik benötigen aber für ihre Umsetzung extrem miniaturisierte Spektrometer als Kernbestandteil der Sensoren. Ziel ist es jedoch nicht, dem Anwender dieser Sensoren Informationen über das Spektrum zu liefern, sondern die ausgewerteten spektralen Information als Indikator zum Handeln zu nutzen. Derartige intelligente Sensoren werden in Zukunft unter anderem dazu beitragen intelligente persönliche Umgebungen (engl.: smart rooms, smart buildings, smart cities, samrt personal environments) zu entwerfen und zu realisieren. Grundvoraussetzung für die Erschließung der verschiedenen Anwendungsgebiete sind Spektrometer, die die Anforderungen an niedrige Kosten, hohe Stückzahlen sowie geringe Größe und geringes Gewicht besser als verfügbare Hochleistungsgitter-Spektrometer erfüllen, die zwar bereits in den Bereich weniger Zentimeter miniaturisiert wurden, aber immer noch makroskopisch sind. Ziel dieser Arbeit ist es, zu zeigen, dass es möglich ist, ein Fabry-Pérot Filterfeld herzustellen, welches später den Kern eines Nanospektrometers darstellen soll, bei dem die unterschiedlichen Kavitäten in einem einzigen Schritt mithilfe der Nanoimprint-Technologie erzeugt werden. Angesichts des Forschungsdefizits hinsichtlich der Nutzung der Nanoimprint-Technologie zur Fertigung von in ihrer Höhe exakten Strukturen werden in der vorliegenden Arbeit zwei Nanoimprint-Technologien untersucht: Das Heißprägen und das UV-Prägen. Das Ergebnis dieser Arbeit ist ein Fabry-Pérot Filterfeld, welches mittels geeigneter Nanoimprint-Technologie hergestellt wurde und demonstriert, dass ein Nanospektrometer auf der Basis eines Feldes von Filtern technisch realisierbar ist. Dazu werden im praktischen Teil dieser Arbeit (Untersuchung der Prägeprozesse) verschiedene technologische Methoden und Maschinen vorgestellt und die damit erreichten Ergebnisse hinsichtlich der Fabry-Pérot-Filterfelder verglichen. Die hergestellten Filterfelder wurden systematisch spektral vermessen. Diese Analyse zeigt 64 Transmissionsbänder der einzelnen Filter eines Feldes. Ein Vergleich mit publizierten Arbeiten des Standes der Wissenschaft und Technik zeigt, dass im Rahmen der vorliegenden Arbeit eine deutliche Verbesserung erreicht wurde. So konnte eine drastische Steigerung der transmittierten Lichtintensität der Filter erzielt werden und eine Nanoimprint-Methode identifiziert werden, mit welcher es möglich ist, einen Demonstrator herzustellen. Aufgrund der im Rahmen einer ausführlichen Charakterisierung ermittelten sehr guten experimentellen Ergebnisse des Demonstrators kann ein Nanospektrometer mit dem Fabry-Pérot-Filterfeld als Kernbestandteil in Zukunft hergestellt werden.
Resumo:
Der Europäische Markt für ökologische Lebensmittel ist seit den 1990er Jahren stark gewachsen. Begünstigt wurde dies durch die Einführung der EU-Richtlinie 2092/91 zur Zertifizierung ökologischer Produkte und durch die Zahlung von Subventionen an umstellungswillige Landwirte. Diese Maßnahmen führten am Ende der 1990er Jahre für einige ökologische Produkte zu einem Überangebot auf europäischer Ebene. Die Verbrauchernachfrage stieg nicht in gleichem Maße wie das Angebot, und die Notwendigkeit für eine Verbesserung des Marktgleichgewichts wurde offensichtlich. Dieser Bedarf wurde im Jahr 2004 von der Europäischen Kommission im ersten „Europäischen Aktionsplan für ökologisch erzeugte Lebensmittel und den ökologischen Landbau“ formuliert. Als Voraussetzung für ein gleichmäßigeres Marktwachstum wird in diesem Aktionsplan die Schaffung eines transparenteren Marktes durch die Erhebung statistischer Daten über Produktion und Verbrauch ökologischer Produkte gefordert. Die Umsetzung dieses Aktionsplans ist jedoch bislang nicht befriedigend, da es auf EU-Ebene noch immer keine einheitliche Datenerfassung für den Öko-Sektor gibt. Ziel dieser Studie ist es, angemessene Methoden für die Erhebung, Verarbeitung und Analyse von Öko-Marktdaten zu finden. Geeignete Datenquellen werden identifiziert und es wird untersucht, wie die erhobenen Daten auf Plausibilität untersucht werden können. Hierzu wird ein umfangreicher Datensatz zum Öko-Markt analysiert, der im Rahmen des EU-Forschungsprojektes „Organic Marketing Initiatives and Rural Development” (OMIaRD) erhoben wurde und alle EU-15-Länder sowie Tschechien, Slowenien, Norwegen und die Schweiz abdeckt. Daten für folgende Öko-Produktgruppen werden untersucht: Getreide, Kartoffeln, Gemüse, Obst, Milch, Rindfleisch, Schaf- und Ziegenfleisch, Schweinefleisch, Geflügelfleisch und Eier. Ein zentraler Ansatz dieser Studie ist das Aufstellen von Öko-Versorgungsbilanzen, die einen zusammenfassenden Überblick von Angebot und Nachfrage der jeweiligen Produktgruppen liefern. Folgende Schlüsselvariablen werden untersucht: Öko-Produktion, Öko-Verkäufe, Öko-Verbrauch, Öko-Außenhandel, Öko-Erzeugerpreise und Öko-Verbraucherpreise. Zudem werden die Öko-Marktdaten in Relation zu den entsprechenden Zahlen für den Gesamtmarkt (öko plus konventionell) gesetzt, um die Bedeutung des Öko-Sektors auf Produkt- und Länderebene beurteilen zu können. Für die Datenerhebung werden Primär- und Sekundärforschung eingesetzt. Als Sekundärquellen werden Publikationen von Marktforschungsinstituten, Öko-Erzeugerverbänden und wissenschaftlichen Instituten ausgewertet. Empirische Daten zum Öko-Markt werden im Rahmen von umfangreichen Interviews mit Marktexperten in allen beteiligten Ländern erhoben. Die Daten werden mit Korrelations- und Regressionsanalysen untersucht, und es werden Hypothesen über vermutete Zusammenhänge zwischen Schlüsselvariablen des Öko-Marktes getestet. Die Datenbasis dieser Studie bezieht sich auf ein einzelnes Jahr und stellt damit einen Schnappschuss der Öko-Marktsituation der EU dar. Um die Marktakteure in die Lage zu versetzen, zukünftige Markttrends voraussagen zu können, wird der Aufbau eines EU-weiten Öko-Marktdaten-Erfassungssystems gefordert. Hierzu wird eine harmonisierte Datenerfassung in allen EU-Ländern gemäß einheitlicher Standards benötigt. Die Zusammenstellung der Marktdaten für den Öko-Sektor sollte kompatibel sein mit den Methoden und Variablen der bereits existierenden Eurostat-Datenbank für den gesamten Agrarmarkt (öko plus konventionell). Eine jährlich aktualisierte Öko-Markt-Datenbank würde die Transparenz des Öko-Marktes erhöhen und die zukünftige Entwicklung des Öko-Sektors erleichtern. ---------------------------
Resumo:
Heilkräuter sind während des Trocknungsprozesses zahlreichen Einflüssen ausgesetzt, welche die Qualität des Endproduktes entscheidend beeinflussen. Diese Forschungsarbeit beschäftigt sich mit der Trocknung von Zitronenmelisse (Melissa officinalis .L) zu einem qualitativ hochwertigen Endprodukt. Es werden Strategien zur Trocknung vorgeschlagen, die experimentelle und mathematische Aspekte mit einbeziehen, um bei einer adäquaten Produktivität die erforderlichen Qualitätsmerkmale im Hinblick auf Farbeänderung und Gehalt an ätherischen Ölen zu erzielen. Getrocknete Zitronenmelisse kann zurzeit, auf Grund verschiedener Probleme beim Trocknungsvorgang, den hohen Qualitätsanforderungen des Marktes nicht immer genügen. Es gibt keine standardisierten Informationen zu den einzelnen und komplexen Trocknungsparametern. In der Praxis beruht die Trocknung auf Erfahrungswerten, bzw. werden Vorgehensweisen bei der Trocknung anderer Pflanzen kopiert, und oftmals ist die Trocknung nicht reproduzierbar, oder beruht auf subjektiven Annäherungen. Als Folge dieser nicht angepassten Wahl der Trocknungsparameter entstehen oftmals Probleme wie eine Übertrocknung, was zu erhöhten Bruchverlusten der Blattmasse führt, oder eine zu geringe Trocknung, was wiederum einen zu hohen Endfeuchtegehalt im Produkt zur Folge hat. Dies wiederum mündet zwangsläufig in einer nicht vertretbaren Farbänderung und einen übermäßigen Verlust an ätherischen Ölen. Auf Grund der unterschiedlichen thermischen und mechanischen Eigenschaften von Blättern und Stängel, ist eine ungleichmäßige Trocknung die Regel. Es wird außerdem eine unnötig lange Trocknungsdauer beobachtet, die zu einem erhöhten Energieverbrauch führt. Das Trocknen in solaren Tunneln Trocknern bringt folgendes Problem mit sich: wegen des ungeregelten Strahlungseinfalles ist es schwierig die Trocknungstemperatur zu regulieren. Ebenso beeinflusst die Strahlung die Farbe des Produktes auf Grund von photochemischen Reaktionen. Zusätzlich erzeugen die hohen Schwankungen der Strahlung, der Temperatur und der Luftfeuchtigkeit instabile Bedingungen für eine gleichmäßige und kontrollierbare Trocknung. In Anbetracht der erwähnten Probleme werden folgende Forschungsschwerpunkte in dieser Arbeit gesetzt: neue Strategien zur Verbesserung der Qualität werden entwickelt, mit dem Ziel die Trocknungszeit und den Energieverbrauch zu verringern. Um eine Methodik vorzuschlagen, die auf optimalen Trocknungsparameter beruht, wurden Temperatur und Luftfeuchtigkeit als Variable in Abhängigkeit der Trocknungszeit, des ätherischer Ölgehaltes, der Farbänderung und der erforderliche Energie betrachtet. Außerdem wurden die genannten Parametern und deren Auswirkungen auf die Qualitätsmerkmale in solaren Tunnel Trocknern analysiert. Um diese Ziele zu erreichen, wurden unterschiedliche Ansätze verfolgt. Die Sorption-Isothermen und die Trocknungskinetik von Zitronenmelisse und deren entsprechende Anpassung an verschiedene mathematische Modelle wurden erarbeitet. Ebenso wurde eine alternative gestaffelte Trocknung in gestufte Schritte vorgenommen, um die Qualität des Endproduktes zu erhöhen und gleichzeitig den Gesamtenergieverbrauch zu senken. Zusätzlich wurde ein statistischer Versuchsplan nach der CCD-Methode (Central Composite Design) und der RSM-Methode (Response Surface Methodology) vorgeschlagen, um die gewünschten Qualitätsmerkmalen und den notwendigen Energieeinsatz in Abhängigkeit von Lufttemperatur und Luftfeuchtigkeit zu erzielen. Anhand der gewonnenen Daten wurden Regressionsmodelle erzeugt, und das Verhalten des Trocknungsverfahrens wurde beschrieben. Schließlich wurde eine statistische DOE-Versuchsplanung (design of experiments) angewandt, um den Einfluss der Parameter auf die zu erzielende Produktqualität in einem solaren Tunnel Trockner zu bewerten. Die Wirkungen der Beschattung, der Lage im Tunnel, des Befüllungsgrades und der Luftgeschwindigkeit auf Trocknungszeit, Farbänderung und dem Gehalt an ätherischem Öl, wurde analysiert. Ebenso wurden entsprechende Regressionsmodelle bei der Anwendung in solaren Tunneltrocknern erarbeitet. Die wesentlichen Ergebnisse werden in Bezug auf optimale Trocknungsparameter in Bezug auf Qualität und Energieverbrauch analysiert.
Resumo:
Evolutionäre Algorithmen werden gerne für Optimierungsaufgaben mit sehr vielen Freiheitsgraden eingesetzt. Eine spezielle Konvergenzeigenschaft, daß nämlich der Rechenaufwand nur mit der Wurzel der Anzahl der Unbekannten steigt, prädestiniert sie dafür. Die evolutionären Algorithmen haben aber auch noch eine weitere interessante Eigenschaft: Von der Zielfunktion wird nur verlangt, daß sie monoton ist - nichts weiter. Speziell wird, im Gegensatz zu gradientenbasierten Verfahren, keinerlei Ableitung von der Zielfunktion benötigt. Dadurch können evolutionäre Algorithmen auch in solchen Fällen eingesetzt werden, in denen Ableitungen der Zielfunktion nicht oder nur schwierig zu beschaffen sind. Die evolutionären Algorithmen kommen deshalb mit so geringen Anforderungen an die Zielfunktion aus, weil nur absolute Bewertungen einzelner Punkte (hier Vektoren) im Lösungsraum durch die Zielfunktion vorgenommen werden. Dafür werden eine gewisse Anzahl Punkte gleichzeitig betrachtet. Im direkten Vergleich untereinander relativ günstig liegende Punkte werden für die weitere Rechnung übernommen, die anderen verworfen. Aus den Komponenten der übernommenen Punkte werden nun zufällig neue Punkte zusammengesetzt und ein wenig verschoben. Dann schließt sich der Kreis, indem diese neuen Punkte ebenfalls bewertet werden. Im Verlauf einer solchen Iteration konvergiert die Punktmenge in der Regel gegen ein Optimum. Oft kommt es gerade zu Beginn der Iteration zu schnellen Fortschritten. In dieser Arbeit wird ein Verfahren vorgestellt, bei dem mit Hilfe von evolutionären Algorithmen verbessernde Eingriffe in laufenden Echtzeitsystemen vorgenommen werden. Was gut oder schlecht ist, wird zu diesem Zweck über die Zielfunktion für die Optimierung definiert. Da von der Zielfunktion letztlich das Verhalten des Gesamtsystems abhängt, sollte sie sorgfältig ausgewählt werden. Die Eingriffe in das System sind zeitlich begrenzte Steuertrajektorien. Sie werden zusätzlich zur permanent wirkenden Regelung auf das System aufgebracht. Um die Anzahl der zu optimierenden Variablen in Grenzen zu halten, werden die Steuertrajektorien durch wenige Parameter repräsentiert. Da die Steuertrajektorien im voraus berechnet werden müssen, wird das Systemverhalten mittels eines Modells für eine gewisse, in der Zukunft liegende, Zeitspanne vorhergesagt. Wird die geforderte Qualität während dieser Zeitspanne unterschritten, kann so schon im Vorfeld ein Optimierungslauf des evolutionären Algorithmus durchgeführt werden. Allerdings ist die zur Verfügung stehende Rechenzeit von vornherein begrenzt. Daher ist es wesentlich, daß die mit evolutionären Algorithmen häufig assoziierte lange Rechenzeit nicht benötigt wird. Tatsächlich läßt sich unter Umständen mit wenig Rechenzeit auskommen. Erstens wird nur mit wenigen Variablen gerechnet, zweitens kommt es bei dem beschriebenen Verfahren - halbwegs gutmütige Systeme vorausgesetzt - gar nicht auf die letzte Nachkommastelle, sondern (ähnlich wie bei Sliding-Mode-Regelungen) mehr auf eine Tendenz an. Da evolutionäre Algorithmen aber gerade zu Beginn einer Iteration die größten Fortschritte in Richtung des Optimums machen, kann schon nach vergleichsweise wenigen Schritten eine deutliche Verbesserung der Gesamtsituation erreicht werden. Gerade um eine schnelle Konvergenz zu erreichen, sind die spezielle Ausprägung und die Parameter des evolutionären Algorithmus mit Bedacht zu wählen. Dafür werden im Rahmen der Arbeit einige Experimente durchgeführt. Anhand der Ergebnisse der Experimente können konkrete Empfehlungen für eine günstige Konfiguration des evolutionären Algorithmus gegeben werden. Um es vorwegzunehmen: Zuviel Aufwand beim evolutionären Algorithmus zu treiben, lohnt sich nicht. Schon mit einfachen Konfigurationen können gute Ergebnisse erzielt werden. Die einzige Maßnahme, die sich bei den Experimenten tatsächlich als vorteilhaft herausstellte, war die Aufteilung der Gesamtpopulation (betrachtete Punktmenge im Lösungsraum) in mehrere Subpopulationen. Schließlich wird noch ein Computerprogramm beschrieben, das die Arbeitsweise des vorgestellten Verfahrens am Bildschirm erlebbar macht. Die einzelnen Komponenten werden vom Programm während der Ausführung mit einigen wesentlichen Rechengrößen visualisiert. Der Betrachter erhält so einen besseren Eindruck vom Zusammenwirken der einzelnen Verfahrens-Teile.