187 resultados para Ziel


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit beschäftigt sich mit didaktischen Aspekten einer neuen Aufgabenkultur und mit ihrem Kern, den Modellierungsaufgaben. Im ersten Teil der Dissertation wird ein Überblick über ausgewählte Theorien und empirische Ergebnisse aus den Bereichen Lehr-Lernforschung, Problemlöseforschung, kognitive Psychologie sowie Allgemeindidaktik und den Fachdidaktiken gegeben. Es zeigt sich, dass Schüler-Schwierigkeiten und Schüler-Strategien eine bedeutende Rolle für den Lernprozess spielen, jedoch bei den Modellierungsaufgaben nicht ausreichend erforscht sind. Ziel der vorliegenden Arbeit ist es, Schüler-Schwierigkeiten und -Strategien bei der Bearbeitung von Modellierungsaufgaben empirisch zu erfassen, mit kognitiven Lern- und Problemlösetheorien zu verbinden und erste Bausteine einer Didaktik der Aufgabenkultur zu entwerfen. Drei zentrale Fragestellungen sind dabei: 1. Welche Schwierigkeiten haben Schüler beim Bearbeiten von Modellierungsaufgaben? 2. Welche Strategien wenden sie bei der Aufgabenbearbeitung an? 3. Welche didaktischen Konsequenzen können aufgrund der Antworten auf die erste und zweite Frage für die Didaktik der neuen Aufgabenkultur gezogen werden? Die Analyse der Bearbeitung von drei Modellierungsaufgaben durch vier Neuntklässler unterschiedlicher Kompetenzstufen (12 Fälle) mit Hilfe der Grounded Theory erfolgte hypothesenorientiert und erbrachte folgende Ergebnisse: Die Schüler-Schwierigkeiten bei der Bearbeitung der Modellierungsaufgaben lassen sich in drei Tätigkeitsbereiche aufschlüsseln: (1) die Aufgabe lesen und verstehen, (2) den Zusammenhang zwischen Gegebenheiten der Situation und mathematischer Lösungsstruktur verstehen sowie (3) Umformung mathematischer Strukturen, Ausführung der Rechenoperationen und Interpretieren der Ergebnisse. In den genannten Tätigkeitsbereichen wurden jeweils erfolgversprechende Strategien wie z.B. die Organisationsstrategie „Zeichnen und Beschriften einer Skizze“, die kooperative Strategie „Wechsel zwischen individueller Konstruktion und kooperativer Ko-Konstruktion“ oder die metakognitive Strategie „Planung“ identifiziert und ihre Ausführung dokumentiert. Aus den empirischen Analysen lässt sich eine Reihe von wichtigen Stichpunkten nennen, die einen bedeutsamen Bestandteil der Didaktik einer neuen Aufgabenkultur bilden. Wichtige Stichworte dazu sind die Einbettung der Aufgaben in Lernumgebungen, der Einbezug kooperativer Strategien, ein neues Verständnis von Lehrerinterventionen, das Diagnose und lernbegleitende Unterstützung stärker akzentuiert, Selbstregulierung und Individualisierung, Problem- und Lernprozessorientierung im Unterricht. Wird der letzte Punkt genau analysiert, zeigt sich, dass es zur erfolgreichen Lernprozessgestaltung notwendig ist, längerfristig die Zielperspektive, unter der die Schüler Aufgaben bearbeiten, zu verändern. Beim Bearbeiten der Aufgaben sollen Schülerhandlungen, statt sich nur auf die Lösung einer Aufgabe zu beschränken, auf den individuellen Erwerb von Wissen, Kompetenzen und Strategien ausgerichtet werden (Prozess-Ergebnis-Orientierung). Erreicht werden soll die Prozess-Ergebnis-Orientierung durch eine bessere strategische Durcharbeitung des Unterrichts, der gleichermaßen das Ausschöpfen des Potentials für die Selbststeuerung des Lernens bei den Schülern sowie die dafür notwendige Weiterentwicklung des diagnostischen und unterstützenden Handelns von Lehrerinnen und Lehrern betont.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bauchspeicheldrüsenkrebs ist die vierthäufigste Krebstodesursache in Deutschland. Durch die tiefe Lage des Organs im Körperinneren und das späte Auftreten von Symptomen erfolgt die Diagnose meist zu einem sehr späten Zeitpunkt, zu dem eine Resektion des Tumors in 80% der Fälle nicht mehr möglich ist. Die Hälfte der Patienten verstirbt bereits im ersten Jahr nach Diagnosestellung. Nach heutiger Erkenntnis entwickeln sich Adenokarzinome der Bauchspeicheldrüse über schrittweise histologische Veränderungen, die sogenannten PanIN Läsionen (pancreatic intraepithelial neoplasia). Bis heute fehlen jedoch klinisch einsetzbare Parameter für die Früherkennung des Karzinoms und seiner Vorstufen. Bisher ist nicht vollständig geklärt, welche molekularen Veränderungen hierbei eine wesentliche Rolle spielen. Das Ziel der vorliegenden Arbeit ist, die molekular- und zytogenetische Mutationsinzidenz und -Sequenz im Verlauf der neoplastischen Progression in der PanIN-Sequenz aufzuklären. Unter Anwendung der Fluoreszenz-in-situ-Hybridisierung (FISH) wird weiterführend die Frage beantwortet, ob sich der Nachweis von zytogenetischen Veränderungen in Zellen, die endoskopisch aus dem Pankreassekret gewonnen wurden, als neuartiger Ansatz für eine Frühdiagnostik nutzen lassen. Die molekulargenetischen Analysen zeigen, dass die PanIN-Läsionen aus Geweben mit chronischer Pankreatitis denen aus Geweben mit Karzinomen gleichzusetzen sind. Veränderungen in der Anzahl einzelner Chromosomen, sowie Basenmutationen finden sich bereits in den frühesten Gangläsionen. Die diffuse Verteilung von Genmutationen lässt einen mutagenen Feldeffekt vermuten, in welchem endogene (z.B. Pankreasenzyme, oxidativer Stress) und/oder exogene (z.B. Nikotin, Alkohol) Noxen auf verschiedene Pankreasgänge während einer langen Zeit einwirken. Auf der Basis der erhaltenen Daten kann angenommen werden, dass die prä-neoplastischen Läsionen in Geweben mit chronischer Pankreatitis eine Progression durchlaufen, in der sich sporadische Defekte wie Basenmutationen und Mitosefehler (Aneuplodien) akkumulieren. Die biologische Relevanz für die Tumorentstehung sollte jedoch immer im klinischen Kontext betrachtet werden. In Kombination mit weiteren Parametern (z.B. Alter, Dauer der Pankreatitis) könnte dies eine Möglichkeit bieten, das Risiko für die Entstehung eines Karzinoms individuell zu bestimmen und somit Patienten frühzeitig genug vor der Manifestation eines Tumors einer (Teil-)Resektion des Organs zuzuführen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit ist Teil eines Verbund-Forschungsprojektes mit dem Ziel, eine Präzisions-Bodenbearbeitung in Abhängigkeit von verschiedenen Bodenparametern sowie dem Bodenbedeckungsgrad zu realisieren. Ziel dieses Teilprojektes war die Bereitstellung einer Online-Messung des Bedeckungsgrades, um die Bearbeitungsintensität während der Feldüberfahrt regeln zu können: Ein Kamerasensor vorne am Schlepper ermittelt die Bodenbedeckung und ein Tiefen-Sollwert wird an das Regelsystem eines Gerätes zur teilfächenspezifischen Bodenbearbeitung ausgegeben. Da unter Feldbedingungen Methoden zur Bedeckungsgradmessung nur relativ zueinander verglichen werden können, wurde zunächst ein Laborvergleich mit wohldefinierten Bodenbedeckungen durchgeführt, um die prinzipiellen Stärken und Schwächen von Bildanalyse sowie zwei visuellen Methoden (Gitterraster-Methode und „Meterstick-Methode“) zu ermitteln: • Eine visuelle Methode, die auf einer begrenzten Anzahl von einfachen Stichprobenbeobachtungen beruht (Gitter), überschätzte den Bedeckungsgrad systematisch, wobei dieser Effekt unter Feldbedingungen vermutlich klein gegenüber der bekannten Schwankungsbreite zwischen Messungen verschiedener Beobachter ist. • Eine visuelle Methode, die auch Größe und Orientierung des Strohs berücksichtigt (Meterstick), lieferte präzise mittlere Messwerte. Diese Methode war die mit Abstand arbeitsaufwändigste. • Nach einer einfachen Korrektur des Abbildungsfehlers des Kameraobjektivs war auch die Bildverarbeitungs-Methode in der Lage, die bekannten tatsächlichen Bedeckungsgrade exakt darzustellen, bei gleichzeitig der geringsten Schwankungsbreite der Messwerte. Die Online-Messung der Bodenbedeckung durch Ernterückstände ist bisher jedoch ungelöst. Obwohl in früheren Untersuchungen Texturmerkmale oder Farbunterschiede erfolgreich genutzt wurden, um den Bedeckungsgrad zu bestimmen, wird eine Bedienperson zur interaktiven Festlegung bestimmter Parameter benötigt. Um den Prototypen eines onlinefähigen Kamerasensors zu entwickeln, wurden geeignete Ausrüstung und Bedingungen zur Bildaufnahme untersucht und verschiedene Auswertealgorithmen mit Hilfe einer wissenschaftlichen Bildanalysesoftware geschrieben und getestet: • Da im Nahinfraroten zwischen ca. 800 und 1400 nm der größte Intensitäts-Kontrast zwischen Stroh und Boden besteht wurde zur Bildaufnahme eine Schwarz-Weiss-CCD-Kamera mit aufgesetztem Infrarotfilter gewählt. Eine Diffusor-Box sorgte für homogene Beleuchtungsbedingungen. • Zwei auf Kantendetektion und automatischer Schwellwertsetzung basierende Versionen („A“ und „B“) eines „klassischen“ Segmentierungsalgorithmus wurden geschrieben. Durch einen iterativen Ansatz konnten geeignete Thresholding-Verfahren abhängig von der Größenordnung der Bodenbedeckung verwendet werden. Die zur Online-Regelung der Bearbeitungstiefe nötige Beschränkung der Prozesslaufzeit auf ca. 1000 ms/Bild konnte eingehalten werden. • Eine alternative automatisierbare Kontrollmethode wurde entwickelt, welche Merkmale der Grauwerthistogramme der Stroh/Boden-Bilder auswertet (Algorithmus „C“). Dieser Ansatz ist nochmals deutlich schneller als eine Bildsegmentierung (ca. 5 – 10 Bilder/s). • Der Sensor wurde an einem Quad montiert und die Bodenbedeckung auf drei Testfeldern untersucht. Zwischen den Messergebnissen eines Algorithmus vom Typ A/B und dem Ansatz C wurde eine Pearson-Korrelation von 0,967 für die Messwertegesamtheit gefunden. • Auf Versuchsparzellen mit definiert aufgebrachten Strohmengen (ein weiteres Teil-projekt) wurden an GPS-referenzierten Punkten Bilder mit dem Sensor aufgenommen und Referenzmessungen mit der visuellen Gitterraster-Methode durchgeführt. Zwischen der Bildverarbeitung (A, B) und dem Gitter ergaben sich befriedigende Pearson-Korrelationen im Bereich von 0,7 – 0,8. Allerdings waren für hohe Bedeckungen die Ergebnisse des Sensors meist signifikant niedrigere als der Mittelwert von drei das Gitter auszählenden Personen. Eine Kontrolle mit Ansatz C ergab, dass die Histogramm-Merkmale der einzelnen Bilder deutlich besser mit den per Bildverarbeitung ermittelten Bedeckungsgraden korrelierten als mit den Gittermessungen. – Insgesamt erwies sich die schnelle Bildverarbeitung als geeignet für den Einsatz als neue Referenzmethode zur Messung der Bodenbedeckung durch Ernterückstände. • Da der Aufbau des Sensors ohne die Diffusor-Box praxisgerechter ist, besteht weiterer Forschungsbedarf in Bezug auf die dann auftretenden Probleme durch stark wechselnde Beleuchtung und Schattenwurf. • In einem letzten Schritt wurde der Kamerasensor erfolgreich in ein bereits entwickeltes System zur teilflächenspezifischen Bodenbearbeitung an der Universität Kiel integriert. Eine Regelung der Arbeitstiefe durch den Kamerasensor war problemlos möglich, allerdings gilt es noch belastbare Kriterien für die Vorgabe von Tiefen-Sollwerten in Abhängigkeit vom Bedeckungsgrad zu entwickeln.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel dieser Arbeit war es, die Bedeutung des C und N mit Herkunft aus der Rhizodeposition für das mikrobielle Wachstum und den C- und N-Umsatz in der Rhizosphäre in Abhängigkeit von der Entfernung zur Wurzel zu untersuchen. Dazu wurde als wesentliche methodische Voraussetzung ein künstliches Rhizosphärensystem entwickelt, um die durch die Rhizodeposite induzierten Prozesse an der Grenzfläche zwischen Wurzeloberfläche und Boden zu untersuchen. Dieses eingesetzte Rhizosphärensystem wurde nach einem Vorbild eines in schon vielfältigen Untersuchungen der Rhizosphäre eingesetzten Systems von GAHOONIA und NIELSEN (1991) konzipiert. Zur Verfolgung der pflanzlichen C- und N-Rhizodeposition im Boden wurden 13C- und 15N-Tracer-Isotopen-Techniken zur Isotopenmarkierung der Testpflanzen eingesetzt. Zur Probenahme des Rhizosphärenbodens in räumlichen Abstand zur künstlichen Rhizoplane wurde eine Schneidvorrichtung nach FITZ et al. (2003) eingesetzt, die es ermöglicht frische Bodenproben in definiertem Abstand zur künstlichen Rhizoplane zu schneiden. Das Rhizosphärensystem wurde in 13C- und 15N-Doppelmarkierungsexperimenten mit Lolium perenne, Triticum aestivum und Avena sativa eingesetzt.Das unterschiedliche Ansprechen der mikrobiellen Gemeinschaft auf den Substrateintrag in unterschiedlicher Entfernung zur Wurzel zeigte komplexe Wechselwirkungen in Bezug auf das mikrobielle Wachstum, den mikrobiellen Umsatz, den Substrateintrag aus der Rhizodeposition und den stimulierten Abbau der nativen organischen Bodensubstanz. Der Eintrag von Rhizodepositen stellt daher eine bedeutende Funktion in der Regulation der mikrobiellen Biomasse und der Prozesse des Umsatzes der organischen Bodensubstanz während und wahrscheinlich bis nach der Vegetationsperiode dar. Die simultane Verfolgung von Rhizodepositions-C und -N im Boden und deren Funktionen innerhalb der Rhizosphäre, gerade im Hinblick auf die mikrobielle Biomasse und den Umsatz der organischen Substanz im Boden, führt zu einem besseren Verständnis der komplexen wechselseitigen Prozesse zwischen Pflanze und Boden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel dieser Studie war es, zu untersuchen, ob sich die relative Position Nordhessens im Wettbewerb mit den umliegenden Regionen seit der im Jahr 2002 durchgeführten Studie im Hinblick auf Indikatoren für die wissensbasierte Entwicklung verbessert hat. Als Ergebnis kann festgehalten werden, dass sich Nordhessen in einem Aufholprozess befindet: Alle relevanten wissensbasierten Indikatoren, wie etwa die Anzahl der Schulabgänger mit Hochschulreife oder der Anteil der Unternehmen, die der Hoch- oder Spitzentechnologie zuzuordnen sind, haben sich positiv entwickelt. In gleicher Weise haben sich alle Indikatoren auch in Relation zur jeweiligen Ausprägung der Nachbarregionen positiv erändert. Relativ gesehen hat sich die Position der Region also verbessert. Absolut betrachtet bleibt es aber dabei, dass die Region in Hinblick auf zentrale Indikatoren der wissensbasierten Entwicklung einen deutlichen Rückstand hat. So liegt die Hochqualifiziertenquote weiterhin 25%, die Anzahl der Unternehmen der Hochtechnologie 50% unter dem Durchschnitt der von uns untersuchten Vergleichsregionen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der vorliegende Bericht soll die Ergebnisse einer Untersuchung der wirtschaftsgeschichtlichen Entwicklung der Regionen Kassel/Nordhessen und Jena/Thüringen zusammenfassen. Als leitende Frage hinter der Untersuchung steht das Problem, inwieweit das gegenwärtige Innovationspotential der beiden Regionen von den Gegebenheiten ihrer Geschichte bestimmt wird. Dabei sollen mögliche Hinweise auf die geschichtlichen Grundlagen heutiger Unterschiede in den Untersuchungsregionen in den Blick gerückt werden. Von besonderem Interesse ist in diesem Zusammenhang, dass es sich sowohl in Bezug auf Kassel als auch auf Jena um klassische Industriestädte handelt, die darüber hinaus entscheidend durch das Vorhandensein eines Großunternehmens geprägt worden sind. Ziel der Untersuchung war es, in der Geschichte vor allem diejenigen Momente auszumachen, die für die Entstehung von regionalen Innovationssystemen förderlich oder hemmend wirksam geworden sind. Der Untersuchung liegt ein kulturgeschichtlicher Ansatz zugrunde, der die Wirtschaftsgeschichte zwar in den Vordergrund stellt, diese aber als einen Faktor unter anderen begreift. So werden politische und kulturelle sowie alltags- und mentalitätsgeschichtliche Aspekte einbezogen. Der zeitliche Untersuchungsrahmen im engeren Sinne liegt zwischen dem ausgehenden 19. Jahrhundert und der Wiedervereinigung der beiden deutschen Staaten im 20. Jahrhundert. Zwar war es notwendig, auch den Zeitraum vor der Epochenzäsur der „Zweiten Wirtschaftlichen Revolution“ einzubeziehen, doch ist mit dieser ein sinnvoller Ansatzpunkt für eine ausführlichere Untersuchung gegeben. Der Bericht gliedert sich in einen ersten Abschnitt, der sich mit der Region Kassel/Nordhessen befasst, und einen zweiten Abschnitt zur Region Jena/Thüringen. Zuerst werden jeweils die politisch-historischen Rahmenbedingung und die industrielle Entwicklung der Region erörtert. Es folgt die Betrachtung der Unternehmensentwicklung der jeweiligen Großbetriebe vor dem geschichtlichen Hintergrund. Deren Wechselwirkung mit Politik und Kultur wird nachgegangen, bevor dann die Frage nach den Folgen für das regionale Innovationspotential gestellt wird. Hier können nur einige Mutmaßungen angestellt werden, ein sicheres Urteil ist mit den vorliegenden Kenntnissen nicht möglich. Abschließend folgt ein Vergleich der Regionen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Europäische Markt für ökologische Lebensmittel ist seit den 1990er Jahren stark gewachsen. Begünstigt wurde dies durch die Einführung der EU-Richtlinie 2092/91 zur Zertifizierung ökologischer Produkte und durch die Zahlung von Subventionen an umstellungswillige Landwirte. Diese Maßnahmen führten am Ende der 1990er Jahre für einige ökologische Produkte zu einem Überangebot auf europäischer Ebene. Die Verbrauchernachfrage stieg nicht in gleichem Maße wie das Angebot, und die Notwendigkeit für eine Verbesserung des Marktgleichgewichts wurde offensichtlich. Dieser Bedarf wurde im Jahr 2004 von der Europäischen Kommission im ersten „Europäischen Aktionsplan für ökologisch erzeugte Lebensmittel und den ökologischen Landbau“ formuliert. Als Voraussetzung für ein gleichmäßigeres Marktwachstum wird in diesem Aktionsplan die Schaffung eines transparenteren Marktes durch die Erhebung statistischer Daten über Produktion und Verbrauch ökologischer Produkte gefordert. Die Umsetzung dieses Aktionsplans ist jedoch bislang nicht befriedigend, da es auf EU-Ebene noch immer keine einheitliche Datenerfassung für den Öko-Sektor gibt. Ziel dieser Studie ist es, angemessene Methoden für die Erhebung, Verarbeitung und Analyse von Öko-Marktdaten zu finden. Geeignete Datenquellen werden identifiziert und es wird untersucht, wie die erhobenen Daten auf Plausibilität untersucht werden können. Hierzu wird ein umfangreicher Datensatz zum Öko-Markt analysiert, der im Rahmen des EU-Forschungsprojektes „Organic Marketing Initiatives and Rural Development” (OMIaRD) erhoben wurde und alle EU-15-Länder sowie Tschechien, Slowenien, Norwegen und die Schweiz abdeckt. Daten für folgende Öko-Produktgruppen werden untersucht: Getreide, Kartoffeln, Gemüse, Obst, Milch, Rindfleisch, Schaf- und Ziegenfleisch, Schweinefleisch, Geflügelfleisch und Eier. Ein zentraler Ansatz dieser Studie ist das Aufstellen von Öko-Versorgungsbilanzen, die einen zusammenfassenden Überblick von Angebot und Nachfrage der jeweiligen Produktgruppen liefern. Folgende Schlüsselvariablen werden untersucht: Öko-Produktion, Öko-Verkäufe, Öko-Verbrauch, Öko-Außenhandel, Öko-Erzeugerpreise und Öko-Verbraucherpreise. Zudem werden die Öko-Marktdaten in Relation zu den entsprechenden Zahlen für den Gesamtmarkt (öko plus konventionell) gesetzt, um die Bedeutung des Öko-Sektors auf Produkt- und Länderebene beurteilen zu können. Für die Datenerhebung werden Primär- und Sekundärforschung eingesetzt. Als Sekundärquellen werden Publikationen von Marktforschungsinstituten, Öko-Erzeugerverbänden und wissenschaftlichen Instituten ausgewertet. Empirische Daten zum Öko-Markt werden im Rahmen von umfangreichen Interviews mit Marktexperten in allen beteiligten Ländern erhoben. Die Daten werden mit Korrelations- und Regressionsanalysen untersucht, und es werden Hypothesen über vermutete Zusammenhänge zwischen Schlüsselvariablen des Öko-Marktes getestet. Die Datenbasis dieser Studie bezieht sich auf ein einzelnes Jahr und stellt damit einen Schnappschuss der Öko-Marktsituation der EU dar. Um die Marktakteure in die Lage zu versetzen, zukünftige Markttrends voraussagen zu können, wird der Aufbau eines EU-weiten Öko-Marktdaten-Erfassungssystems gefordert. Hierzu wird eine harmonisierte Datenerfassung in allen EU-Ländern gemäß einheitlicher Standards benötigt. Die Zusammenstellung der Marktdaten für den Öko-Sektor sollte kompatibel sein mit den Methoden und Variablen der bereits existierenden Eurostat-Datenbank für den gesamten Agrarmarkt (öko plus konventionell). Eine jährlich aktualisierte Öko-Markt-Datenbank würde die Transparenz des Öko-Marktes erhöhen und die zukünftige Entwicklung des Öko-Sektors erleichtern. ---------------------------

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit behandelt die numerische Simulation von Rührbehältern und Flotationszellen mit Hilfe kommerzieller Software basierend auf einer Finite-Volumen-Methode. Ziel der Untersuchungen ist es, ein Verfahren zu entwickeln, das eine Beurteilung der Anlagen in Abhängigkeit verschiedener geometrischer und strömungsmechanischer Parameter ermöglicht und so unterstützend zur Prozessauslegung beiträgt. An zwei einfachen Geometrien (Strömungsrohr, Scheibenrührer) werden grundsätzliche Parameter und Fragestellungen erläutert, welche für die Simulation von Bedeutung sind und der Verifzierung des eingesetzten Programmpakets dienen. Die Betrachtung industriell eingesetzter Flotationsmaschinen erfolgt beispielhaft an zwei Anlagen mit unterschiedlichen Rotor-Stator-Systemen. Eine Modellzelle im Labormaßstab dient zur Berechnung der Verweilzeitverteilung und zur Charakterisierung wichtiger Einflussgrößen (Drehzahl, Volumenstrom, Durchströmungskonfiguration, Partikelmasse, Randbedingung). Die numerisch gewonnenen Ergebnisse werden dabei erfolgreich mit Experimenten validiert. Ein Flotationssegment in Originalgröße liefert weitere Ergebnisse zur Hydrodynamik. Die Berechnung wird stationär und transient vorgenommen, um die Bedeutung der Zeitabhängigkeit bewerten zu können. Damit ist ferner eine Aussage zum Einlaufverhalten der Strömung möglich, indem das Drehmoment am Rührer als Funktion der Zeit ausgewertet wird. Eine Bewertung erfolgt über die Bestimmung der Verweilzeitverteilung in Abhängigkeit verschiedener Strömungskonfigurationen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Untersuchung hat das Ziel, die Stärke des Regionalen Innovationssystems Nordhessen mit Blick auf die Unternehmen zu analysieren. Sie basiert auf Erhebungen im Rahmen des von der Volkswagenstiftung geförderten Projekts „Regional Innovation Systems“ (RIS). Einen Schwerpunkt dieses Forschungsprojektes bildete eine breit angelegte Unternehmensbefragung in der Region Nordhessen, deren Ergebnisse in diesem Beitrag vorgestellt werden. Zudem werden drei vergleichende Auswertungen vorgenommen: (i) Ein Vergleich mit den Ergebnissen einer Unternehmensbefragung in Nordhessen aus dem Jahr 1998 erlaubt es, Veränderungen der Innovationskraft der nordhessischen Unternehmen sowie die Entwicklung ihrer Einbindung in das RIS bzw. eine Bewertung des RIS zwischen 1998 und 2006 darzustellen. (ii) Die Auswertungen der aktuellen Befragung geben zwar einen Einblick in die Innovationskraft des RIS Nordhessen, sagen aber nichts darüber aus, wie diese im Vergleich zu anderen Regionen aufgestellt ist. Deswegen werden die aktuellen Ergebnisse mit den Ergebnissen einer im Rahmen des Forschungsprojektes RIS zeitgleich durchgeführten, identischen Unternehmensbefragung in der Region Jena verglichen. (iii) Zusätzlich zu diesen Auswertungen ist es möglich, die Daten für Nordhessen mit einer weiteren, speziellen Gruppe von Unternehmen zu vergleichen: den Ausgründungen aus der Universität Kassel. Dieser Vergleich wird vorgenommen, um festzustellen, ob sich diese Unternehmen von den anderen Unternehmen hinsichtlich ihrer Innovationskraft und der Beteiligung am RIS unterscheiden. Aus der Auswertung der Unternehmensbefragung und den drei Vergleichen lassen sich dann Schlussfolgerungen für Politikmaßnahmen ziehen, die die Entwicklung eines RIS unterstützen könnten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Niedrige Milchpreise setzen die deutschen Milchbauern unter Kostendruck und veranlassen sie, die Laktationsleistung der Kühe zu erhöhen. Im Zusammenhang mit weiteren Milchleistungssteigerungen kommt einer wiederkäuergerechten Fütterung im Hinblick auf die Vermeidung gesundheitlicher Risiken eine besondere Bedeutung zu. Ziel des Forschungsvorhabens war es, eine Messmethode zur Bestimmung von Fress- und Wiederkäuaktivitäten zu entwickeln, welche die bisherigen methodischen Unzulänglichkeiten überwindet und ermöglicht den qualitativen und quantitativen Einfluss tierindividueller, fütterungsbedingter und leistungsbezogener Faktoren zu erfassen. Hierzu wurde der Prototyp eines Messsystem entwickelt, das in einem Messhalfter integriert wurde. Das Messsystem beinhaltet einen Sensor zur Erfassung der Kaubewegungen, einen Datenlogger für die Speicherung der Messdaten, ein Akkupack zur Energieversorgung, und eine Auswertungssoftware für die automatische Analyse der erfassten Messdaten. Zwecks Überprüfung des Prototypen unter Praxisbedingungen wurden im Rahmen eines Fütterungsversuches Messungen der Fress- und Wiederkäuaktivität durchgeführt. Die Anwendung des Prototypen auf dem Versuchsbetrieb deckte die folgenden methodischen Unzulänglichkeiten auf: - elektromagnetische Störfelder, hervorgerufen durch die auf den Versuchsbetrieb verwendeten Wiegetröge zur Erfassung der Futteraufnahme, - Fehlmessungen aufgrund verrutschender Halfter, bedingt durch die große Variation in den Schädelmaßen der Versuchstiere, - keine hinreichende Differenzierung der einzelnen Verhaltenstypen bei schnell aufeinanderfolgenden unterschiedlichen Verhaltensmustern. Die aufgetretenen elektrischen Probleme konnten mittels einer verbesserten Abschirmung gegen elektromagnetische Felder behoben werden. Fehlmessungen aufgrund sich verschiebender Halfter konnten durch eine Änderung des Halfterdesigns verringert werden. Es war jedoch nicht möglich, diese Störgröße gänzlich zu beseitigen. Ebenso war es nicht möglich, die Differenzierung der einzelnen Verhaltenstypen bei schnell aufeinanderfolgenden unterschiedlichen Verhaltensmustern mittels einer Änderung im Auswertealgorithmus zu verbessern. Um diesen beiden Problemen Rechnung zu tragen, wurden die Ergebnisse der Auswertungssoftware mittels einer Sichtkontrolle der Messwertkurven validiert. Nach der Validierung verblieben für die statistische Auswertung folgende Messergebnisse: - Anzahl auswertbarer Einzeltiere: 9 - Anzahl auswertbarer Messtage: 73 - Anzahl auswertbarer Wiederkäuphasen: 512 - Anzahl auswertbarer Fressphasen: 676 - Anzahl auswertbarer Einzelboli: 11.347 In der statistischen Auswertung wurden Korrelation der Charakteristika der Wiederkäuboli: Länge des Bolus in Sekunden, Anzahl der Kauschläge pro Bolus und der Frequenz der Kauschläge pro Sekunde und Bolus, der Wiederkäuphasen: Länge der Wiederkäuphasen in Minuten, Anzahl Boli in der Wiederkäuphase und die Anzahl der Kauschläge in der Wiederkäuphase und der Wiederkäudauer pro Tag (in Minuten) mit den erfassten Einflussfaktoren: tierindividuelle Parameter, Milchparameter und Fütterungsparameter berechnet. Um wechselseitige Beziehungen der Einflussfaktoren untereinander besser darstellen zu können, wurde im nächsten Schritt eine multiple lineare Regression durchgeführt. Zur Erfassung der Gewichtung der Einflussfaktoren wurde als dritte statistische Methode eine Regressionsbaumanalyse berechnet. Die Charakteristika der Wiederkäuboli wiesen eine große tierindividuelle Variation zwischen den Einzeltieren auf. Die Milchkühe käuten im Mittel 46 ± 12 Sekunden wieder und vollzogen in dieser Zeit 60 ± 25 Kauschläge bei einer mittleren Kauschlagfrequenz von 1,3 ± 0,4 Kauschlägen pro Sekunde. Die größte tierindividuelle Variation mit 53,1 % wies der Parameter Anzahl der Kauschläge pro Bolus auf. Die Frequenz der Kauschläge pro Bolus wurde in hohem Maße von der Anzahl der Kauschläge pro Bolus beeinflusst (R² = 0,71) und nur in geringem Maße von der Länge des Bolus (R² = 0,21). Das geringe Bestimmtheitsmaß der multiplen Regression der Länge des Bolus (R² = 0,18) deutet auf eine sehr geringe Beeinflussung durch alle erfassten Einflussfaktoren hin. Ebenso wie die Charakteristika der Wiederkäuboli wiesen die Charakteristika der Wiederkäuphasen eine hohe inter- und intraindividuelle Variation (>45%) und bei allen Versuchstieren eine hohe Korrelation der Charakteristika untereinander auf (r = 0,74 bis r =0,98). In der Regressionsanalyse konnte keiner der geprüften Einflussfaktoren einen nennenswerten Erklärungswert liefern. Die Variationen in der Länge der Wiederkäuphasen, Anzahl der Boli pro Phase und der Anzahl der Kauschläge pro Phase wurden weder von der Fütterung, noch vom Tier oder der Milchleistung in nennenswerter Weise geprägt. Eine Beurteilung dieser Einflussfaktoren anhand der Beobachtung einzelner Wiederkäuphasen ist somit nicht möglich. Die Fress- und Wiederkäudauer pro Tag wiesen eine große tierindividuelle Variation auf (37,9 % bzw. 29,0 %). Bei beiden Verhaltensweisen ist die intraindividuelle Variation geringer als die interindividuelle Variation (Fressdauer: 37,9 zu 23,6 %; Wiederkäudauer: 29,0 zu 9%). Der geringe Wert des intraindividuellen Variationskoeffizienten der Wiederkäudauer pro Tag legt eine starke tierindividuelle Determinierung der Wiederkäuaktivität nahe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zusammenfassung zur Inaugural-Dissertation: Von „weiblichen Vollmenschen“ und Klassenkämpferinnen – Frauengeschichte und Frauenleitbilder in der proletarischen Frauenzeitschrift „Die Gleichheit“ (1891-1923). Die wissenschaftliche Bedeutung, die der SPD-Frauenzeitschrift „Die Gleichheit“ (1891-1923) als Quelle der Geschichte der Frauenbewegung zukommt, spiegelt sich weder in Darstellungen zur Geschichte der SPD noch in der Geschichtsschreibung der deutschen Frauenbewegung wider. Auch ist die „Gleichheit“, Presseorgan der organisierten proletarischen Frauenbewegung Deutschlands und der Sozialistischen Fraueninternationale, bisher kaum Gegenstand einer umfassenden publizistischen Analyse gewesen. Es galt daher, zumindest das Hauptblatt der „Gleichheit“, die an ihr beteiligten Personen, ihre Strukturen und ihr Selbstverständnis möglichst detailliert und anhand publizistischer Kriterien darzustellen. Wandlungen ihres Erscheinungsbildes, ihrer editorischen und personellen Strukturen oder ihres Seitenumfangs markieren entscheidende Wendepunkte der deutschen Politik während des deutschen Kaiserreichs und der Weimarer Republik. Ihr Niveau lag deutlich über dem einer allgemeinen Frauenzeitschrift, eines Mitteilungs- oder Unterhaltungsblattes. Ihr Ziel war es, sowohl politisches Schulungsblatt für die engagierten Genossinnen als auch Agitationsmittel für die indifferenten Proletarierinnen zu sein. Inwieweit sie mit dieser Zielsetzung erfolgreich war, kann jedoch selbst die große Zahl ihrer Abonnements (der Höchststand lag 1914 bei 124.000 Exemplaren) nicht validieren. Tatsächlich ließ gerade der von ihrer langjährigen Redakteurin Clara Zetkin (1857-1933) angestrebte hohe intellektuelle Anspruch die „Gleichheit“ jedoch nicht zu einem Medium der Massen werden. Im Mai 1917 entschied sich der SPD-Parteivorstand, der dem Burgfrieden abträglichen, konsequent sozialistischen und internationalistischen Haltung Zetkins keine öffentliche Plattform mehr zu geben und entließ sie aus der Redaktion. Die Leitung der „Gleichheit“, die auch bis zu diesem Zeitpunkt durchaus keine „One-Woman-Show“ war, oblag schließlich bis zu ihrem letztmaligen Erscheinen im September 1923 noch einigen weiteren Redakteurinnen und Redakteuren (Marie Juchacz (1879-1956), Heinrich Schulz (1872-1932), Clara Bohm-Schuch (1879-1936), Elli Radtke-Warmuth (?-?) und Mathilde Wurm (1874-1935)). Deren Tätigkeit für die „Gleichheit“ wurde jedoch bisher kaum wissenschaftlich reflektiert. Dies gilt auch für die ausgesprochen internationale Zusammensetzung oder die männlichen Mitglieder des MitarbeiterInnenstabes. Indem sie sich selbst in der Tradition und als Teil eines Netzwerkes deutscher Frauen­öffentlichkeit („Die Frauen-Zeitung“ (1849-1852), „Die Staatsbürgerin“ (1886) und „Die Arbeiterin“ (1890-1891)) sah und indem sie besonders mittels frauen­geschichtlicher und frauenbiographischer Inhalte das Selbstbewusstsein ihrer Leserinnen zu fördern versuchte, betrieb die „Gleichheit“ gezielt Frauengeschichtsschreibung. Zahlreiche Artikel porträtieren Frauen aus Geschichte und Gegenwart und stellen in ihrem elaborierten Stil „Typen“ bzw. „Vorbilder“ dar. Um die Frage beantworten zu können, welche Frauen der Geschichte und welche ihrer Charaktereigenschaften von der „Gleichheit“ als vorbildlich für Sozialdemokratinnen erachtet wurden, wurden die biographischen Artikel zu 173 Frauen nach Analyse ihrer Inhalte und ihres Duktus vier Frauenleitbildern zugeordnet. Die Kategorisierung der einzelnen Frauenleitbilder „weiblicher Vollmensch“, „sozialistische Mutter“, „sozialistische Ehefrau“ und „Klassenkämpferin“ lehnt sich wiederum an den von Zetkin bereits 1898 veröffentlichten Artikel „Nicht Haussklavin, nicht Mannweib, weiblicher Vollmensch” (Die Gleichheit, Jg. 08/ Nr. 02/ 19.11.1898/ S. 1.) an. Sämtliche frauenbiographischen Artikel appellieren an die „Gleichheit“-Leserinnen, die oft selbst gesetzten Grenzen ihrer Handlungs – und Entwicklungsmöglichkeiten zu sprengen. Die sich daraus ableitenden Identifikationsangebote waren somit nicht auf dem Reissbrett ent­worfen, sondern basierten auf geschichtlicher Erfahrung und antizipierendem Bewusstsein. Diese Leitbilder versuchten, Realität und Utopie miteinander zu verbinden und konnten daher kaum frei von Widersprüchen sein. Wie die „Gleichheit“ selbst, so blieben auch ihre Ansätze politischer Frauen­bildung teilweise zwischen revolu­tionärem Umsturz und traditioneller Kontinuität gefangen. Indem sich die „Gleichheit“ historischer Vorbilder bediente, machte sie jedoch konkrete Ansprüche geltend: Sie forderte den weiblichen Anteil an Geschichte, an politischer Macht und am öffentlichen Bewusstsein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel der vorliegenden Arbeit war es, einen Beitrag zur Resistenzforschung bei Tomaten gegenüber P. infestans zu leisten, um erste Grundlagen für eine mögliche Züchtungsstrategie auf Basis unterschiedlicher quantitativer Resistenzen zu erarbeiten. Hierzu wurde untersucht, inwieweit unterschiedliche qualitative und quantitative Resistenzen bei Tomatenblättern und -früchten vorliegen, und ob hierfür verantwortliche Mechanismen identifiziert werden können. Zudem wurde untersucht, ob isolatspezifische quantitative Resistenzen identifiziert werden können. Zu diesem Zweck wurde mit einer erweiterten Clusteranalyse, basierend auf einer modifizierten Sanghvi-T2 Distanz, ein statistisches Verfahren entwickelt, welches die Identifikation von quantitativen, isolatspezifischen Resistenzen unter der Berücksichtigung der Variabilität ermöglicht. Des weiteren wurde geprüft, inwieweit zwischen den Resistenzausprägungen auf dem Blatt und den Resistenzausprägungen auf der Frucht ein Zusammenhang besteht und inwieweit die im Labor beobachteten Resistenzen unter Freilandbedingungen eine Rolle spielen. Im Labortest wurde die qualitative und quantitative Blattresistenz von 109 Akzessionen aus elf Lycopersicon und Solanum Arten gegenüber zwölf unterschiedlich aggressiven und teilweise auch unterschiedlich virulenten P. infestans Isolaten untersucht (Kap. 3). Die Früchte von 38 Tomatensorten wurden auf ihre Resistenz gegenüber drei P. infestans Isolaten geprüft. Zusätzlich wurde der Einfluss der Fruchtnachreife auf die Resistenzeigenschaften der Tomatenfrüchte gegenüber P. infestans analysiert (Kap. 4). Insgesamt 40 Sorten wurden auch unter Feldbedingungen auf Blatt- und Fruchtbefall untersucht (Kap. 5). Die frühen Stadien der Infektion von Tomatenblättern mit P. infestans Sporangien wurden mikroskopisch bei acht Tomatensorten mit unterschiedlichen quantitativen Reaktionsprofilen und drei Isolaten untersucht (Kap. 6). Hierzu wurden die Entwicklungsstadien von P. infestans Sporangien nach 24h, 48h und 60h nach der Inokulation auf und im Blatt mit der Calcofluor und der KOH - Anilin Blau Färbung sichtbar gemacht. Das Auftreten und die Lokalisation von H2O2 im Blatt nach 48h und 60h nach der Inokulation in Reaktion auf die Infektion wurde mithilfe einer DAB (3,3′ - Diaminobenzidine) Färbung untersucht. Es wurden einige, z.T. auch wahrscheinlich neue, qualitative Blattresistenzen gegenüber P. infestans gefunden, jedoch war keine der 109 Akzessionen vollständig resistent gegenüber allen Isolaten. Für die quantitative Resistenz von Blättern lagen in vielen Fällen isolatspezifische Unterschiede vor. Die Sorte x Isolat Interaktionen konnten mit Hilfe der erweiterten Clusteranalyse erfolgreich analysiert werden und die Akzessionen in Gruppen mit unterschiedlichen quantitativen Resistenzprofilen bzgl. der Interaktion mit den Isolaten und des Resistenzniveaus eingeteilt werden. Für die Fruchtresistenz konnten keine qualitativen Resistenzen gegenüber den drei getesteten Isolaten gefunden werden. Im Gegensatz dazu unterschieden sich die Tomatensorten in ihrer quantitativen Resistenz und Sorten und Isolate interagierten signifikant. Auch für die Fruchtresistenz konnten Gruppen mit unterschiedlichen quantitativen Reaktionsprofilen gebildet werden. Insgesamt nimmt die Anfälligkeit von Tomatenfrüchten mit zunehmender Reife kontinuierlich und signifikant ab. Unter Laborbedingungen korrelierten nur die Sporulationskapazität der Früchte und der prozentuale Blattbefall. Im Feldversuch über zwei Jahre und mit bis zu 40 Tomatensorten war der Zusammenhang hoch signifikant, jedoch asymptotisch, d.h. bereits bei sehr geringem Blattbefall war der Fruchtbefall sehr hoch. Bei den Tomatenherkünften, die sowohl im Labor als auch im Feld auf ihre Anfälligkeit getestet wurden, erschienen die Blattanfälligkeiten ähnlich, während kein klarer Zusammenhang zwischen der Fruchtanfälligkeit im Feld und im Labor bestand. Die Entwicklung von P. infestans auf der Blattoberfläche war unabhängig von der Sorte. Sowohl beim Eindringen und der Etablierung von P. infestans ins Blatt als auch bei der damit verbunden H2O2 Aktivität im Wirt wurden deutliche isolat- und sortenspezifische Effekte gefunden, die aber nur zum Teil mit den quantitativen Unterschieden der Blattresistenz korrespondierten. Sorten, die bei hoher Resistenz unterschiedliche Reaktionsprofile aufweisen, sind grundsätzlich interessante Kreuzungspartner, um die quantitative Resistenz gegenüber P. infestans zu verbessern. Hier sind vor allem Sorten, die sich auch in ihrer H2O2 Aktivität unterscheiden von Interesse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um der wachsenden Popularität der E-Books Rechnung zu tragen, befasst sich diese Arbeit mit der Entwicklung eines Drupal-Moduls, welches TEI-Dokumente als EPUB-Version für E-Reader zum Download anbietet. Eine Plain Text- als auch die TEI/XML-Version werden zusätzlich zum Herunterladen bereitgestellt. Ziel ist es, das Modul so zu konzipieren, dass die Wahl verschiedener Textvarianten (Originalfassung oder korrigierte Version) sowie eine Bestimmung des Textumfangs (Haupttext inklusive Anmerkungen des Autors oder Haupttext inklusive Anmerkungen des Autors und des Herausgebers) möglich sind. Eine Auswahlliste erlaubt es dem Benutzer darüber hinaus, ausschließlich die Kapitel seiner Wahl herunterzuladen. Das Modul wird als Block implementiert, um seine variable Positionierung auf der Webseite gewährleisten zu können. Zudem wird eine Konfigurationsseite im administrativen Bereich von Drupal implementiert, die eine Gestaltung des Blocks sowie zahlreiche Einstellungsoptionen zur Verfügung stellt. Hierzu gehört z.B. die Auswahl der Metadaten, die auf den ersten beiden Seiten des E-Books angezeigt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Heilkräuter sind während des Trocknungsprozesses zahlreichen Einflüssen ausgesetzt, welche die Qualität des Endproduktes entscheidend beeinflussen. Diese Forschungsarbeit beschäftigt sich mit der Trocknung von Zitronenmelisse (Melissa officinalis .L) zu einem qualitativ hochwertigen Endprodukt. Es werden Strategien zur Trocknung vorgeschlagen, die experimentelle und mathematische Aspekte mit einbeziehen, um bei einer adäquaten Produktivität die erforderlichen Qualitätsmerkmale im Hinblick auf Farbeänderung und Gehalt an ätherischen Ölen zu erzielen. Getrocknete Zitronenmelisse kann zurzeit, auf Grund verschiedener Probleme beim Trocknungsvorgang, den hohen Qualitätsanforderungen des Marktes nicht immer genügen. Es gibt keine standardisierten Informationen zu den einzelnen und komplexen Trocknungsparametern. In der Praxis beruht die Trocknung auf Erfahrungswerten, bzw. werden Vorgehensweisen bei der Trocknung anderer Pflanzen kopiert, und oftmals ist die Trocknung nicht reproduzierbar, oder beruht auf subjektiven Annäherungen. Als Folge dieser nicht angepassten Wahl der Trocknungsparameter entstehen oftmals Probleme wie eine Übertrocknung, was zu erhöhten Bruchverlusten der Blattmasse führt, oder eine zu geringe Trocknung, was wiederum einen zu hohen Endfeuchtegehalt im Produkt zur Folge hat. Dies wiederum mündet zwangsläufig in einer nicht vertretbaren Farbänderung und einen übermäßigen Verlust an ätherischen Ölen. Auf Grund der unterschiedlichen thermischen und mechanischen Eigenschaften von Blättern und Stängel, ist eine ungleichmäßige Trocknung die Regel. Es wird außerdem eine unnötig lange Trocknungsdauer beobachtet, die zu einem erhöhten Energieverbrauch führt. Das Trocknen in solaren Tunneln Trocknern bringt folgendes Problem mit sich: wegen des ungeregelten Strahlungseinfalles ist es schwierig die Trocknungstemperatur zu regulieren. Ebenso beeinflusst die Strahlung die Farbe des Produktes auf Grund von photochemischen Reaktionen. Zusätzlich erzeugen die hohen Schwankungen der Strahlung, der Temperatur und der Luftfeuchtigkeit instabile Bedingungen für eine gleichmäßige und kontrollierbare Trocknung. In Anbetracht der erwähnten Probleme werden folgende Forschungsschwerpunkte in dieser Arbeit gesetzt: neue Strategien zur Verbesserung der Qualität werden entwickelt, mit dem Ziel die Trocknungszeit und den Energieverbrauch zu verringern. Um eine Methodik vorzuschlagen, die auf optimalen Trocknungsparameter beruht, wurden Temperatur und Luftfeuchtigkeit als Variable in Abhängigkeit der Trocknungszeit, des ätherischer Ölgehaltes, der Farbänderung und der erforderliche Energie betrachtet. Außerdem wurden die genannten Parametern und deren Auswirkungen auf die Qualitätsmerkmale in solaren Tunnel Trocknern analysiert. Um diese Ziele zu erreichen, wurden unterschiedliche Ansätze verfolgt. Die Sorption-Isothermen und die Trocknungskinetik von Zitronenmelisse und deren entsprechende Anpassung an verschiedene mathematische Modelle wurden erarbeitet. Ebenso wurde eine alternative gestaffelte Trocknung in gestufte Schritte vorgenommen, um die Qualität des Endproduktes zu erhöhen und gleichzeitig den Gesamtenergieverbrauch zu senken. Zusätzlich wurde ein statistischer Versuchsplan nach der CCD-Methode (Central Composite Design) und der RSM-Methode (Response Surface Methodology) vorgeschlagen, um die gewünschten Qualitätsmerkmalen und den notwendigen Energieeinsatz in Abhängigkeit von Lufttemperatur und Luftfeuchtigkeit zu erzielen. Anhand der gewonnenen Daten wurden Regressionsmodelle erzeugt, und das Verhalten des Trocknungsverfahrens wurde beschrieben. Schließlich wurde eine statistische DOE-Versuchsplanung (design of experiments) angewandt, um den Einfluss der Parameter auf die zu erzielende Produktqualität in einem solaren Tunnel Trockner zu bewerten. Die Wirkungen der Beschattung, der Lage im Tunnel, des Befüllungsgrades und der Luftgeschwindigkeit auf Trocknungszeit, Farbänderung und dem Gehalt an ätherischem Öl, wurde analysiert. Ebenso wurden entsprechende Regressionsmodelle bei der Anwendung in solaren Tunneltrocknern erarbeitet. Die wesentlichen Ergebnisse werden in Bezug auf optimale Trocknungsparameter in Bezug auf Qualität und Energieverbrauch analysiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Motivation dieser Arbeit ist die Idee, ein höchst sensitives und selektives Spektroskop, welches gleichzeitig robust ist, auf Basis von Halbleiterlasern zum Einsatz in der Atemgasdiagnostik zu entwickeln. Technische Grundlage ist die Idee, die Probe innerhalb des Laserresonators zu vermessen (sogenannte intra cavity absorption spectroscopy, ICAS). Im speziellen soll durch die Verwendung des relativen Intensitätsrauschens zur Messwertbestimmung und die Verwendung von nur zwei Moden statt der sonst für ICAS verwendeten multimodigen Laser, die Empfindlichkeit erhöht, sowie die Messwerterfassung vereinfacht werden. Die Probe im Laserresonator zu Messen, hat den Vorteil, dass durch die multiple Hin­ und Rückreflektion die wirksame Pfadlänge durch die Probe vervielfacht wird. Dabei werden Verluste an den Resonatorspiegeln durch die Verstärkung der aktiven Zone des Lasers kompensiert. Außerdem wird durch die Konkurrenz der Moden um die idealerweise homogen verbreiterte Verstärkung im Laser die Empfindlichkeit noch einmal bedeutend erhöht. Schon eine geringe Absorption bei einer bestimmten Wellenlänge wird die Intensität des betroffenen Modes zugunsten der anderen Moden verringern. Die Arbeit beschäftigt sich zum einen mit der spektroskopischen Untersuchung zwei- er für die Atemgasdiagnostik relevanter Stoffe, Aceton und das in der Anästhesie häufig eingesetzte Propofol, um das Umfeld, in dem der Laser Verwendung finden soll, zu beleuchten. Diese Untersuchungen flossen in die Entwicklung des später zum Sensor auszubauenden Lasers ein. Für den Laser wurden in der Telekommunikation übliche, glasfaserbasierte, robuste Standardbauteile wie ein optischer Halbleiterverstärker (semiconductor optical amplifier, SOA), Faserkoppler und Faser­Bragg­Gitter verwendet. Die Bauteile wurden charakterisiert. Teilaspekte des Aufbaus wurden mit der Software CAMFR simuliert. Schließlich wurde der Laser als solcher aufgebaut und charakterisiert. Das Ziel der Zweimodigkeit, in einem Intervall von 2 nm durchstimmbar, konnte erreicht werden. An einem vom Heinrich­Hertz­Institut in Berlin entwickelten zweimodigen Halbleiterlasers wurden Untersuchungen der Idee zur Vereinfachung der Messwerterfassung mittels relativen Intensitätsrauschens (relative intensity noise, RIN) durchgeführt. Als Messgröße stellt das RIN die Amplituden der Intensitätsschwankungen des Lasers gegen die Frequenzen der Intensitätsschwankungen als Rauschspektrum dar. Es konnte nachgewiesen werden, dass das Rauschspektrum charakteristisch für das Oszillationsverhalten des Lasers ist.