306 resultados para Qualität
Resumo:
Zur Erholung in die Natur gehen oder doch lieber zur Natursimulation greifen? Intuitiv würden die meisten Menschen der Natur einen größeren Erholungswert zusprechen als einer Natursimulation. Aber ist die Natur tatsächlich erholsamer? In der Naturerholungsforschung (Restorative Environment Research) kommen häufig Natursimulationen zum Einsatz, um die erholsame Wirkung von Natur zu ermitteln. Problematisch ist dabei, dass deren ökologische Validität und Vergleichbarkeit noch nicht empirisch abgesichert ist. Vorliegende Arbeit setzt an dieser methodischen und empirischen Lücke an. Sie überprüft sowohl die ökologische Validität als auch die Vergleichbarkeit von Natursimulationen. Dazu wird die erholsame Wirkung von zwei Natursimulationen im Vergleich zu der physisch-materiellen Natur empirisch untersucht und verglichen. Darüber hinaus werden Aspekte des subjektiven Erlebens und der Bewertung im Naturerholungskontext exploriert. Als bedeutsamer Wirkmechanismus wird die erlebnisbezogene Künstlichkeit/Natürlichkeit angesehen, die sich auf die Erlebnisqualität von Natursimulationen und der physisch-materiellen Natur bezieht: Natursimulationen weisen im Vergleich zur physisch-materiellen Natur eine reduzierte Erlebnisqualität auf (erlebnisbezogene Künstlichkeit), z.B. eine reduzierte Qualität und Quantität der Sinnesansprache. Stellt man einen derartigen Vergleich nicht nur mit der physisch-materiellen Natur, sondern mit unterschiedlichen Natursimulationstypen an, dann zeigen sich auch hier Unterschiede in der erlebnisbezogenen Künstlichkeit. Beispielsweise unterscheidet sich ein Naturfoto von einem Naturfilm durch das Fehlen von auditiven und bewegten Stimuli. Diese erlebnisbezogene Künstlichkeit kann die erholsame Wirkung von Natur - direkt oder indirekt über Bewertungen - hemmen. Als Haupthypothese wird angenommen, dass mit zunehmendem Ausmaß an erlebnisbezogener Künstlichkeit die erholsame Wirkung der Natur abnimmt. Dem kombinierten Feld- und Laborexperiment liegt ein einfaktorielles Vorher-Nachher-Design zugrunde. Den 117 Probanden wurde zunächst eine kognitiv und affektiv belastende Aufgabe vorgelegt, danach folgte die Erholungsphase. Diese bestand aus einem Spaziergang, der entweder in der physisch-materiellen Natur (urbaner Park) oder in einer der beiden audio-visuellen Natursimulationen (videogefilmter vs. computergenerierter Spaziergang durch selbigen urbanen Park) oder auf dem Laufband ohne audio-visuelle Darbietung stattfand. Die erlebnisbezogene Künstlichkeit/Natürlichkeit wurde also wie folgt operationlisiert: die physische Natur steht für die erlebnisbezogene Natürlichkeit. Die beiden Natursimulationen stehen für die erlebnisbezogene Künstlichkeit. Die computergenerierte Version ist im Vergleich zur Videoversion erlebnisbezogen künstlicher, da sie weniger fotorealistisch ist. Die Zuordnung zu einer der vier experimentellen Erholungssettings erfolgte nach dem Zufallsprinzip. Die Effekte von moderater Bewegung wurden in den Natursimulationen durch das Laufen auf dem Laufband kontrolliert. Die Beanspruchungs- bzw. Erholungsreaktionen wurden auf kognitiver (Konzentriertheit, Aufmerksamkeitsleistung) affektiver (3 Befindlichkeitsskalen: Wachheit, Ruhe, gute Stimmung) und physiologischer (Alpha-Amylase) Ebene gemessen, um ein umfassendes Bild der Reaktionen zu erhalten. Insgesamt zeigen die Ergebnisse, dass die beiden Natursimulationen trotz Unterschiede in der erlebnisbezogenen Künstlichkeit/Natürlichkeit zu relativ ähnlichen Erholungsreaktionen führen, wie die physisch-materielle Natur. Eine Ausnahme stellen eine der drei affektiven (Wachheit) und die physiologische Reaktion dar: Probanden der physisch-materiellen Naturbedingung geben an wacher zu sein und weisen - wider erwarten - eine höhere physiologische Erregung auf. Demnach ist die physisch-materielle Natur nicht grundsätzlich erholsamer als die Natursimulationen. Die Hypothese ließ sich somit nicht bestätigen. Vielmehr deuten sich komplexe Erholungsmuster und damit auch unterschiedliche Erholungsqualitäten der Settings an, die einer differenzierten Betrachtung bedürfen. Für die ökologische Validität von Natursimulationen gilt, dass diese nur mit Einschränkung als ökologisch valide bezeichnet werden können, d.h. nur für bestimmte, aber nicht für alle Erholungsreaktionen. Die beiden Natursimulationen führen ebenfalls trotz Unterschiede in der erlebnisbezogenen Künstlichkeit zu ähnlichen Erholungsreaktionen und können somit als gleichwertig behandelt werden. Erstaunlicherweise kommt es hier zu ähnlichen Erholungsreaktionen, obwohl die bestehenden Unterschiede von den Probanden wahrgenommen und die erlebnisbezogen künstlichere computergenerierte Version negativer bewertet wird. Aufgrund der nicht erwartungskonformen Ergebnisse muss das Erklärungskonzept der erlebnisbezogenen Künstlichkeit/Natürlichkeit infrage gestellt werden. Alternative Erklärungskonzepte für die Ergebnisse („Ungewissheit“, mentale räumliche Modelle), die sich andeutenden unterschiedlichen Erholungsqualitäten der Settings, methodische Einschränkungen sowie die praktische Bedeutung der Ergebnisse werden kritisch diskutiert.
Resumo:
A real-time analysis of renewable energy sources, such as arable crops, is of great importance with regard to an optimised process management, since aspects of ecology and biodiversity are considered in crop production in order to provide a sustainable energy supply by biomass. This study was undertaken to explore the potential of spectroscopic measurement procedures for the prediction of potassium (K), chloride (Cl), and phosphate (P), of dry matter (DM) yield, metabolisable energy (ME), ash and crude fibre contents (ash, CF), crude lipid (EE), nitrate free extracts (NfE) as well as of crude protein (CP) and nitrogen (N), respectively in pretreated samples and undisturbed crops. Three experiments were conducted, one in a laboratory using near infrared reflectance spectroscopy (NIRS) and two field spectroscopic experiments. Laboratory NIRS measurements were conducted to evaluate to what extent a prediction of quality parameters is possible examining press cakes characterised by a wide heterogeneity of their parent material. 210 samples were analysed subsequent to a mechanical dehydration using a screw press. Press cakes serve as solid fuel for thermal conversion. Field spectroscopic measurements were carried out with regard to further technical development using different field grown crops. A one year lasting experiment over a binary mixture of grass and red clover examined the impact of different degrees of sky cover on prediction accuracies of distinct plant parameters. Furthermore, an artificial light source was used in order to evaluate to what extent such a light source is able to minimise cloud effects on prediction accuracies. A three years lasting experiment with maize was conducted in order to evaluate the potential of off-nadir measurements inside a canopy to predict different quality parameters in total biomass and DM yield using one sensor for a potential on-the-go application. This approach implements a measurement of the plants in 50 cm segments, since a sensor adjusted sideways is not able to record the entire plant height. Calibration results obtained by nadir top-of-canopy reflectance measurements were compared to calibration results obtained by off-nadir measurements. Results of all experiments approve the applicability of spectroscopic measurements for the prediction of distinct biophysical and biochemical parameters in the laboratory and under field conditions, respectively. The estimation of parameters could be conducted to a great extent with high accuracy. An enhanced basis of calibration for the laboratory study and the first field experiment (grass/clover-mixture) yields in improved robustness of calibration models and allows for an extended application of spectroscopic measurement techniques, even under varying conditions. Furthermore, off-nadir measurements inside a canopy yield in higher prediction accuracies, particularly for crops characterised by distinct height increment as observed for maize.
Resumo:
Die Konvektionstrocknung ist eine der ältesten Methoden zur Konservierung von Lebensmitteln. Es ist bekannt, dass Agrarprodukte temperaturempfindlich sind. Bei Überhitzung erleiden sie chemische und physikalische Veränderungen, die ihre Qualität vermindern. In der industriellen Praxis wird die Konvektionstrocknung in der Regel auf Grundlage empirisch ermittelter Werte durchgeführt, welche die Produkttemperatur nicht berücksichtigen. Es ist deshalb nicht sichergestellt, ob der Prozess optimal oder auch nur gut betrieben wird. Inhalt dieser Arbeit ist ein Vergleich der klassischen einstufigen Konvektionstrocknung mit einer Prozessführungsstrategie bei der die Produkttemperatur als Regelgröße eingeführt wird. Anhand der Untersuchung des Trocknungsverhaltens von Äpfeln werden die beiden Verfahren analysiert, die erhaltenen Ergebnisse miteinander verglichen und daraus optimierte Trocknungsbedingungen abgeleitet. Die für dieses Projekt entwickelte Prozessanlage erlaubt die simultane Untersuchung sämtlicher wesentlicher Temperaturen, der Gewichtsveränderung und der optischen Qualitätskriterien. Gleichzeitig ist es möglich, entweder die Lufttemperatur oder die Temperatur des Produktes zur regeln, während die jeweils andere Größe als Messwert erfasst wird. Es kann weiterhin zwischen Durch- und Überströmung gewählt werden.
Resumo:
Heilkräuter sind während des Trocknungsprozesses zahlreichen Einflüssen ausgesetzt, welche die Qualität des Endproduktes entscheidend beeinflussen. Diese Forschungsarbeit beschäftigt sich mit der Trocknung von Zitronenmelisse (Melissa officinalis .L) zu einem qualitativ hochwertigen Endprodukt. Es werden Strategien zur Trocknung vorgeschlagen, die experimentelle und mathematische Aspekte mit einbeziehen, um bei einer adäquaten Produktivität die erforderlichen Qualitätsmerkmale im Hinblick auf Farbeänderung und Gehalt an ätherischen Ölen zu erzielen. Getrocknete Zitronenmelisse kann zurzeit, auf Grund verschiedener Probleme beim Trocknungsvorgang, den hohen Qualitätsanforderungen des Marktes nicht immer genügen. Es gibt keine standardisierten Informationen zu den einzelnen und komplexen Trocknungsparametern. In der Praxis beruht die Trocknung auf Erfahrungswerten, bzw. werden Vorgehensweisen bei der Trocknung anderer Pflanzen kopiert, und oftmals ist die Trocknung nicht reproduzierbar, oder beruht auf subjektiven Annäherungen. Als Folge dieser nicht angepassten Wahl der Trocknungsparameter entstehen oftmals Probleme wie eine Übertrocknung, was zu erhöhten Bruchverlusten der Blattmasse führt, oder eine zu geringe Trocknung, was wiederum einen zu hohen Endfeuchtegehalt im Produkt zur Folge hat. Dies wiederum mündet zwangsläufig in einer nicht vertretbaren Farbänderung und einen übermäßigen Verlust an ätherischen Ölen. Auf Grund der unterschiedlichen thermischen und mechanischen Eigenschaften von Blättern und Stängel, ist eine ungleichmäßige Trocknung die Regel. Es wird außerdem eine unnötig lange Trocknungsdauer beobachtet, die zu einem erhöhten Energieverbrauch führt. Das Trocknen in solaren Tunneln Trocknern bringt folgendes Problem mit sich: wegen des ungeregelten Strahlungseinfalles ist es schwierig die Trocknungstemperatur zu regulieren. Ebenso beeinflusst die Strahlung die Farbe des Produktes auf Grund von photochemischen Reaktionen. Zusätzlich erzeugen die hohen Schwankungen der Strahlung, der Temperatur und der Luftfeuchtigkeit instabile Bedingungen für eine gleichmäßige und kontrollierbare Trocknung. In Anbetracht der erwähnten Probleme werden folgende Forschungsschwerpunkte in dieser Arbeit gesetzt: neue Strategien zur Verbesserung der Qualität werden entwickelt, mit dem Ziel die Trocknungszeit und den Energieverbrauch zu verringern. Um eine Methodik vorzuschlagen, die auf optimalen Trocknungsparameter beruht, wurden Temperatur und Luftfeuchtigkeit als Variable in Abhängigkeit der Trocknungszeit, des ätherischer Ölgehaltes, der Farbänderung und der erforderliche Energie betrachtet. Außerdem wurden die genannten Parametern und deren Auswirkungen auf die Qualitätsmerkmale in solaren Tunnel Trocknern analysiert. Um diese Ziele zu erreichen, wurden unterschiedliche Ansätze verfolgt. Die Sorption-Isothermen und die Trocknungskinetik von Zitronenmelisse und deren entsprechende Anpassung an verschiedene mathematische Modelle wurden erarbeitet. Ebenso wurde eine alternative gestaffelte Trocknung in gestufte Schritte vorgenommen, um die Qualität des Endproduktes zu erhöhen und gleichzeitig den Gesamtenergieverbrauch zu senken. Zusätzlich wurde ein statistischer Versuchsplan nach der CCD-Methode (Central Composite Design) und der RSM-Methode (Response Surface Methodology) vorgeschlagen, um die gewünschten Qualitätsmerkmalen und den notwendigen Energieeinsatz in Abhängigkeit von Lufttemperatur und Luftfeuchtigkeit zu erzielen. Anhand der gewonnenen Daten wurden Regressionsmodelle erzeugt, und das Verhalten des Trocknungsverfahrens wurde beschrieben. Schließlich wurde eine statistische DOE-Versuchsplanung (design of experiments) angewandt, um den Einfluss der Parameter auf die zu erzielende Produktqualität in einem solaren Tunnel Trockner zu bewerten. Die Wirkungen der Beschattung, der Lage im Tunnel, des Befüllungsgrades und der Luftgeschwindigkeit auf Trocknungszeit, Farbänderung und dem Gehalt an ätherischem Öl, wurde analysiert. Ebenso wurden entsprechende Regressionsmodelle bei der Anwendung in solaren Tunneltrocknern erarbeitet. Die wesentlichen Ergebnisse werden in Bezug auf optimale Trocknungsparameter in Bezug auf Qualität und Energieverbrauch analysiert.
Resumo:
Evolutionäre Algorithmen werden gerne für Optimierungsaufgaben mit sehr vielen Freiheitsgraden eingesetzt. Eine spezielle Konvergenzeigenschaft, daß nämlich der Rechenaufwand nur mit der Wurzel der Anzahl der Unbekannten steigt, prädestiniert sie dafür. Die evolutionären Algorithmen haben aber auch noch eine weitere interessante Eigenschaft: Von der Zielfunktion wird nur verlangt, daß sie monoton ist - nichts weiter. Speziell wird, im Gegensatz zu gradientenbasierten Verfahren, keinerlei Ableitung von der Zielfunktion benötigt. Dadurch können evolutionäre Algorithmen auch in solchen Fällen eingesetzt werden, in denen Ableitungen der Zielfunktion nicht oder nur schwierig zu beschaffen sind. Die evolutionären Algorithmen kommen deshalb mit so geringen Anforderungen an die Zielfunktion aus, weil nur absolute Bewertungen einzelner Punkte (hier Vektoren) im Lösungsraum durch die Zielfunktion vorgenommen werden. Dafür werden eine gewisse Anzahl Punkte gleichzeitig betrachtet. Im direkten Vergleich untereinander relativ günstig liegende Punkte werden für die weitere Rechnung übernommen, die anderen verworfen. Aus den Komponenten der übernommenen Punkte werden nun zufällig neue Punkte zusammengesetzt und ein wenig verschoben. Dann schließt sich der Kreis, indem diese neuen Punkte ebenfalls bewertet werden. Im Verlauf einer solchen Iteration konvergiert die Punktmenge in der Regel gegen ein Optimum. Oft kommt es gerade zu Beginn der Iteration zu schnellen Fortschritten. In dieser Arbeit wird ein Verfahren vorgestellt, bei dem mit Hilfe von evolutionären Algorithmen verbessernde Eingriffe in laufenden Echtzeitsystemen vorgenommen werden. Was gut oder schlecht ist, wird zu diesem Zweck über die Zielfunktion für die Optimierung definiert. Da von der Zielfunktion letztlich das Verhalten des Gesamtsystems abhängt, sollte sie sorgfältig ausgewählt werden. Die Eingriffe in das System sind zeitlich begrenzte Steuertrajektorien. Sie werden zusätzlich zur permanent wirkenden Regelung auf das System aufgebracht. Um die Anzahl der zu optimierenden Variablen in Grenzen zu halten, werden die Steuertrajektorien durch wenige Parameter repräsentiert. Da die Steuertrajektorien im voraus berechnet werden müssen, wird das Systemverhalten mittels eines Modells für eine gewisse, in der Zukunft liegende, Zeitspanne vorhergesagt. Wird die geforderte Qualität während dieser Zeitspanne unterschritten, kann so schon im Vorfeld ein Optimierungslauf des evolutionären Algorithmus durchgeführt werden. Allerdings ist die zur Verfügung stehende Rechenzeit von vornherein begrenzt. Daher ist es wesentlich, daß die mit evolutionären Algorithmen häufig assoziierte lange Rechenzeit nicht benötigt wird. Tatsächlich läßt sich unter Umständen mit wenig Rechenzeit auskommen. Erstens wird nur mit wenigen Variablen gerechnet, zweitens kommt es bei dem beschriebenen Verfahren - halbwegs gutmütige Systeme vorausgesetzt - gar nicht auf die letzte Nachkommastelle, sondern (ähnlich wie bei Sliding-Mode-Regelungen) mehr auf eine Tendenz an. Da evolutionäre Algorithmen aber gerade zu Beginn einer Iteration die größten Fortschritte in Richtung des Optimums machen, kann schon nach vergleichsweise wenigen Schritten eine deutliche Verbesserung der Gesamtsituation erreicht werden. Gerade um eine schnelle Konvergenz zu erreichen, sind die spezielle Ausprägung und die Parameter des evolutionären Algorithmus mit Bedacht zu wählen. Dafür werden im Rahmen der Arbeit einige Experimente durchgeführt. Anhand der Ergebnisse der Experimente können konkrete Empfehlungen für eine günstige Konfiguration des evolutionären Algorithmus gegeben werden. Um es vorwegzunehmen: Zuviel Aufwand beim evolutionären Algorithmus zu treiben, lohnt sich nicht. Schon mit einfachen Konfigurationen können gute Ergebnisse erzielt werden. Die einzige Maßnahme, die sich bei den Experimenten tatsächlich als vorteilhaft herausstellte, war die Aufteilung der Gesamtpopulation (betrachtete Punktmenge im Lösungsraum) in mehrere Subpopulationen. Schließlich wird noch ein Computerprogramm beschrieben, das die Arbeitsweise des vorgestellten Verfahrens am Bildschirm erlebbar macht. Die einzelnen Komponenten werden vom Programm während der Ausführung mit einigen wesentlichen Rechengrößen visualisiert. Der Betrachter erhält so einen besseren Eindruck vom Zusammenwirken der einzelnen Verfahrens-Teile.
Resumo:
DIADEM, created by THOMSON-CSF, is a methodology for specifying and developing user interfaces. It improves productivity of the interface development process as well as quality of the interface. The method provides support to user interface development in three aspects. (1) DIADEM defines roles of people involved and their tasks and organises the sequence of activities. (2) It provides graphical formalisms supporting information exchange between people. (3) It offers a basic set of rules for optimum human-machine interfaces. The use of DIADEM in three areas (process control, sales support, and multimedia presentation) was observed and evaluated by our laboratory in the European project DIAMANTA (ESPRIT P20507). The method provides an open procedure that leaves room for adaptation to a specific application and environment. This paper gives an overview of DIADEM and shows how to extend formalisms for developing multimedia interfaces.
Resumo:
Summary: Recent research on the evolution of language and verbal displays (e.g., Miller, 1999, 2000a, 2000b, 2002) indicated that language is not only the result of natural selection but serves as a sexually-selected fitness indicator that is an adaptation showing an individual’s suitability as a reproductive mate. Thus, language could be placed within the framework of concepts such as the handicap principle (Zahavi, 1975). There are several reasons for this position: Many linguistic traits are highly heritable (Stromswold, 2001, 2005), while naturally-selected traits are only marginally heritable (Miller, 2000a); men are more prone to verbal displays than women, who in turn judge the displays (Dunbar, 1996; Locke & Bogin, 2006; Lange, in press; Miller, 2000a; Rosenberg & Tunney, 2008); verbal proficiency universally raises especially male status (Brown, 1991); many linguistic features are handicaps (Miller, 2000a) in the Zahavian sense; most literature is produced by men at reproduction-relevant age (Miller, 1999). However, neither an experimental study investigating the causal relation between verbal proficiency and attractiveness, nor a study showing a correlation between markers of literary and mating success existed. In the current studies, it was aimed to fill these gaps. In the first one, I conducted a laboratory experiment. Videos in which an actor and an actress performed verbal self-presentations were the stimuli for counter-sex participants. Content was always alike, but the videos differed on three levels of verbal proficiency. Predictions were, among others, that (1) verbal proficiency increases mate value, but that (2) this applies more to male than to female mate value due to assumed past sex-different selection pressures causing women to be very demanding in mate choice (Trivers, 1972). After running a two-factorial analysis of variance with the variables sex and verbal proficiency as factors, the first hypothesis was supported with high effect size. For the second hypothesis, there was only a trend going in the predicted direction. Furthermore, it became evident that verbal proficiency affects long-term more than short-term mate value. In the second study, verbal proficiency as a menstrual cycle-dependent mate choice criterion was investigated. Basically the same materials as in the former study were used with only marginal changes in the used questionnaire. The hypothesis was that fertile women rate high verbal proficiency in men higher than non-fertile women because of verbal proficiency being a potential indicator of “good genes”. However, no significant result could be obtained in support of the hypothesis in the current study. In the third study, the hypotheses were: (1) most literature is produced by men at reproduction-relevant age. (2) The more works of high literary quality a male writer produces, the more mates and children he has. (3) Lyricists have higher mating success than non-lyric writers because of poetic language being a larger handicap than other forms of language. (4) Writing literature increases a man’s status insofar that his offspring shows a significantly higher male-to-female sex ratio than in the general population, as the Trivers-Willard hypothesis (Trivers & Willard, 1973) applied to literature predicts. In order to test these hypotheses, two famous literary canons were chosen. Extensive biographical research was conducted on the writers’ mating successes. The first hypothesis was confirmed; the second one, controlling for life age, only for number of mates but not entirely regarding number of children. The latter finding was discussed with respect to, among others, the availability of effective contraception especially in the 20th century. The third hypothesis was not satisfactorily supported. The fourth hypothesis was partially supported. For the 20th century part of the German list, the secondary sex ratio differed with high statistical significance from the ratio assumed to be valid for a general population.
Resumo:
Die Ergebnisse internationaler Schulleistungsstudien wie TIMMS und PISA haben eine umfassende Diskussion zur Qualität, Struktur und Effizienz der Ausbildung und berufsbegleitenden Qualifizierung im deutschen Bildungssystem angestoßen. Die Kultusministerkonferenz der Länder (KMK) hat mit ihren Beschlüssen zu fachbezogenen Bildungsstandards für den mittleren Schulabschluss erstmalig ein funktionales und länderübergreifendes Konzept vorgelegt, in dem Bildung durch Kompetenzen beschrieben wird. Die von den Schülerinnen und Schülern zu erreichenden Kenntnisse und Fertigkeiten werden in Standards konkretisiert, die in den Bereichen Fachwissen, Erkenntnisgewinnung, Kommunikation und Bewertung als Regelstandards organisiert sind. Die ländergemeinsamen Anforderungen für die Fachwissenschaften und Fachdidaktiken und die Standards für die Lehrerbildung beschreiben ein auf die Bildungsstandards bezugnehmendes Anforderungsprofil auf Seiten der Lehrkräfte zur Sicherung der Qualität in der Aus-, Fort- und Weiterbildung in allen drei Phasen der Lehrerbildung, mit dem Ziel eine kompetente Berufsausübung zu gewährleisten. Durch die Einführung des Kompetenzbegriffs werden somit auch die Kenntnisse und Fertigkeiten von Lehrkräften der Naturwissenschaften beschrieben, die auf Lehr- und Lernsituationen im Kompetenzbereich Fachwissen und Erkenntnisgewinnung ausgerichtet sind. Diese Standards markieren den Einstieg in ein Qualitätsmanagement, in dem normativen Standards konkretisiert und fachbezogen operationalisiert werden. Deren Evaluation ermöglicht eine empirisch fundiertere Darstellung der Lehrerbildung, die somit auch einen Beitrag zu einer weitergehenden Beschreibung des Professionswissens von Lehrkräften leistet. Allerdings ist im deutschsprachigen Raum bislang noch kein umfassendes Modell zum Professionswissen von Lehrkräften der Naturwissenschaften und einer niveaubezogenen Differenzierung ausgewiesener Kompetenzen verfügbar. Erste Strukturierungsansätze weisen auf die besondere Bedeutung der Bereiche Fachwissen, Fachdidaktisches Wissen und Pädagogisches Wissen hin. Insbesondere das in diesen Bereichen organisierte Wissen und Können von Lehrkräften ist für eine professionelle Handlungskompetenz von besonderer Bedeutung, die einen bedeutsamen Prädiktor für die Unterrichtsqualität darstellt und den Erwerb von Kenntnissen und Fertigkeiten im naturwissenschaftlichen Unterricht maßgeblich beeinflusst. Wesentliche Elemente einer umfassenden naturwissenschaftlichen Grundbildung werden in den Standards der Kompetenzbereiche Fachwissen und Erkenntnisgewinnung konkretisiert, die auch im Focus der Standards der Lehrerbildung in den naturwissenschaftlichen Fächern stehen. Die Kompetenzkonstrukte und Standards der Erkenntnisgewinnung systematisieren prozessbezogen zentrale Kompetenzen Fachmethodischen Wissens im Kontext einer naturwissenschaftlichen Untersuchung. Das Rahmenkonzept wissenschaftsmethodischer Kompetenzen von Mayer (2007) weist die Standards der Erkenntnisgewinnung in den Teilkompetenzen, bezogen auf die Phasen einer naturwissenschaftlichen Untersuchung, aus. Die vorliegende Untersuchung ist auf die Erhebung und Beschreibung von Kenntnissen und Fertigkeiten von Lehrkräften in den Kompetenzkonstrukten und Standards der Erkenntnisgewinnung ausgerichtet. Es wird untersucht, in welcher Weise die in den Kompetenzkonstrukten und Standards der Erkenntnisgewinnung beschriebenen wissenschaftsmethodischen Kompetenzen bei der Anlage fachdidaktisch begründeter Lernprozesse von den Lehrkräften berücksichtigt werden. Zudem wird der Frage nachgegangen, welche Erwartungen die Lehrkräfte an die Wirksamkeit ihrer Unterrichtsgestaltung in Bezug auf den intendierten Kompetenzerwerb wissenschaftsmethodischer Kompetenzen im naturwissenschaftlichen Unterricht haben. Im Anschluss wird das auf Seiten der Lehrkräfte verfügbare Fachmethodische Wissen beschrieben, auf das bei der Konkretisierung der Standards der Erkenntnisgewinnung im naturwissenschaftlichen Fachunterricht zurückgegriffen werden kann. Begleitend werden die Fächerkombination und das Lehramt als relevante Prädiktorvariablen im Hinblick auf die ausgewiesenen Fragestellungen betrachtet. Als Instrument wurde ein Erhebungsbogen entwickelt, der im Kooperationsprojekt „Kompetenzorientiert unterrichten in Mathematik und Naturwissenschaften“ der Universitäten Kassel und Gießen mit dem Amt für Lehrerbildung in Frankfurt zur Datenerhebung eingesetzt wurde. Den an der hessenweiten Qualifizierung teilnehmenden Lehrkräften (N = 282) wurde ein Erhebungsbogen mit 3 Instrumenten zu Beginn der Qualifizierung vorgelegt. Im ersten Instrument wurden die Ziele des naturwissenschaftlichen Arbeitens durch 24 Items abgebildet, die eine Selbstauskunft der Lehrkräfte durch eine sechsstufige Likert Skala erheben. Acht offene Testaufgaben haben im zweiten Instrument die wissenschaftsmethodischen Kenntnisse der Lehrkräfte in den Kompetenzkonstrukten und Standards der Erkenntnisgewinnung erhoben. Im dritten Instrument konnten die Lehrkräfte in drei freien Antwortformaten ihre Erwartungen an eine Qualifizierung im Kooperationsprojekt angeben. Wie die statistische Bearbeitung der Daten ausweist, berücksichtigen die Lehrkräfte die Kompetenzkonstrukte und Standards der Erkenntnisgewinnung in der Facette „Kompetenzorientiert Unterrichten“ und ihrer Dimensionen durchgängig „oft“. Lehrkräfte mit zwei naturwissenschaftlichen Fächern berücksichtigen die Kompetenzkonstrukte zudem häufiger bei der Anlage fachbezogenen Lernens. Im Hinblick auf die Erwartungen an die Lernprogression der Schülerinnen und Schüler werden die kompetenzbezogenen Ziele im naturwissenschaftlichen Unterricht nach Selbstauskunft der Lehrkräfte in der Facette „Kompetenzbezogene Ziele erreichen“ und ihrer Dimensionen „oft“ erreicht. Nach der Selbstauskunft der Lehrkräfte gehen diese davon aus, dass die intendierte Lernprogression wissenschaftsmethodischer Kenntnisse und Fertigkeiten von den Lernenden „oft“ erreicht wird. Insbesondere der Dimension Arbeitstechniken wird von den Lehrkräften in beiden Facetten ein gleichermaßen hoher Stellenwert im naturwissenschaftlichen Unterricht beigemessen. Ein Vergleich der Facetten „Kompetenzorientiert Unterrichten“ und „Kompetenzbezogene Ziele erreichen“ und ihrer Dimensionen zeigt allerdings auch, dass die Lehrkräfte die intendierte Lernprogression der Lernenden im Kompetenzbereich Erkenntnisgewinnung schwächer einschätzen. Des Weiteren besteht ein belastbarer Zusammenhang zwischen der Planung von Lernprozessen und dem Erwerb von Kenntnissen und Fertigkeiten im Kompetenzbereich Erkenntnisgewinnung. Die mittleren bis hohen Korrelationen zwischen den Facetten „Kompetenzorientiert Unterrichten“ und „Kompetenzbezogene Ziele erreichen“ deuten darauf hin, dass die seitens der Lehrkräfte eingesetzten fachmethodischen Kenntnisse in einem unmittelbaren Zusammenhang mit der Lernprogression im naturwissenschaftlichen Unterricht gesehen werden. Die Kompetenzkonstrukte und Standards der Erkenntnisgewinnung werden von den Lehrkräften durchgängig berücksichtigt und als bedeutsam im naturwissenschaftlichen Fachunterricht erachtet. Bezüglich der Prädiktorvariablen Lehramt und Alter liegen keine statistisch bedeutsamen Befunde vor. Die Standards der KMK werden von den Lehrkräften im Bereich Fachwissen und Fachdidaktischem Wissen gleichermaßen, unabhängig von ihrer Berufspraxis, umgesetzt. Die von den Lehrkräften angegebenen Lösungen der offenen Aufgaben in den Teilkompetenzen einer naturwissenschaftlichen Untersuchung lassen sich weitgehend der Niveaustufe 1 zuordnen. Lehrkräfte mit dem Lehramt für Gymnasien lösen die Aufgaben auf einem höheren Niveau, das allerdings die Niveaustufe 2 noch nicht erreicht. Offenbar gelingt es diesen Lehrkräften umfassender Kenntnisse und Fertigkeiten in den Teilkompetenzen einer naturwissenschaftlichen Untersuchung zu aktivieren. Allerdings werden die mittleren Anforderungen, die national und international der Niveaustufe 3 zugeordnet werden, von den Lehrkräften durchgängig nicht erreicht. Zudem besteht zwischen den beiden Facetten „Kompetenzorientiert Unterrichten“ und „Kompetenzbezogene Ziele erreichen“ und den offenen Aufgaben kein statistisch bedeutsamer Zusammenhang. Die Lehrkräfte setzen ihre Kenntnisse und Fertigkeiten mit den Anforderungen eines kompetenzorientierten naturwissenschaftlichen Fachunterrichts nur unzureichend in Beziehung. Wie die Befunde der im dritten Instrument erhobenen Erwartungen und Ziele einer Qualifizierung zeigen, bringen die Lehrkräfte die Bereitschaft mit, sich aktiv in die Qualitätsentwicklung einzubringen. Sie erwarten von dem kumulativen Kompetenzerwerb in den Bereichen Fachwissen und Fachmethodisches Wissen einen wesentlichen Beitrag zur Gestaltung standardorientierter Lehr- und Lernsituationen.
Resumo:
In dieser Doktorarbeit wird eine akkurate Methode zur Bestimmung von Grundzustandseigenschaften stark korrelierter Elektronen im Rahmen von Gittermodellen entwickelt und angewandt. In der Dichtematrix-Funktional-Theorie (LDFT, vom englischen lattice density functional theory) ist die Ein-Teilchen-Dichtematrix γ die fundamentale Variable. Auf der Basis eines verallgemeinerten Hohenberg-Kohn-Theorems ergibt sich die Grundzustandsenergie Egs[γgs] = min° E[γ] durch die Minimierung des Energiefunktionals E[γ] bezüglich aller physikalischer bzw. repräsentativer γ. Das Energiefunktional kann in zwei Beiträge aufgeteilt werden: Das Funktional der kinetischen Energie T[γ], dessen lineare Abhängigkeit von γ genau bekannt ist, und das Funktional der Korrelationsenergie W[γ], dessen Abhängigkeit von γ nicht explizit bekannt ist. Das Auffinden präziser Näherungen für W[γ] stellt die tatsächliche Herausforderung dieser These dar. Einem Teil dieser Arbeit liegen vorausgegangene Studien zu Grunde, in denen eine Näherung des Funktionals W[γ] für das Hubbardmodell, basierend auf Skalierungshypothesen und exakten analytischen Ergebnissen für das Dimer, hergeleitet wird. Jedoch ist dieser Ansatz begrenzt auf spin-unabhängige und homogene Systeme. Um den Anwendungsbereich von LDFT zu erweitern, entwickeln wir drei verschiedene Ansätze zur Herleitung von W[γ], die das Studium von Systemen mit gebrochener Symmetrie ermöglichen. Zuerst wird das bisherige Skalierungsfunktional erweitert auf Systeme mit Ladungstransfer. Eine systematische Untersuchung der Abhängigkeit des Funktionals W[γ] von der Ladungsverteilung ergibt ähnliche Skalierungseigenschaften wie für den homogenen Fall. Daraufhin wird eine Erweiterung auf das Hubbardmodell auf bipartiten Gittern hergeleitet und an sowohl endlichen als auch unendlichen Systemen mit repulsiver und attraktiver Wechselwirkung angewandt. Die hohe Genauigkeit dieses Funktionals wird aufgezeigt. Es erweist sich jedoch als schwierig, diesen Ansatz auf komplexere Systeme zu übertragen, da bei der Berechnung von W[γ] das System als ganzes betrachtet wird. Um dieses Problem zu bewältigen, leiten wir eine weitere Näherung basierend auf lokalen Skalierungseigenschaften her. Dieses Funktional ist lokal bezüglich der Gitterplätze formuliert und ist daher anwendbar auf jede Art von geordneten oder ungeordneten Hamiltonoperatoren mit lokalen Wechselwirkungen. Als Anwendungen untersuchen wir den Metall-Isolator-Übergang sowohl im ionischen Hubbardmodell in einer und zwei Dimensionen als auch in eindimensionalen Hubbardketten mit nächsten und übernächsten Nachbarn. Schließlich entwickeln wir ein numerisches Verfahren zur Berechnung von W[γ], basierend auf exakten Diagonalisierungen eines effektiven Vielteilchen-Hamilton-Operators, welcher einen von einem effektiven Medium umgebenen Cluster beschreibt. Dieser effektive Hamiltonoperator hängt von der Dichtematrix γ ab und erlaubt die Herleitung von Näherungen an W[γ], dessen Qualität sich systematisch mit steigender Clustergröße verbessert. Die Formulierung ist spinabhängig und ermöglicht eine direkte Verallgemeinerung auf korrelierte Systeme mit mehreren Orbitalen, wie zum Beispiel auf den spd-Hamilton-Operator. Darüber hinaus berücksichtigt sie die Effekte kurzreichweitiger Ladungs- und Spinfluktuationen in dem Funktional. Für das Hubbardmodell wird die Genauigkeit der Methode durch Vergleich mit Bethe-Ansatz-Resultaten (1D) und Quanten-Monte-Carlo-Simulationen (2D) veranschaulicht. Zum Abschluss wird ein Ausblick auf relevante zukünftige Entwicklungen dieser Theorie gegeben.
Resumo:
In the vision of Mark Weiser on ubiquitous computing, computers are disappearing from the focus of the users and are seamlessly interacting with other computers and users in order to provide information and services. This shift of computers away from direct computer interaction requires another way of applications to interact without bothering the user. Context is the information which can be used to characterize the situation of persons, locations, or other objects relevant for the applications. Context-aware applications are capable of monitoring and exploiting knowledge about external operating conditions. These applications can adapt their behaviour based on the retrieved information and thus to replace (at least a certain amount) the missing user interactions. Context awareness can be assumed to be an important ingredient for applications in ubiquitous computing environments. However, context management in ubiquitous computing environments must reflect the specific characteristics of these environments, for example distribution, mobility, resource-constrained devices, and heterogeneity of context sources. Modern mobile devices are equipped with fast processors, sufficient memory, and with several sensors, like Global Positioning System (GPS) sensor, light sensor, or accelerometer. Since many applications in ubiquitous computing environments can exploit context information for enhancing their service to the user, these devices are highly useful for context-aware applications in ubiquitous computing environments. Additionally, context reasoners and external context providers can be incorporated. It is possible that several context sensors, reasoners and context providers offer the same type of information. However, the information providers can differ in quality levels (e.g. accuracy), representations (e.g. position represented in coordinates and as an address) of the offered information, and costs (like battery consumption) for providing the information. In order to simplify the development of context-aware applications, the developers should be able to transparently access context information without bothering with underlying context accessing techniques and distribution aspects. They should rather be able to express which kind of information they require, which quality criteria this information should fulfil, and how much the provision of this information should cost (not only monetary cost but also energy or performance usage). For this purpose, application developers as well as developers of context providers need a common language and vocabulary to specify which information they require respectively they provide. These descriptions respectively criteria have to be matched. For a matching of these descriptions, it is likely that a transformation of the provided information is needed to fulfil the criteria of the context-aware application. As it is possible that more than one provider fulfils the criteria, a selection process is required. In this process the system has to trade off the provided quality of context and required costs of the context provider against the quality of context requested by the context consumer. This selection allows to turn on context sources only if required. Explicitly selecting context services and thereby dynamically activating and deactivating the local context provider has the advantage that also the resource consumption is reduced as especially unused context sensors are deactivated. One promising solution is a middleware providing appropriate support in consideration of the principles of service-oriented computing like loose coupling, abstraction, reusability, or discoverability of context providers. This allows us to abstract context sensors, context reasoners and also external context providers as context services. In this thesis we present our solution consisting of a context model and ontology, a context offer and query language, a comprehensive matching and mediation process and a selection service. Especially the matching and mediation process and the selection service differ from the existing works. The matching and mediation process allows an autonomous establishment of mediation processes in order to transfer information from an offered representation into a requested representation. In difference to other approaches, the selection service selects not only a service for a service request, it rather selects a set of services in order to fulfil all requests which also facilitates the sharing of services. The approach is extensively reviewed regarding the different requirements and a set of demonstrators shows its usability in real-world scenarios.
Resumo:
Die thermische Verarbeitung von Lebensmitteln beeinflusst deren Qualität und ernährungsphysiologischen Eigenschaften. Im Haushalt ist die Überwachung der Temperatur innerhalb des Lebensmittels sehr schwierig. Zudem ist das Wissen über optimale Temperatur- und Zeitparameter für die verschiedenen Speisen oft unzureichend. Die optimale Steuerung der thermischen Zubereitung ist maßgeblich abhängig von der Art des Lebensmittels und der äußeren und inneren Temperatureinwirkung während des Garvorgangs. Das Ziel der Arbeiten war die Entwicklung eines automatischen Backofens, der in der Lage ist, die Art des Lebensmittels zu erkennen und die Temperatur im Inneren des Lebensmittels während des Backens zu errechnen. Die für die Temperaturberechnung benötigten Daten wurden mit mehreren Sensoren erfasst. Hierzu kam ein Infrarotthermometer, ein Infrarotabstandssensor, eine Kamera, ein Temperatursensor und ein Lambdasonde innerhalb des Ofens zum Einsatz. Ferner wurden eine Wägezelle, ein Strom- sowie Spannungs-Sensor und ein Temperatursensor außerhalb des Ofens genutzt. Die während der Aufheizphase aufgenommen Datensätze ermöglichten das Training mehrerer künstlicher neuronaler Netze, die die verschiedenen Lebensmittel in die entsprechenden Kategorien einordnen konnten, um so das optimale Backprogram auszuwählen. Zur Abschätzung der thermische Diffusivität der Nahrung, die von der Zusammensetzung (Kohlenhydrate, Fett, Protein, Wasser) abhängt, wurden mehrere künstliche neuronale Netze trainiert. Mit Ausnahme des Fettanteils der Lebensmittel konnten alle Komponenten durch verschiedene KNNs mit einem Maximum von 8 versteckten Neuronen ausreichend genau abgeschätzt werden um auf deren Grundlage die Temperatur im inneren des Lebensmittels zu berechnen. Die durchgeführte Arbeit zeigt, dass mit Hilfe verschiedenster Sensoren zur direkten beziehungsweise indirekten Messung der äußeren Eigenschaften der Lebensmittel sowie KNNs für die Kategorisierung und Abschätzung der Lebensmittelzusammensetzung die automatische Erkennung und Berechnung der inneren Temperatur von verschiedensten Lebensmitteln möglich ist.
Resumo:
The non-university sector has been part of the Colombian higher education system for more than 50-years. Despite its long years of existence, it has never occupied such an important role within the education system as the one it is having today. Therefore, the aim of this work is to analyze the development of the non-university sector in the framework of the country’s social, educational and economic demands. Likewise, its actual situation and certain aspects of the relationship between its graduates and the world of work, i.e., graduates’ employment characteristics, the relationship of higher education studies and their work, as well as their early career success, are examined. In order to generate the required information, a graduate survey was carried out in Atlántico (Colombia). The target population was graduates from higher education institutions registered in Atlántico who were awarded a technical, technological or professional degree in 2008 from any of the following knowledge areas: Fine Arts, Health Science, Economy-Administration-Accountancy and similar, and Engineering-Architecture-Urban planning and similar. Besides, interviews with academic and administrative staff from non-university institutions were carried out, and higher education related documents were analyzed. As a whole, the findings suggest that the non-university sector is expanding and may help to achieve some of the goals, for which it is widely promoted i.e., access expansion for under-represented groups, enhancement of the higher education system, and the provision of programs pertinent to the needs of the market. Nevertheless, some aspects require further consideration, e.g., the sector’s consolidation within the system and its quality. As for the relationship between non-university higher education and the world of work, it was found to be close; particularly in those aspects related to the use of knowledge and skills in the work, and the relationship between graduates’ studies and their work. Additionally, the analysis of the graduates’ in their early career stages exposes the significant role that the socioeconomic stratum plays in their working life, particularly in their wages. This indicates that apart from education, other factors like the graduates’ economic or social capital may have an impact on their future work perspectives
Resumo:
Thermografie hat sich als wichtiges Hilfsmittel für die Inspektion, Prüfung und Überwachung etabliert. Bei vielen Anwendungen ist eine einzelne Messung allein oft nicht aussagekräftig, z. B. weil Strukturen nicht deutlich genug wahrgenommen werden können, das Messobjekt größer als das Blickfeld der Optik ist oder sich Kenngrößen erst aus dem zeitlichen Verlauf von Messungen ergeben. Zudem erfasst der Bediener der Kamera mit seinen Sinnen und seiner Erfahrung noch viele weitere Einflussgrößen, die bei der Entscheidungsfindung berücksichtigt werden. Eine Automatisierung von Inspektionsaufgaben in unbekannten Umgebungen ist also sehr komplex. In dieser Arbeit werden daher verschiedene Sensordatenfusionsansätze untersucht, die in der Thermografie eingesetzt werden können. Das Ziel bei der Fusion ist dabei die Verbesserung der Qualität der Messung und die Vergrößerung der verfügbaren Menge an nutzbaren Informationen über ein Messobjekt. Die betrachteten Ansätze können entweder nur mit Messungen der Thermografiekamera durchgeführt werden: zur Rauschunterdrückung durch zeitliche Mittelwertbildung, zur Vergrößerung der Schärfentiefe durch Kombination von Aufnahmen mit unterschiedlichem Fokus, zur Vergrößerung der Dynamik (also des Temperaturmessbereichs) durch Kombination von Messungen mit unterschiedlichen Messbereichen und durch Veränderung von Filtereinstellungen zur Unterdrückung von Störungen und zum Ableiten von geometrischen Informationen und Oberflächeneigenschaften. Weiterhin kann durch Veränderung der Kameraausrichtung das Blickfeld vergrößert und die geometrische Auflösung verbessert werden. Die Datenfusion von Thermogrammen kann aber auch mit Daten von anderen bildgebenden Messgeräten durchgeführt werden. Betrachtet wird die Kombination mit normalen Kameras im sichtbaren Spektralbereich, Thermografiekameras in anderen Wellenlängenbereichen und Tiefenkameras/Entfernungsmessgeräten (3D-Scanner, Laserscanner). Dadurch lassen sich für einen Messpunkt mehr Informationen gewinnen und die Messdaten können geometrisch als 3D-Modelle interpretiert und analysiert werden. Die Vielzahl an Informationen soll eine solide Dokumentation und gute (automatische) Analyse ermöglichen. Neben den Grundlagen zur Thermografie, dem punktweisen Zusammenführen von Messdaten und den oben genannten Sensordatenfusionsansätzen, wird ein Anwendungsbeispiel gezeigt. Darin soll die Machbarkeit der automatisierten Inspektionsdurchführung und die Kombination und praktische Anwendung der verschiedenen Sensordatenfusionsansätze gezeigt werden.
Resumo:
Im Rahmen des vom Hessischen Ministerium der Finanzen geförderten Forschungsprojektes „Bausteine für die CO2-Neutralität im Liegenschaftsbestand hessischer Hochschulen“ wird die neu entwickelte Teilenergiekennwertmethode, kurz TEK - an der Universitätsbibliothek Frankfurt in der Bockenheimer Warte 134-138, 60325 Frankfurt, angewandt. Das Gebäude von 1964 wird im Zuge eines Standortwechsels der Universität nur noch bis 2025 als Universitätsgebäude genutzt und danach an die Stadt Frankfurt übergeben. Der anschließende Erhalt wird derzeit noch diskutiert. Das gesamte Bauwerk gliedert sich in eine Bibliothek mit vorgelagertem Verwaltungsbau. Bisher wurden keine Sanierungsmaßnahmen durchgeführt. Die aus den Analysen gewonnenen Gebäude- und Anlagendaten dienen als Datengrundlage für eine Querschnittsanalyse zum Nichtwohngebäudebestand. Der folgende Kurzbericht umfasst: • Eine kurze Beschreibung des Projektes und des Gebäudes, • die Bewertung des Ist-Zustands des Gebäudes, • die Angabe von Modernisierungsmaßnahmen unter Nennung der Energieeinsparung, der Grobkosten und der sich hieraus ergebenden Wirtschaftlichkeit, • einen Anhang mit ausführlichen Informationen zur Gebäudeanalyse. Der Primärenergiebedarf des Objektes wurde mit 721 kWh/(m²a) unter Berücksichtigung der vorhandenen Nutzung als „hoch“ eingestuft. Um die Heizkosten senken zu können, sollte die energetische Qualität der Gebäudehülle verbessert werden. Dabei werden ein Austausch der Fassadenelemente und eine Dachsanierung empfohlen. Eine Leistungsanpassung der überdimensionierten Lüftungsanlagen und der Austausch einer RLT-Anlage sowie eine mögliche Abschaltung bzw. Sollwertreduzierung der Sprühbefeuchter sind weitere Energieeinsparmöglichkeiten. Eine Senkung des Stromverbrauchs kann durch den Einsatz moderner Beleuchtungstechnik mit Präsenzmeldern geschaffen werden. Zusätzliche im Bericht betrachtete Maßnahmen sind eine mögliche Nachtabschaltung, die effektive Deckung des hygienischen Außenluftbedarfs, die Erhöhung der Raumsollwerttemperatur im Kühlfall sowie der Kalibrierung des CO2-Sensors. Unter Berücksichtigung eines Nutzungszeitraums von 25 Jahren können ohne wesentliche Investitionskosten jährliche Gesamtkosten von 758.000 Euro reduziert werden.
Resumo:
Die Trocknung ist eines der am häufigsten verwendeten Verfahren, um die Haltbarkeit von landwirtschaftlichen Gütern zu verlängern. Von den vielen gebräuchlichen Trocknungsarten ist die Konvektionstrocknung, die Luft als Energie- und Feuchteträger verwendet, weiterhin die wichtigste. Trotz ihrer Nachteile und ihres hohen spezifischen Energieverbrauchs sind Satztrockner für die Getreide-, Kräuter- und Heutrocknung noch weit verbreitet. Ferner werden Konvektionstrockner gemeinhin zur künstlichen Trocknung eingesetzt. Diese Arbeit ist Teil eines Forschungsprojekts, welches eine sorptionsgestützte solare Trocknung von landwirtschaftlichen Gütern untersucht. Bei dieser wird kühle feuchte Luft in Kontakt mit einer konzentrierten hygroskopischen Salzlösung gebracht. Während dieses Prozesses wird die Luft entfeuchtet und mit Hilfe der freigesetzten Verdampfungsenthalpie erwärmt. Die Anwendung dieses Verfahrens zur Trocknung landwirtschaftlicher Güter ist besonders interessant für Produkte, die bei niedrigen Temperaturen verarbeitet werden, um ihre Qualität nicht negativ zu beeinflussen. Bei allen energieintensiven Prozessen und vor allem bei der Verwendung von Solarenergie ist ein effizienter Energieverbrauch äußerst wichtig für den technischen und ökonomischen Erfolg. Eine ungleichmäßige Trocknung ist oftmals bei Satztrocknern zu beobachten, was die Energieeffizienz negativ beeinflusst. Aus diesem Grund lag im agrartechnischen Teil des Projekts der Schwerpunkt auf der Trocknung bei niedrigen Temperaturen und geringer Luftfeuchte, die der Sorptionsprozess liefert, sowie auf der Verbesserung der Luftverteilung und der Gleichmäßigkeit der Trocknung in lockeren und verdichteten Schüttungen. Es wurden Dünnschicht-Trocknungsexperminente für Blattsellerie bei unterschiedlichen Lufttemperaturen und unterschiedlicher relativer Luftfeuchte durchgeführt. Die Ergebnisse zeigen eindeutig, dass nicht nur die Lufttemperatur einen großen Einfluss auf die Trocknungsgeschwindigkeit hat, sondern auch die relative Luftfeuchte. Dies ist vor allem bei niedrigen Temperaturen, wie sie vom Sorptionssystem geliefert werden, der Fall. Um die Luftverteilung und Gleichmäßigkeit der Trocknung lockerer Schüttungen zu untersuchen, wurde ein Kistentrockner experimentell und in Strömungssimulationen getestet. Die Leistung des ursprünglichen Trockners wurde signifikant durch einfache Veränderungen des Designs verbessert. Diese stellten einen gleichmäßigeren Luftstrom durch das Produkt sicher. Die Trocknung von Heu-Rundballen stellt eine Herausforderung dar, da diese sehr stark verdichtet sind und die Dichte innerhalb eines Ballens stark schwankt. Strömungs- und Trocknungssimulationen so wie experimentelle Messungen zeigten, dass das Trocknerdesign einen großen Einfluss auf die Gleichmäßigkeit der Trocknung hat. Bei den einfachsten Trocknervarianten war die Verteilung auch bei optimal gepressten Ballen unzureichend, während komplexere Trockner eine gleichmäßigere Trocknung erzielten. Jedoch werden auch hier die Ergebnisse stark von der Verteilung der Dichte im Ballen beeinflusst, welche in der Praxis weiterhin nicht ideal ist. Abschließend wurde, um den Trocknungsfortschritt zu überwachen, eine Methodik getestet, bei der zur Messung des durchschnittlichen aktuellen Feuchtegehalts des Produktes psychrometrische Messungen und Messungen des Luftstroms in kurzen Abständen durchgeführt wurden. Die Menge des tatsächlich entfernten Wassers stimmte in den meisten Fällen gut mit der geschätzten Menge überein. Jedoch hängt der Erfolg dieser Methode stark von der Genauigkeit der Messfühler ab.