151 resultados para Lehr-Lern-Forschung


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die thermische Verarbeitung von Lebensmitteln beeinflusst deren Qualität und ernährungsphysiologischen Eigenschaften. Im Haushalt ist die Überwachung der Temperatur innerhalb des Lebensmittels sehr schwierig. Zudem ist das Wissen über optimale Temperatur- und Zeitparameter für die verschiedenen Speisen oft unzureichend. Die optimale Steuerung der thermischen Zubereitung ist maßgeblich abhängig von der Art des Lebensmittels und der äußeren und inneren Temperatureinwirkung während des Garvorgangs. Das Ziel der Arbeiten war die Entwicklung eines automatischen Backofens, der in der Lage ist, die Art des Lebensmittels zu erkennen und die Temperatur im Inneren des Lebensmittels während des Backens zu errechnen. Die für die Temperaturberechnung benötigten Daten wurden mit mehreren Sensoren erfasst. Hierzu kam ein Infrarotthermometer, ein Infrarotabstandssensor, eine Kamera, ein Temperatursensor und ein Lambdasonde innerhalb des Ofens zum Einsatz. Ferner wurden eine Wägezelle, ein Strom- sowie Spannungs-Sensor und ein Temperatursensor außerhalb des Ofens genutzt. Die während der Aufheizphase aufgenommen Datensätze ermöglichten das Training mehrerer künstlicher neuronaler Netze, die die verschiedenen Lebensmittel in die entsprechenden Kategorien einordnen konnten, um so das optimale Backprogram auszuwählen. Zur Abschätzung der thermische Diffusivität der Nahrung, die von der Zusammensetzung (Kohlenhydrate, Fett, Protein, Wasser) abhängt, wurden mehrere künstliche neuronale Netze trainiert. Mit Ausnahme des Fettanteils der Lebensmittel konnten alle Komponenten durch verschiedene KNNs mit einem Maximum von 8 versteckten Neuronen ausreichend genau abgeschätzt werden um auf deren Grundlage die Temperatur im inneren des Lebensmittels zu berechnen. Die durchgeführte Arbeit zeigt, dass mit Hilfe verschiedenster Sensoren zur direkten beziehungsweise indirekten Messung der äußeren Eigenschaften der Lebensmittel sowie KNNs für die Kategorisierung und Abschätzung der Lebensmittelzusammensetzung die automatische Erkennung und Berechnung der inneren Temperatur von verschiedensten Lebensmitteln möglich ist.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mit der vorliegenden Arbeit soll ein Beitrag zu einer (empirisch) gehaltvollen Mikrofundierung des Innovationsgeschehens im Rahmen einer evolutorischen Perspektive geleistet werden. Der verhaltensbezogene Schwerpunkt ist dabei, in unterschiedlichem Ausmaß, auf das Akteurs- und Innovationsmodell von Herbert Simon bzw. der Carnegie-School ausgerichtet und ergänzt, spezifiziert und erweitert dieses unter anderem um vertiefende Befunde der Kreativitäts- und Kognitionsforschung bzw. der Psychologie und der Vertrauensforschung sowie auch der modernen Innovationsforschung. zudem Bezug auf einen gesellschaftlich und ökonomisch relevanten Gegenstandsbereich der Innovation, die Umweltinnovation. Die Arbeit ist sowohl konzeptionell als auch empirisch ausgerichtet, zudem findet die Methode der Computersimulation in Form zweier Multi-Agentensysteme Anwendung. Als zusammenfassendes Ergebnis lässt sich im Allgemeinen festhalten, dass Innovationen als hochprekäre Prozesse anzusehen sind, welche auf einer Verbindung von spezifischen Akteursmerkmalen, Akteurskonstellationen und Umfeldbedingungen beruhen, Iterationsschleifen unterliegen (u.a. durch Lernen, Rückkoppelungen und Aufbau von Vertrauen) und Teil eines umfassenderen Handlungs- sowie (im Falle von Unternehmen) Organisationskontextes sind. Das Akteurshandeln und die Interaktion von Akteuren sind dabei Ausgangspunkt für Emergenzen auf der Meso- und der Makroebene. Die Ergebnisse der Analysen der in dieser Arbeit enthaltenen fünf Fachbeiträge zeigen im Speziellen, dass der Ansatz von Herbert Simon bzw. der Carnegie-School eine geeignete theoretische Grundlage zur Erfassung einer prozessorientierten Mikrofundierung des Gegenstandsbereichs der Innovation darstellt und – bei geeigneter Ergänzung und Adaption an den jeweiligen Erkenntnisgegenstand – eine differenzierte Betrachtung unterschiedlicher Arten von Innovationsprozessen und deren akteursbasierten Grundlagen sowohl auf der individuellen Ebene als auch auf Ebene von Unternehmen ermöglicht. Zudem wird deutlich, dass der Ansatz von Herbert Simon bzw. der Carnegie-School mit dem Initiationsmodell einen zusätzlichen Aspekt in die Diskussion einbringt, welcher bislang wenig Aufmerksamkeit fand, jedoch konstitutiv für eine ökonomische Perspektive ist: die Analyse der Bestimmungsgrößen (und des Prozesses) der Entscheidung zur Innovation. Denn auch wenn das Verständnis der Prozesse bzw. der Determinanten der Erstellung, Umsetzung und Diffusion von Innovationen von grundlegender Bedeutung ist, ist letztendlich die Frage, warum und unter welchen Umständen Akteure sich für Innovationen entscheiden, ein zentraler Kernbereich einer ökonomischen Betrachtung. Die Ergebnisse der Arbeit sind auch für die praktische Wirtschaftspolitik von Bedeutung, insbesondere mit Blick auf Innovationsprozesse und Umweltwirkungen.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen der vorliegenden Arbeit wird ein Verfahren vorgestellt und untersucht, mit welchem Früchte annähernd verlustfrei und unter sehr hygienischen Bedingungen geschnitten werden können. Die Produkte – hier gezeigt am Beispiel von Äpfeln und Melonen – werden mit einem Hochdruckwasserstrahl geschnitten, der durch ein bildverarbeitendes System entsprechend der Anatomie der Frucht geführt werden kann. Die Vorteile dieses Verfahrens sind die individuelle Schnittführung, die Materialverluste minimiert und die Tatsache, dass die Frucht ohne wesentlichen Eingriff von Personal bearbeitet wird. Die Literaturauswertung ergab, dass diese Technologie bislang noch nicht bearbeitet wurde. Der Einsatz des Hochdruckwasserstrahlschneidens im Bereich der Agrartechnik beschränkte sich auf das Schneiden von Zuckerrüben Brüser [2008], Ligocki [2005] bzw. Kartoffeln Becker u. Gray [1992], das Zerteilen von Fleisch Bansal u. Walker [1999] und Fisch Lobash u. a. [1990] sowie die Nutzung von Wasserstrahlen im Zusammenhang mit der Injektion von Flüssigdünger in Ackerböden Niemoeller u. a. [2011]. Ziel dieser Arbeit war es daher, die Einsatzmöglichkeiten des Wasserstrahlschneidens zu erfassen und zu bewerten. Dazu wurden in einer Vielzahl von Einzelversuchen die Zusammenhänge zwischen den Prozessparametern wie Wasserdruck, Düsendurchmesser, Vorschubgeschwindigkeit und Düsenabstand auf das Schnittergebnis, also die Rauheit der entstehenden Schnittfläche untersucht. Ein Vergleich mit konventionellen Schneidemethoden erfolgte hinsichtlich der Schnittergebnisse und der Auswirkungen des Wasserstrahlschneidens auf nachfolgende Verfahrensschritte, wie dem Trocknen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hyperpolarisations-aktivierte zyklonukleotid-gesteuerte (HCN) Kanäle übernehmen wichtige Funktionen in der Regulation der Herz- und Neuronalaktivität und können über einen dualen Mechanismus aus Membranhyperpolarisation und der Bindung von zyklischen Nukleotiden aktiviert werden. Ein großes Ziel der aktuellen Forschung ist die Entwicklung neuartiger Inhibitoren, die einer Fehlregulation der Kanäle entgegenwirken. In der vorliegenden Arbeit wurde die Regulation von HCN Kanälen durch zyklische Nukleotide im Detail analysiert, indem erstmals ein umfassender Screen mit 48 unterschiedlichen Zyklonukleotid-Analoga am C-terminalen Bereich (bestehend aus C-Linker und Zyklonukleotid-Bindedomäne) der drei Isoformen HCN1, HCN2 und HCN4 durchgeführt wurde. Mit Hilfe eines Fluoreszenzpolarisations-Assays wurde der Einfluss von Modifikationen in der Base, der Ribose und dem zyklischen Phosphat auf die Bindungsaffinitäten innerhalb der Zyklonukleotid-Bindedomäne untersucht. Zyklonukleotid-Analoga mit Modifikationen an der Position 7 und 8 der Base verschoben die apparenten Affinitäten im Vergleich zu den beiden natürlich vorkommenden Zyklonukleotiden cAMP und cGMP vom mikromolaren in den nanomolaren Bereich. Selektiv für die HCN4 Isoform erwiesen sich Zyklonukleotid-Analoga mit Modifikationen an der Position 6 der Base, während Modifikationen an der Position 8 der Base zu einer höheren Affinität für die HCN2 Isoform führten. Im Gegensatz zu HCN2 und HCN4 zeigte die HCN1 Isoform besonders hohe Affinitäten für Zyklonukleotid-Analoga mit Modifikationen an der Position 8 von cGMP. Eine Substitution der 2’-Hydroxylgruppe erlaubte keine Bindung an die HCN Kanäle. Mit 7-CH-cAMP konnte ein hochaffines Bindemolekül für HCN Kanäle identifiziert werden, denn der Austausch eines Stickstoffs gegen eine CH-Einheit an Position 7 der Base führte zu einer 100-fachen Steigerung der Affinität im Vergleich zu cAMP. In Übereinstimmung mit der hochaffinen Bindung konnte in kinetischen Analysen eine langsamere Dissoziationsrate für 7-CH-cAMP gemessen werden. Anhand thermodynamischer Messungen konnte ein entropisch favorisierter Bindungsmodus für 7-CH-cAMP im Vergleich zu cAMP identifiziert werden. Basierend auf einer Kristallstruktur des HCN4 CNBD:7-CH-cAMP Komplexes (2,5 Å) lässt sich erklären, dass 7-CH-cAMP durch seine höhere Lipohilie im Vergleich zu cAMP eine stärkere Präferenz für das hydrophobe Netzwerk zwischen Protein und Base besitzt. In detaillierten, vergleichenden Analysen mit den zyklonukleotidbindenden Proteinen PKA Typ I und II, hPKGIβ und Epac 1 und 2 konnte gezeigt werden, dass 7-CH-cAMP die höchsten Affinitäten für die drei Isoformen der HCN Kanäle aufwies. Somit könnte sich 7-CH-cAMP als vielversprechender Kandidat für die selektive Regulation von HCN Kanälen in vitro und in lebenden Zellen eignen und möglicherweise einen wichtigen Beitrag als krankheitsrelevanter Effektor leisten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Wechsel von Tag und Nacht erzeugt einen regelmäßigen Rhythmus von verschiedenen Umweltreizen, allen voran Licht und Temperatur. Fast jedes bis zum heutigen Tage untersuchte Lebewesen besitzt einen endogenen Mechanismus zur Zeitwahrnehmung, und diese "innere Uhr" befähigt Lebewesen dazu, sich vorausschauend an rhythmische Umwelt-Änderungen anzupassen. Circadiane Rhythmen bestehen auch ohne jegliche äußere Reize und basieren auf einem molekularen Rückkopplungs-Mechanismus, der Rhythmen in Genexpression und Proteinkonzentration von etwa 24 Stunden erzeugt. Obwohl sich die grundsätzlichen Mechanismen und Komponenten dieses molekularen Uhrwerks in allen Insekten ähneln, zeigte sich jedoch immer mehr, dass es im Detail doch wesentliche Unterschiede zwischen verschiedenen Insektengruppen gibt. Während das molekulare Uhrwerk der Fruchtfliege Drosophila melanogaster inzwischen sehr gut untersucht ist, fehlen bei den meisten Insektengruppen immernoch eingehende Untersuchungen. Fast nichts ist über die molekulare Basis von circadianen Rhythmen bei der Schabe Rhyparobia maderae bekannt, obwohl diese Art bereits seit Langem als Modellorganismus in der Chronobiologie dient. Um mit der Forschung am molekularen, circadianen System von R. maderae zu beginnen, wurde die Struktur und das Expressionsprofil der core feedback loop Gene per, tim1 und cry2 analysiert. Mittels degenerierten Primern und RACE konnte das vollständige offene Leseraster (OLR) von rmPer und rmCry2, und ein Teil des rmTim1 OLR kloniert werden. Eine phylogenetische Analyse gruppierte rmPER und rmCRY2 gemeinsam mit den Orthologa hemimetaboler Insekten. Viele bei D. melanogaster funktionell charakterisierte Domänen sind bei diesen Proteinen konserviert, was auf eine ähnliche Funktion in der inneren Uhr von R. maderae hinweist. Mittels quantitativer PCR konnte gezeigt werden, dass die mRNA von rmPer, rmTim1 und rmCry2 in verschiedenen Lichtregimen in der gleichen Phasenlage Tageszeit-abhängig schwankt. Die Phasenlage stellte sich bei unterschiedlichen Photoperioden jeweils relativ zum Beginn der Skotophase ein, mit Maxima in der ersten Hälfte der Nacht. Auch im Dauerdunkel zeigen sich Rhythmen in der rmTim1 und rmCry2 Expression. Die Amplitude der rmPer Expressionsrhythmen war jedoch so gering, dass keine signifikanten Unterschiede zwischen den einzelnen Zeitgeberzeiten (ZT) festgestellt werden konnten. Mittels Laufrad-Assays wurde untersucht wie Kurz- und Langtag Lichtregime die Verhaltensrhythmen beeinflussen. Es konnten nur Unterschiede in der Periodenlänge unter freilaufenden Bedingungen festgestellt werden, wenn höhere Lichtintensitäten (1000lx) zur Synchronisation (entrainment) genutzt wurden. Die Periode des freilaufenden Rhythmus war bei Tieren aus dem Kurztag länger. Die photoperiodische Plastizität zeigte sich also auch auf Verhaltensebene, obwohl höhere Lichtintensitäten notwendig waren um einen Effekt zu beobachten. Basierend auf den Sequenzen der zuvor klonierten OLR wurden gegen rmPER, rmTIM1 und rmCRY2 gerichtete Antikörper hergestellt. Die Antikörper gegen rmPER und rmTIM1 erkannten in western blots sehr wahrscheinlich spezifisch das jeweilige Protein. Zeitreihen von Gehirngewebe-Homogenisaten zeigten keinen offensichtlichen circadianen Rhythmus in der Proteinkonzentration, wahrscheinlich auf Grund einer Oszillation mit niedriger Amplitude. In Immunhistochemischen Färbungen konnte nur mit dem gegen rmPER gerichteten Antikörper aus Kaninchen ein Signal beobachtet werden. Beinahe jede Zelle des Zentralnervensystems war rmPER-immunreaktiv im Zellkern. Es konnten keine Unterschiede zwischen den untersuchten ZTs festgestellt werden, ähnlich wie bei den western blot Zeitreihen. In dieser Studie konnten erstmals molekulare Daten der circadianen Uhr von R. maderae erfasst und dargestellt werden. Die Uhrgene per, tim1 und cry2 werden in dieser Schabenart exprimiert und ihre Domänenstruktur sowie das circadiane Expressionsmuster ähneln dem hypothetischen ursprünglichen Insektenuhrwerk, welches der circadianen Uhr von Vertebraten nahesteht. Das molekulare Uhrwerk von R. maderae kann sich an unterschiedliche Photoperioden anpassen, und diese Anpassungen manifestieren sich im Expressionsprofil der untersuchten Uhrgene ebenso wie im Verhalten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary - Cooking banana is one of the most important crops in Uganda; it is a staple food and source of household income in rural areas. The most common cooking banana is locally called matooke, a Musa sp triploid acuminate genome group (AAA-EAHB). It is perishable and traded in fresh form leading to very high postharvest losses (22-45%). This is attributed to: non-uniform level of harvest maturity, poor handling, bulk transportation and lack of value addition/processing technologies, which are currently the main challenges for trade and export, and diversified utilization of matooke. Drying is one of the oldest technologies employed in processing of agricultural produce. A lot of research has been carried out on drying of fruits and vegetables, but little information is available on matooke. Drying of matooke and milling it to flour extends its shelf-life is an important means to overcome the above challenges. Raw matooke flour is a generic flour developed to improve shelf stability of the fruit and to find alternative uses. It is rich in starch (80 - 85%db) and subsequently has a high potential as a calorie resource base. It possesses good properties for both food and non-food industrial use. Some effort has been done to commercialize the processing of matooke but there is still limited information on its processing into flour. It was imperative to carry out an in-depth study to bridge the following gaps: lack of accurate information on the maturity window within which matooke for processing into flour can be harvested leading to non-uniform quality of matooke flour; there is no information on moisture sorption isotherm for matooke from which the minimum equilibrium moisture content in relation to temperature and relative humidity is obtainable, below which the dry matooke would be microbiologically shelf-stable; and lack of information on drying behavior of matooke and standardized processing parameters for matooke in relation to physicochemical properties of the flour. The main objective of the study was to establish the optimum harvest maturity window and optimize the processing parameters for obtaining standardized microbiologically shelf-stable matooke flour with good starch quality attributes. This research was designed to: i) establish the optimum maturity harvest window within which matooke can be harvested to produce a consistent quality of matooke flour, ii) establish the sorption isotherms for matooke, iii) establish the effect of process parameters on drying characteristics of matooke, iv) optimize the drying process parameters for matooke, v) validate the models of maturity and optimum process parameters and vi) standardize process parameters for commercial processing of matooke. Samples were obtained from a banana plantation at Presidential Initiative on Banana Industrial Development (PIBID), Technology Business Incubation Center (TBI) at Nyaruzunga – Bushenyi in Western Uganda. A completely randomized design (CRD) was employed in selecting the banana stools from which samples for the experiments were picked. The cultivar Mbwazirume which is soft cooking and commonly grown in Bushenyi was selected for the study. The static gravitation method recommended by COST 90 Project (Wolf et al., 1985), was used for determination of moisture sorption isotherms. A research dryer developed for this research. All experiments were carried out in laboratories at TBI. The physiological maturity of matooke cv. mbwazirume at Bushenyi is 21 weeks. The optimum harvest maturity window for commercial processing of matooke flour (Raw Tooke Flour - RTF) at Bushenyi is between 15-21 weeks. The finger weight model is recommended for farmers to estimate harvest maturity for matooke and the combined model of finger weight and pulp peel ratio is recommended for commercial processors. Matooke isotherms exhibited type II curve behavior which is characteristic of foodstuffs. The GAB model best described all the adsorption and desorption moisture isotherms. For commercial processing of matooke, in order to obtain a microbiologically shelf-stable dry product. It is recommended to dry it to moisture content below or equal to 10% (wb). The hysteresis phenomenon was exhibited by the moisture sorption isotherms for matooke. The isoteric heat of sorption for both adsorptions and desorption isotherms increased with decreased moisture content. The total isosteric heat of sorption for matooke: adsorption isotherm ranged from 4,586 – 2,386 kJ/kg and desorption isotherm from 18,194– 2,391 kJ/kg for equilibrium moisture content from 0.3 – 0.01 (db) respectively. The minimum energy required for drying matooke from 80 – 10% (wb) is 8,124 kJ/kg of water removed. Implying that the minimum energy required for drying of 1 kg of fresh matooke from 80 - 10% (wb) is 5,793 kJ. The drying of matooke takes place in three steps: the warm-up and the two falling rate periods. The drying rate constant for all processing parameters ranged from 5,793 kJ and effective diffusivity ranged from 1.5E-10 - 8.27E-10 m2/s. The activation energy (Ea) for matooke was 16.3kJ/mol (1,605 kJ/kg). Comparing the activation energy (Ea) with the net isosteric heat of sorption for desorption isotherm (qst) (1,297.62) at 0.1 (kg water/kg dry matter), indicated that Ea was higher than qst suggesting that moisture molecules travel in liquid form in matooke slices. The total color difference (ΔE*) between the fresh and dry samples, was lowest for effect of thickness of 7 mm, followed by air velocity of 6 m/s, and then drying air temperature at 70˚C. The drying system controlled by set surface product temperature, reduced the drying time by 50% compared to that of a drying system controlled by set air drying temperature. The processing parameters did not have a significant effect on physicochemical and quality attributes, suggesting that any drying air temperature can be used in the initial stages of drying as long as the product temperature does not exceed gelatinization temperature of matooke (72˚C). The optimum processing parameters for single-layer drying of matooke are: thickness = 3 mm, air temperatures 70˚C, dew point temperature 18˚C and air velocity 6 m/s overflow mode. From practical point of view it is recommended that for commercial processing of matooke, to employ multi-layer drying of loading capacity equal or less than 7 kg/m², thickness 3 mm, air temperatures 70˚C, dew point temperature 18˚C and air velocity 6 m/s overflow mode.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende wissenschaftliche Arbeit ist auf der Datenbasis des DFG-Projekts ELWmeta (Einfluss von Lernzielspezifität auf die Wirksamkeit metakognitiver Lernhilfen) entstanden, in dem insgesamt N = 244 Schülerinnen und Schüler der achten und neunten gymnasialen Jahrgangsstufe in einem experimentellen 2x2-Design untersucht wurden. Herr Wiegandt hat die dazu durchgeführten Datenerhebungen in dem Projekt ELWmeta unterstützt. Eines der generellen Leitziele des Projekts war die Prüfung, inwieweit metakognitive Lernhilfen in Kombination mit unterschiedlichen Lernzielen auf mehrere Kriterien des selbstständigen, simulationsbasierten Experimentierens zum curricular validen Inhalt „Auftrieb in Flüssigkeiten“ wirken. Herr Wiegandt verfolgt in seiner empirischen Arbeit das Ziel, die Anwendung unterschiedlicher Experimentierstrategien beim selbstregulierten Experimentieren im genannten physikalischen Inhaltsbereich „Auftrieb in Flüssigkeiten“ bei Schülerinnen und Schülern der Jahrgangsstufen 8 und 9 zu untersuchen. Im Vordergrund steht neben einer deskriptiven Betrachtung von Strategienutzungshäufigkeiten u. a. der Vergleich der Jahrgangsstufen 8 und 9 sowie die Prüfung von Zusammenhängen zwischen Strategienutzung, Lernerfolg und Motivation. Entlang an seinen Zielen versucht der Autor im Rahmen des einflussreichen Scientific Discovery as Dual Search (SDDS)-Modells von Klahr und Dunbar (1988) dazu beizutragen, offene Fragen an der Schnittstelle instruktionspsychologischer, physikdidaktischer und pädagogischer Forschung zu beantworten. Im Anschluss an eine informative und die Relevanz des Themas der Arbeit verdeutlichenden Einführung (Kapitel 1) stellt Herr Wiegandt den theoretischen Hintergrund seiner Arbeit in Kapitel 2 vor, wo er selbstreguliertes Lernen in offenen Lernumgebungen (Kapitel 2.1) und wissenschaftlich entdeckendes Lernen (Kapitel 2.2) letztlich zum Begriff des selbstregulierten Experimentierens zusammenführt. Im Zuge dieses Theorieteils geht der Autor dabei auch auf Wissensarten und die Bedeutung von Motivation für den Wissenserwerb ein (Kapitel 2.1.1 und Kapitel 2.1.3). Aufbauend auf Kapitel 2 werden in Kapitel 3 die Forschungsfragen der vorliegenden Arbeit in Kapitel 3 entwickelt und Forschungslücken identifiziert. Die im Projekt verwendete computerbasierte Lernumgebung samt verhaltensbasierter Strategiemaße wird anschließend in Kapitel 4 beschrieben, um darauf aufbauend in Kapitel 5 schließlich die eigene Studie darzulegen. Nach wissenschaftlich klar formulierten Hypothesen (Kapitel 5.1), der Beschreibung der Stichprobe (Kapitel 5.2), der Messinstrumente für den Wissenserwerb und die aktuelle Motivation (Kapitel 5.3) sowie der Durchführung der Studie (Kapitel 5.4) berichtet Herr Wiegandt seine erzielten Ergebnisse (Kapitel 5.5). Anknüpfend diskutiert der Autor diese reflektiert und schlägt theoretische sowie praktische Implikationen vor. Den Schluss bilden das Literaturverzeichnis und der Anhang.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die langfristig sichere und bezahlbare Versorgung von Mietern mit Wohnraum ist ein wichtiger Gesichtspunkt bei der Entscheidung von Wohnungsunternehmen, welche Objekte in welchem Umfang und wann energiesparend modernisiert werden. Eine integrierte Analyse der Wohnkostenbelastung (= Quotient aus Bruttowarmmiete und Haushaltsnettoeinkommen) im Zeitverlauf wurde bislang für die GdW-Wohnungsunternehmen noch nicht vorgenommen. Diese Arbeit schafft ein Modell für die Darstellung der zeitlichen Entwicklung der Wohnkostenbelastung. Ziel ist es, die Auswirkungen von Investitionsentscheidungen für energetische Modernisierungen besser zu verstehen. Als Eingangsdaten wurden soweit wie möglich empirische Daten für alle Bestandteile der Wohnkosten sowie für die entsprechenden Preissteigerungsraten und Einkommensentwicklungen zusammengestellt, die nun auch für die weitere Forschung zur Verfügung stehen. Es werden in der Arbeit 18 Gebäudetypen definiert, die sich nach Stand der energetischen Modernisierung und nach Energieträger unterscheiden und die 97% der durch GdW-Unternehmen bewirtschafteten Wohnungen abbilden. Für diese Typen wird die Entwicklung der Wohnkostenbelastung in verschiedenen Szenarien diskutiert. Besonders ausführlich werden Entwicklungen der Wohnkostenbelastung bei überdurchschnittlicher Anfangswohnkostenbelastung analysiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Trocknung ist eines der am häufigsten verwendeten Verfahren, um die Haltbarkeit von landwirtschaftlichen Gütern zu verlängern. Von den vielen gebräuchlichen Trocknungsarten ist die Konvektionstrocknung, die Luft als Energie- und Feuchteträger verwendet, weiterhin die wichtigste. Trotz ihrer Nachteile und ihres hohen spezifischen Energieverbrauchs sind Satztrockner für die Getreide-, Kräuter- und Heutrocknung noch weit verbreitet. Ferner werden Konvektionstrockner gemeinhin zur künstlichen Trocknung eingesetzt. Diese Arbeit ist Teil eines Forschungsprojekts, welches eine sorptionsgestützte solare Trocknung von landwirtschaftlichen Gütern untersucht. Bei dieser wird kühle feuchte Luft in Kontakt mit einer konzentrierten hygroskopischen Salzlösung gebracht. Während dieses Prozesses wird die Luft entfeuchtet und mit Hilfe der freigesetzten Verdampfungsenthalpie erwärmt. Die Anwendung dieses Verfahrens zur Trocknung landwirtschaftlicher Güter ist besonders interessant für Produkte, die bei niedrigen Temperaturen verarbeitet werden, um ihre Qualität nicht negativ zu beeinflussen. Bei allen energieintensiven Prozessen und vor allem bei der Verwendung von Solarenergie ist ein effizienter Energieverbrauch äußerst wichtig für den technischen und ökonomischen Erfolg. Eine ungleichmäßige Trocknung ist oftmals bei Satztrocknern zu beobachten, was die Energieeffizienz negativ beeinflusst. Aus diesem Grund lag im agrartechnischen Teil des Projekts der Schwerpunkt auf der Trocknung bei niedrigen Temperaturen und geringer Luftfeuchte, die der Sorptionsprozess liefert, sowie auf der Verbesserung der Luftverteilung und der Gleichmäßigkeit der Trocknung in lockeren und verdichteten Schüttungen. Es wurden Dünnschicht-Trocknungsexperminente für Blattsellerie bei unterschiedlichen Lufttemperaturen und unterschiedlicher relativer Luftfeuchte durchgeführt. Die Ergebnisse zeigen eindeutig, dass nicht nur die Lufttemperatur einen großen Einfluss auf die Trocknungsgeschwindigkeit hat, sondern auch die relative Luftfeuchte. Dies ist vor allem bei niedrigen Temperaturen, wie sie vom Sorptionssystem geliefert werden, der Fall. Um die Luftverteilung und Gleichmäßigkeit der Trocknung lockerer Schüttungen zu untersuchen, wurde ein Kistentrockner experimentell und in Strömungssimulationen getestet. Die Leistung des ursprünglichen Trockners wurde signifikant durch einfache Veränderungen des Designs verbessert. Diese stellten einen gleichmäßigeren Luftstrom durch das Produkt sicher. Die Trocknung von Heu-Rundballen stellt eine Herausforderung dar, da diese sehr stark verdichtet sind und die Dichte innerhalb eines Ballens stark schwankt. Strömungs- und Trocknungssimulationen so wie experimentelle Messungen zeigten, dass das Trocknerdesign einen großen Einfluss auf die Gleichmäßigkeit der Trocknung hat. Bei den einfachsten Trocknervarianten war die Verteilung auch bei optimal gepressten Ballen unzureichend, während komplexere Trockner eine gleichmäßigere Trocknung erzielten. Jedoch werden auch hier die Ergebnisse stark von der Verteilung der Dichte im Ballen beeinflusst, welche in der Praxis weiterhin nicht ideal ist. Abschließend wurde, um den Trocknungsfortschritt zu überwachen, eine Methodik getestet, bei der zur Messung des durchschnittlichen aktuellen Feuchtegehalts des Produktes psychrometrische Messungen und Messungen des Luftstroms in kurzen Abständen durchgeführt wurden. Die Menge des tatsächlich entfernten Wassers stimmte in den meisten Fällen gut mit der geschätzten Menge überein. Jedoch hängt der Erfolg dieser Methode stark von der Genauigkeit der Messfühler ab.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Veränderungen der Matrixbindung und der molekularen Struktur der antioxidativ wirkenden Carotinoide können die Bioakzessibilität dieser Substanzen beeinflussen. Die vorliegende Studie untersuchte die Einflüsse von Erhitzung und Gefriertrocknung auf die Massenkonzentrationen der all-E- und 13-Z-Isomere von Lutein und Zeaxanthin in Eigelb und dessen Fraktionen Plasma und Granula. Dabei wurden die Strukturveränderungen der Lipoproteine, mit deren Lipiden die Eigelb-Xanthophylle assoziiert sind, betrachtet. Die Strukturentfaltungen der Low-Density und High-Density Lipoproteine (LDL und HDL) erhöhten die Extrahierbarkeit sowie Z-Isomerisierungen und oxidative Degradationen der Xanthophylle, die der Temperatureinfluss und Reaktanten katalysierten. Die Extrahierbarkeit, Z-Isomerisierungen und oxidative Degradationen der Xanthophylle waren durch den Aufschluss, die Gelbildung, die Oberflächenvergrößerung und die Erhöhung des Trockenmassegehalts der Matrix beeinflusst. Die Strukturentfaltung der in hohen Mengen in Plasma enthaltenen LDL findet bei geringeren Temperaturen (ca. 65 - 76 °C) als die der in Granula dominanten HDL (ca. 75 - 84 °C) statt. Zudem schien die gefriertrocknungsinduzierte Strukturentfaltung der LDL im Gegensatz zu HDL und Granula durch Rehydratation nicht vollständig reversibel zu sein. Daher wies Plasma eine geringere Stabilität bei der Erhitzung und Gefriertrocknung als Eigelb und Granula auf. Die Entfaltung von Lipoproteinstrukturen und die thermisch katalysierte Z-Isomerisierung sind wahrscheinlich für die signifikante 13-Z-Lutein-Zunahme nach Erhitzung von Plasma und Granula bei 82 und 87 °C sowie von Granula bei 77 °C verantwortlich. Der signifikante Verlust der all-E-Isomere der bei 87 °C erhitzten Proben von Eigelb und Granula war vermutlich durch 13-Z-Isomerisierungen und oxidative Degradationen der Xanthophylle bedingt. Marginale Veränderungen der Xanthophylle basierten vermutlich darauf, dass die multifaktoriellen Einflüsse bei der Erhitzung einander kompensierten. Die Erhitzung bei 67 °C bedingte zudem aufgrund der weitgehenden Erhaltung der Lipoproteine ähnliche Xanthophyll-Gehalte wie bei den unerhitzten Proben. Bei der Gefriertrocknung führten die Strukturentfaltung der Lipoproteine unter Abspaltung der Lipide und die abtrocknungsbedingte Oberflächenvergrößerung zu signifikanten Zunahmen der Xanthophylle bei Plasma und Granula. Dies bestätigte sich für gefriergetrocknetes Eigelb vermutlich aufgrund von oxidativen Degradationen und Aggregationen der Xanthophylle nicht. Unterschiedliche Massenkonzentrationsänderungen der Xanthophylle im Vergleich der beiden Chargen wurden mit unterschiedlichen Anteilen an ungesättigten Fettsäuren erklärt. Die charakteristischen Anteile an Proteinen und Lipoproteinen, deren Gelbildungseigenschaften und die Lipidkomposition der Lipoproteine sowie die methodisch bedingte Verdünnung von Plasma waren vermutlich für die bei Granula, Plasma und Eigelb differierenden Massenkonzentrationsänderungen der Xanthophylle verantwortlich. Die Ergebnisse ließen eine höhere 13-Z-Isomerisierungsneigung von all-E-Lutein im Vergleich zu all-E-Zeaxanthin vermuten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Anliegen dieser Dissertation ist die Untersuchung des Einflusses eines Lesestrategietrainings auf die Entwicklung des Leseverständnisses in den Klassen 2 und 4. In einer experimentellen Studie mit Prä-Post-Test-Design wurde die Wirksamkeit eines 25 Sitzungen umfassenden Trainings der Strategien Vorhersagen, kleinschrittiges Wiederholen und Zusammenfassen den Effekten einer lesefernen Kontrollbedingung gegenübergestellt. Die Lesestrategien wurden peergestützt vermittelt, d. h. in Dyaden aus einem leseschwächeren und einem lesestärkeren Kind. In drei Teilstudien wurden Fragestellungen zur differenzierten Analyse der Trainingswirksamkeit untersucht: (1) Wird die Trainingswirksamkeit durch die Effizienz der Worterkennungsprozesse beeinflusst?, (2) Kann die Entwicklung der Leseflüssigkeit durch das Lesestrategietraining gefördert werden? und (3) Können leseschwache Kinder von der Zusammenarbeit mit lesestärkeren Tutor(inn)en hinsichtlich der Verbesserung ihres Leseverständnisses profitieren?. Die Ergebnisse dieser Dissertation sprechen dafür, dass das eingesetzte peergestützte Lesestrategietraining das Leseverständnis und die Leseflüssigkeit von Zweit- und Viertklässler(inne)n unter bestimmten Voraussetzungen positiv beeinflussen konnte. Die Leseleistungen vor dem Training, die Effizienz der Worterkennungsprozesse und die Rolle im dyadischen Lernen erwiesen sich als relevante Einflussfaktoren für die Wirksamkeit des Strategietrainings. Zweitklässler(innen), die aufgrund guter Prä-Test Leseleistungen die Tutor(inn)enrolle erhielten, konnten ihr Leseverständnis gegenüber Kindern mit gleichen Leseleistungen in der Kontrollbedingung signifikant steigern. Leseschwache Zweitklässler(innen) hingegen schienen nur bei (relativ) effizienten Worterkennungsprozessen die Lesestrategien zur Steigerung ihres globalen Leseverständnisses nutzen zu können, wobei sie keinen Zugewinn aus der dyadischen Zusammenarbeit ziehen konnten. Bei ineffizienten Worterkennungsprozessen hatte das Strategietraining negative Auswirkungen auf das allgemeine Leseverständnis. Anders in Klasse 4: Kinder, die aufgrund unterdurchschnittlicher Leseleistungen im Prä-Test als Tutand(inn)en am Training teilnahmen, verbesserten ihr Leseverständnis und konnten dabei von der Zusammenarbeit mit lesestarken Tutor(inn)en profitieren. Für die Tutor(inn)en in Klasse 4 zeigte sich kein Effekt des Strategietrainings gegenüber der Kontrollgruppe. In beiden Klassenstufen stellte sich im Verlauf des Strategietrainings eine schnellere Entwicklung der Leseflüssigkeit der schwachen Leser(innen) ein. Zusammengefasst erzielte das Training die größten Effekte für gute Leser(innen) in Klasse 2 und schwache Leser(innen) in Klasse 4 – beide Gruppen konnten ihr Leseverständnis praktisch bedeutsam gegenüber Kindern mit gleichen Leseleistungen in der Kontrollbedingung steigern.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der psycholinguistischen Forschung ist die Annahme weitverbreitet, dass die Bewertung von Informationen hinsichtlich ihres Wahrheitsgehaltes oder ihrer Plausibilität (epistemische Validierung; Richter, Schroeder & Wöhrmann, 2009) ein strategischer, optionaler und dem Verstehen nachgeschalteter Prozess ist (z.B. Gilbert, 1991; Gilbert, Krull & Malone, 1990; Gilbert, Tafarodi & Malone, 1993; Herbert & Kübler, 2011). Eine zunehmende Anzahl an Studien stellt dieses Zwei-Stufen-Modell von Verstehen und Validieren jedoch direkt oder indirekt in Frage. Insbesondere Befunde zu Stroop-artigen Stimulus-Antwort-Kompatibilitätseffekten, die auftreten, wenn positive und negative Antworten orthogonal zum aufgaben-irrelevanten Wahrheitsgehalt von Sätzen abgegeben werden müssen (z.B. eine positive Antwort nach dem Lesen eines falschen Satzes oder eine negative Antwort nach dem Lesen eines wahren Satzes; epistemischer Stroop-Effekt, Richter et al., 2009), sprechen dafür, dass Leser/innen schon beim Verstehen eine nicht-strategische Überprüfung der Validität von Informationen vornehmen. Ausgehend von diesen Befunden war das Ziel dieser Dissertation eine weiterführende Überprüfung der Annahme, dass Verstehen einen nicht-strategischen, routinisierten, wissensbasierten Validierungsprozesses (epistemisches Monitoring; Richter et al., 2009) beinhaltet. Zu diesem Zweck wurden drei empirische Studien mit unterschiedlichen Schwerpunkten durchgeführt. Studie 1 diente der Untersuchung der Fragestellung, ob sich Belege für epistemisches Monitoring auch bei Informationen finden lassen, die nicht eindeutig wahr oder falsch, sondern lediglich mehr oder weniger plausibel sind. Mithilfe des epistemischen Stroop-Paradigmas von Richter et al. (2009) konnte ein Kompatibilitätseffekt von aufgaben-irrelevanter Plausibilität auf die Latenzen positiver und negativer Antworten in zwei unterschiedlichen experimentellen Aufgaben nachgewiesen werden, welcher dafür spricht, dass epistemisches Monitoring auch graduelle Unterschiede in der Übereinstimmung von Informationen mit dem Weltwissen berücksichtigt. Darüber hinaus belegen die Ergebnisse, dass der epistemische Stroop-Effekt tatsächlich auf Plausibilität und nicht etwa auf der unterschiedlichen Vorhersagbarkeit von plausiblen und unplausiblen Informationen beruht. Das Ziel von Studie 2 war die Prüfung der Hypothese, dass epistemisches Monitoring keinen evaluativen Mindset erfordert. Im Gegensatz zu den Befunden anderer Autoren (Wiswede, Koranyi, Müller, Langner, & Rothermund, 2013) zeigte sich in dieser Studie ein Kompatibilitätseffekt des aufgaben-irrelevanten Wahrheitsgehaltes auf die Antwortlatenzen in einer vollständig nicht-evaluativen Aufgabe. Die Ergebnisse legen nahe, dass epistemisches Monitoring nicht von einem evaluativen Mindset, möglicherweise aber von der Tiefe der Verarbeitung abhängig ist. Studie 3 beleuchtete das Verhältnis von Verstehen und Validieren anhand einer Untersuchung der Online-Effekte von Plausibilität und Vorhersagbarkeit auf Augenbewegungen beim Lesen kurzer Texte. Zusätzlich wurde die potentielle Modulierung dieser Effeke durch epistemische Marker, die die Sicherheit von Informationen anzeigen (z.B. sicherlich oder vielleicht), untersucht. Entsprechend der Annahme eines schnellen und nicht-strategischen epistemischen Monitoring-Prozesses zeigten sich interaktive Effekte von Plausibilität und dem Vorhandensein epistemischer Marker auf Indikatoren früher Verstehensprozesse. Dies spricht dafür, dass die kommunizierte Sicherheit von Informationen durch den Monitoring-Prozess berücksichtigt wird. Insgesamt sprechen die Befunde gegen eine Konzeptualisierung von Verstehen und Validieren als nicht-überlappenden Stufen der Informationsverarbeitung. Vielmehr scheint eine Bewertung des Wahrheitsgehalts oder der Plausibilität basierend auf dem Weltwissen – zumindest in gewissem Ausmaß – eine obligatorische und nicht-strategische Komponente des Sprachverstehens zu sein. Die Bedeutung der Befunde für aktuelle Modelle des Sprachverstehens und Empfehlungen für die weiterführende Forschung zum Vehältnis von Verstehen und Validieren werden aufgezeigt.