1000 resultados para säie
Resumo:
Seit Anfang der 1990er Jahre wird Schulen mit dem Ziel der Qualitätsentwicklung größere Autonomie zugesprochen, um somit auch verstärkt lokalen und regionalen Anforderungen und Gegebenheiten gerecht zu werden (Rahm & Schröck, 2007). Die Profilierung als Partnerschule des Leistungssports (PdL) ist Ausdruck einer solchen Schulentwicklung (Fessler, 2010). Die PdL sind die federführenden Schulen im hessischen Landesprogramm „Talentsuche – Talentförderung“ und haben die Aufgabe, die Athleten bei der Bewältigung der Doppelbelastung durch Schule und Leistungssport zu unterstützen (Scheid, Eppinger & Adolph, 2007). Das Landesprogramm enthält verbindliche Vorgaben zur Struktur und Umsetzung der PdL (HKM & LSB Hessen, 2006). Diese werden jedoch auf Grund der unterschiedlichen Kontexte und individuellen Entscheidungen der Funktionsträger und Akteure auf der einzel-schulischen Ebene interpretiert und den jeweiligen Bedingungen angepasst. Dies führt zu unterschiedlichen Vor-Ort-Lösungen der schulischen Profilierung (Fend, 2008). Die Studie geht drei übergeordneten Fragestellungen nach: 1. Gelingt es den Partnerschulen die leistungssportlich ambitionierte Schülerinnen und Schüler zu fördern, pädagogisch zu unterstützen und die schulische Ausbildung zu gewährleisten? 2. Welche Bedeutung haben die Bereiche und Dimensionen der Schulqualität für die Partnerschulen im Hinblick auf eine effektive Verbindung von schulischer Ausbildung und leistungssportlicher Entwicklung? 3. Welche Besonderheiten und Unterschiede lassen sich zwischen den untersuchten Schulen feststellen? Die in zwei Phasen gegliederte Untersuchung zielt mit seinem qualitativen Vorgehen auf die Evaluation solcher individuellen Schulprofile und die Identifizierung der Bedingungen und Prozesse der Vernetzung von Schule und Leistungssport. Mittels Fragebögen und Schulprogrammanalysen (Phase 1 – Bestanderhebung an allen 27 PdL) sowie leitfadengestützter Interviews an sechs ausgewählten Standorten (Phase 2 – Qualitätsanalyse) werden die bedeutenden Bereiche der Qualitätsentwicklung herausgearbeitet und inhaltsanalytisch nach Mayring (2010) ausgewertet. Als wichtige Ergebnisse der Evaluation der Entwicklung des Schulprofils Partnerschule des Leistungssports kann u.a. festgestellt werden, dass 1. es allen Schulen weitestgehend gelingt die Nachwuchsathleten pädagogisch verant-wortungsbewusst zu fördern, sich jedoch einzelne Sportschüler auch dazu kritisch äußern. 2. die Bedeutung der Qualitätsbereiche zwischen den Schulen variiert; die Schulleitung im Prozess der Profilierung eine der wichtigsten Rollen einnimmt und die besondere Aufgabe für sie darin besteht – im Sinne von governance – unterschiedliche Ansichten und Einstellungen der Akteure zu reflektieren, zu kommunizieren und zu koordinieren. 3. an Schulen mit einer betont leistungssportlichen Ausrichtung vermehrt Konflikte auftreten können und mit Blick auf die Sportschüler die Gefahr besteht, dass an diesen Schulen nicht immer das Ziel der Mündigkeit erreicht wird.
Resumo:
Im Zentrum der Dissertation steht die höfische Tierhaltung in der ehemaligen Residenzstadt Kassel. Die Auswertung der Archivquellen stellt ein kontinuierliches Bild des Aufkommens exotischer Tiere vom 15. bis ins 18. Jahrhundert dar. Der Fokus richtet sich auf die barocke Menagerie des Landgrafen Karl von Hessen-Kassel (ca. 1680 - 1730), die mit ihrem systematisch aufgebauten und umfangreichen Tierbestand die Einrichtungen seiner Vorgänger weit übertraf. Die Sammlung lebender Raritäten aus allen Regionen der Welt diente der absolutistischen Selbstdarstellung und der Visualisierung des Herrschaftsstatus. Die Untersuchung der zeitgenössischen Reiseberichte zeigt, dass die Menagerietiere vom Betrachter ebenso als kuriose und/oder rare Sehenswürdigkeiten empfunden wurden wie die musealen Ausstellungsstücke einer Kunstkammer. Da sie als lebende Schauobjekte Staunen auslösten, müssen sie mit der „frühneuzeitlichen Neugierde“ (curiositas) in Verbindung gebracht werden und bildeten einen wesentlichen Bestandteil des imaginären Welttheaters „Macrocosmos in Microcosmo“. Gerade hier kann die Dissertation eine enge Verbindung zwischen Menagerie und Kunstkammer belegen, die in der Forschungsliteratur bisher kaum thematisiert wurde. Die Tiersammlung bildete einen räumlich separierten Teil der Sammlungen des kunstsinnigen und naturwissenschaftlich interessierten Fürsten, die ansonsten im Kunsthaus untergebracht waren. Der Menagerie kam die gleiche reichspolitisch repräsentative Bedeutung zu, welche auch die begehbare Sammlung inne hatte. Die von 1764 bis 1785 bestehende Menagerie seines Enkelsohnes, Friedrich II., folgte dagegen anderen Zielsetzungen. Sie ist in Zusammenhang mit pädagogischen und kulturellen Bemühungen seiner Regierung im Sinne des aufgeklärten Absolutismus zu sehen. Ein weiterer Teil der Untersuchung widmet sich dem Kasseler „Tierstück“ von Johann Melchior Roos („Die Menagerie des Landgrafen Carl“, 1722-1728, mhk). Die kunsthistorische Analyse ordnet das Gemälde in die Tradition der niederländischen Sammelbilder des 17. Jahrhunderts ein. Der Maler bedient sich traditioneller Paradiesdarstellungen, welche die Utopie von der friedlichen Koexistenz aller Lebewesen zum Thema haben. Ebenso steht das Kasseler „Tierstück“ als Sammelbild wertvoller gemalter Raritäten den naturhistorisch-enzyklopädischen Stillleben nahe, die bevorzugt Muscheln und Blumenbuketts zeigen. Die Präsentation des Gemäldes als Bestandteil der enzyklopädisch gedachten Naturaliensammlung im „Kunsthaus“ (Ottoneum) ordnet es von Beginn an der begehbaren höfischen Welt zu. Dabei wird die zeitgenössische Wahrnehmung des „Tierstücks“ als kurioses Kunstwerk herausgearbeitet, dem im Ensemble von Naturalia und Artificialia ein universalistisches Bildprogramm zukam. Die Authentizität der im Gemälde dargestellten Tiersammlung lässt sich nicht bestätigen. Der Maler hat mit seiner fiktiven Bildkompilation einen idealen Zustand erzeugt. Als typisches Sammlungsbild ist es eher als Metonymie der Sammlung wahrzunehmen, das seinen Verweiszusammenhang innerhalb der als Mikrokosmos organisierten Sammlung entfalten konnte.
Resumo:
Das Ernährungsverhalten einer Bevölkerung hat einen wesentlichen Einfluss auf das Wohlbefinden, die Gesundheit und Leistungsfähigkeit der Menschen. Ernährungsbedingte, chronische Erkrankungen weisen in den westlichen Industrienationen eine hohe Inzidenz und Prävalenz auf. Präventionsmaßnahmen im Setting Schule sollen das Ernährungsverhalten der Kinder- und Jugendlichen positiv beeinflussen. Gerade in diesem Setting können Personen mit unterschiedlichem sozioökonomischem Status, sowie Personen aus diversen Lebensbereichen angesprochen werden. Der Ernährungsführerschein (EFS) ist eine schulbasierte Primärpräventions-maßnahme, der in der 3. Jahrgangsstufe/Grundschule durchgeführt wird. In 6 – 7 Unterrichtseinheiten erfolgt eine praxisnahe Vermittlung von Grundkenntnissen über Ernährung, Lebensmittel und deren Zubereitung. Der EFS möchte eine Verhaltensänderung der Schulkinder bewirken. Sie erlernen Kompetenzen, damit sie in der Lage sind, sich selbst eine gesunde Mahlzeit zubereiten zu können. Aber kann dieses Projekt eine nachhaltige Verhaltensänderung bewirken? Die folgende Studie mit Mixed-Methods-Ansatz im Explanatory-Sequential-Design versucht genau dieser Frage nachzugehen. Auf eine quantitative Prä- und Postbefragung in 16 Klassen an 12 Grundschulen im Landkreis Marburg Biedenkopf und insgesamt 992 Befragungen folgte eine qualitative Studie mit neun problemzentrierten, leitfadengestützten Interviews. Der EFS zeigt keinen signifikanten Einfluss auf die Veränderung des Ernährungsverhaltens. Positiv zu bewerten ist, dass durch den EFS Alltagskompetenzen bei der Nahrungszubereitung gefördert wurden. Dieser positive Einfluss muss jedoch differenziert betrachtet werden, denn die qualitativen Studie zeigt, dass der EFS sehr gut in Familien aufgenommen wird, die sich bereits mit Ernährungsfragen auseinandersetzen und darauf achten, einen ernährungsphysiologisch günstigen Ernährungsstil zu leben oder anzustreben. In Familien der Billig- und Fleischesser konnte der EFS die Türen nicht öffnen. Aber gerade in diesem Segment wäre eine Veränderung des Essverhaltens induziert. Die Untersuchung ergab, dass der EFS für sich alleine nicht den Anspruch erheben kann, die Ernährungssituation der Kinder und Familien zu verbessern. Aber er bietet ein methodisch-didaktisch gut ausgearbeitetes Konzept und könnte als Baustein in die Entwicklung eines praxisnahen, erlebnisorientierten und ganzheitlichen Ernährungsbildungskonzepts unter Berücksichtigung diverser Settings und Lebenswelten der Kinder und Familien einfließen.
Resumo:
Summary - Cooking banana is one of the most important crops in Uganda; it is a staple food and source of household income in rural areas. The most common cooking banana is locally called matooke, a Musa sp triploid acuminate genome group (AAA-EAHB). It is perishable and traded in fresh form leading to very high postharvest losses (22-45%). This is attributed to: non-uniform level of harvest maturity, poor handling, bulk transportation and lack of value addition/processing technologies, which are currently the main challenges for trade and export, and diversified utilization of matooke. Drying is one of the oldest technologies employed in processing of agricultural produce. A lot of research has been carried out on drying of fruits and vegetables, but little information is available on matooke. Drying of matooke and milling it to flour extends its shelf-life is an important means to overcome the above challenges. Raw matooke flour is a generic flour developed to improve shelf stability of the fruit and to find alternative uses. It is rich in starch (80 - 85%db) and subsequently has a high potential as a calorie resource base. It possesses good properties for both food and non-food industrial use. Some effort has been done to commercialize the processing of matooke but there is still limited information on its processing into flour. It was imperative to carry out an in-depth study to bridge the following gaps: lack of accurate information on the maturity window within which matooke for processing into flour can be harvested leading to non-uniform quality of matooke flour; there is no information on moisture sorption isotherm for matooke from which the minimum equilibrium moisture content in relation to temperature and relative humidity is obtainable, below which the dry matooke would be microbiologically shelf-stable; and lack of information on drying behavior of matooke and standardized processing parameters for matooke in relation to physicochemical properties of the flour. The main objective of the study was to establish the optimum harvest maturity window and optimize the processing parameters for obtaining standardized microbiologically shelf-stable matooke flour with good starch quality attributes. This research was designed to: i) establish the optimum maturity harvest window within which matooke can be harvested to produce a consistent quality of matooke flour, ii) establish the sorption isotherms for matooke, iii) establish the effect of process parameters on drying characteristics of matooke, iv) optimize the drying process parameters for matooke, v) validate the models of maturity and optimum process parameters and vi) standardize process parameters for commercial processing of matooke. Samples were obtained from a banana plantation at Presidential Initiative on Banana Industrial Development (PIBID), Technology Business Incubation Center (TBI) at Nyaruzunga – Bushenyi in Western Uganda. A completely randomized design (CRD) was employed in selecting the banana stools from which samples for the experiments were picked. The cultivar Mbwazirume which is soft cooking and commonly grown in Bushenyi was selected for the study. The static gravitation method recommended by COST 90 Project (Wolf et al., 1985), was used for determination of moisture sorption isotherms. A research dryer developed for this research. All experiments were carried out in laboratories at TBI. The physiological maturity of matooke cv. mbwazirume at Bushenyi is 21 weeks. The optimum harvest maturity window for commercial processing of matooke flour (Raw Tooke Flour - RTF) at Bushenyi is between 15-21 weeks. The finger weight model is recommended for farmers to estimate harvest maturity for matooke and the combined model of finger weight and pulp peel ratio is recommended for commercial processors. Matooke isotherms exhibited type II curve behavior which is characteristic of foodstuffs. The GAB model best described all the adsorption and desorption moisture isotherms. For commercial processing of matooke, in order to obtain a microbiologically shelf-stable dry product. It is recommended to dry it to moisture content below or equal to 10% (wb). The hysteresis phenomenon was exhibited by the moisture sorption isotherms for matooke. The isoteric heat of sorption for both adsorptions and desorption isotherms increased with decreased moisture content. The total isosteric heat of sorption for matooke: adsorption isotherm ranged from 4,586 – 2,386 kJ/kg and desorption isotherm from 18,194– 2,391 kJ/kg for equilibrium moisture content from 0.3 – 0.01 (db) respectively. The minimum energy required for drying matooke from 80 – 10% (wb) is 8,124 kJ/kg of water removed. Implying that the minimum energy required for drying of 1 kg of fresh matooke from 80 - 10% (wb) is 5,793 kJ. The drying of matooke takes place in three steps: the warm-up and the two falling rate periods. The drying rate constant for all processing parameters ranged from 5,793 kJ and effective diffusivity ranged from 1.5E-10 - 8.27E-10 m2/s. The activation energy (Ea) for matooke was 16.3kJ/mol (1,605 kJ/kg). Comparing the activation energy (Ea) with the net isosteric heat of sorption for desorption isotherm (qst) (1,297.62) at 0.1 (kg water/kg dry matter), indicated that Ea was higher than qst suggesting that moisture molecules travel in liquid form in matooke slices. The total color difference (ΔE*) between the fresh and dry samples, was lowest for effect of thickness of 7 mm, followed by air velocity of 6 m/s, and then drying air temperature at 70˚C. The drying system controlled by set surface product temperature, reduced the drying time by 50% compared to that of a drying system controlled by set air drying temperature. The processing parameters did not have a significant effect on physicochemical and quality attributes, suggesting that any drying air temperature can be used in the initial stages of drying as long as the product temperature does not exceed gelatinization temperature of matooke (72˚C). The optimum processing parameters for single-layer drying of matooke are: thickness = 3 mm, air temperatures 70˚C, dew point temperature 18˚C and air velocity 6 m/s overflow mode. From practical point of view it is recommended that for commercial processing of matooke, to employ multi-layer drying of loading capacity equal or less than 7 kg/m², thickness 3 mm, air temperatures 70˚C, dew point temperature 18˚C and air velocity 6 m/s overflow mode.
Resumo:
Im Rahmen der Dichtefunktionaltheorie wurden Orbitalfunktionale wie z.B. B3LYP entwickelt. Diese lassen sich mit der „optimized effective potential“ – Methode selbstkonsistent auswerten. Während sie früher nur im 1D-Fall genau berechnet werden konnte, entwickelten Kümmel und Perdew eine Methode, bei der das OEP-Problem unter Verwendung einer Differentialgleichung selbstkonsistent gelöst werden kann. In dieser Arbeit wird ein Finite-Elemente-Mehrgitter-Verfahren verwendet, um die entstehenden Gleichungen zu lösen und damit Energien, Dichten und Ionisationsenergien für Atome und zweiatomige Moleküle zu berechnen. Als Orbitalfunktional wird dabei der „exakte Austausch“ verwendet; das Programm ist aber leicht auf jedes beliebige Funktional erweiterbar. Für das Be-Atom ließ sich mit 8.Ordnung –FEM die Gesamtenergien etwa um 2 Größenordnungen genauer berechnen als der Finite-Differenzen-Code von Makmal et al. Für die Eigenwerte und die Eigenschaften der Atome N und Ne wurde die Genauigkeit anderer numerischer Methoden erreicht. Die Rechenzeit wuchs erwartungsgemäß linear mit der Punktzahl. Trotz recht langsamer scf-Konvergenz wurden für das Molekül LiH Genauigkeiten wie bei FD und bei HF um 2-3 Größenordnungen bessere als mit Basismethoden erzielt. Damit zeigt sich, dass auf diese Weise benchmark-Rechnungen durchgeführt werden können. Diese dürften wegen der schnellen Konvergenz über der Punktzahl und dem geringen Zeitaufwand auch auf schwerere Systeme ausweitbar sein.
Resumo:
Die soziale Waldamöbe Dictystelium discoideum ist ein etablierter Modellorganismus zur Erforschung grundlegender zellbiologischer Prozesse. Innerhalb der letzten Jahre konnte dabei insbesondere das Wissen zum Lipidmetabolismus umfassend erweitert werden. In diesem Zusammenhang spielt besonders eine Enzymgruppe eine wichtige Rolle: die LC/VLC-Acyl-CoA-Synthetasen. Diese übernehmen dabei die Aufgabe Fettsäuren zu aktivieren, um sie so dem Zellmetabolismus überhaupt erst zugänglich zu machen. D. discoideum verfügt über insgesamt vier dieser Enzyme: FcsA, FcsB, FcsC und das Bubblegum-Enzym Acsbg1. Während die FcsA und FcsB bereits in vorangegangenen Arbeiten untersucht wurden, werden die FcsC und die Acsbg1 in dieser Arbeit erstmals biologisch charakterisiert. Untersuchungen zur subzellulären Lokalisation der Proteine zeigen, dass die meisten LC/VLC-Acyl-CoA-Synthetase auf Endosomen und im Cytoplasma gefunden werden können (FcsA, FcsC und Acsbg1), während die FcsB als Transmembranprotein über das ER zu den Peroxisomen transportiert wird. Die Acsbg1 akkumuliert dabei zusätzlich an der Plasmamembran. Funktionell konnte gezeigt werden, dass neben der FcsA auch die Acsbg1 an der Bereitstellung von Acyl-CoA für Triacylglyceridsynthese beteiligt ist. Dabei besitzt die FcsA die Hauptenzymaktivität und kompensiert den Verlust der Acsbg1 in acsbg1- Zellen. In fcsA-/acsbg1- Zellen dagegen kommt der Verlust der Acsbg1 durch eine zusätzliche Verringerung des TAG-Gehaltes der Doppel-KOs im Vergleich zu fcsA- Zellen zum tragen. Alle vier Enzyme beeinflussen die Phagozytose. Dabei zeigen fcsA- und fcsC- Zellen eine gesteigerte Phagozytose in Gegenwart von der gesättigten Fettsäure Palmitinsäure im Kulturmedium. Auch der knockout der Acsbg1 wirkt sich positiv auf die Phagozytoserate aus, jedoch kommt auch nur dieser zum tragen, wenn neben der Acsbg1 auch die FcsA ausgeschaltet wird. Die FcsB dagegen zeigt eine dramatische Reduktion der Partikelaufnahme in nicht Fettsäure gefütterten Zellen. Durch die Zugabe einer exogenen Fettsäure kann dieser Effekt nicht kompensiert werden. Auch der zusätzliche Verlust der FcsA-Enzymaktivität verändert dieses Verhalten in Palmitinsäure inkubierten Zellen nicht. In fcsA-/fcsB- konnte zudem ein Defekt beim Abbau von Triacylglyceriden gefunden werden. Dieser Defekt liefert erste Hinweise für ein Modell, das den Abbau von LD gespeicherten Lipiden durch Autophagozytose in D. discoideum beschreibt. Peroxisomen sind wichtige Organellen für die Detoxifikation und die Oxidation von Fettsäuren. Durch das Ausschalten der Acaa1, der Thiolase, die den letzten Schritt der β-Oxidation in Peroxisomen katalysiert, zeigte sich ein verlangsamter Triacylglycerol-Abbau sowie eine verringerte Degradation des Etherlipids UKL und von Sterolestern, was auf eine Beteiligung der Peroxisomen beim Abbau von langkettigen Fettsäuren schließen lässt. Bei dem Versuch durch das Ausschalten des pex19-Gens eine Zelllinie zu generieren, die keine Peroxisomen besitzt, wurde die Organelle überraschender Weise, wenn auch mit einer vom Wildtyp abweichenden Morphologie, weiterhin vorgefunden. Dieser Befund korrelierte mit dem Resultat, dass trotzdem das pex19-Gen erfolgreich unterbrochen wurde, dennoch eine intakte Kopie des Gens nachgewiesen werden konnte. Dementsprechend sollte die erschaffene pex19- Zelllinie als knockdown und nicht als knockout gewertet werden. Der pex19 knockdown zeigte beim Abbau von Triacylglyceriden eine ähnliche Verlangsamung wie acaa1- Zellen. Zusätzlich wurde eine Verringerung der Synthese des Etherlipids UKL beobachtet, was darauf hindeutet, dass dieses Lipid im Peroxisom gebildet wird. Auch die Phagozytose und das Wachstum auf Bakterienrasen waren im pex19 knockdown dramatisch reduziert. Durch die Überexpression von Pex19-GFP im knockdown Hintergrund konnten die physiologischen Defekte in den meisten so generierten Zelllinien ausgeglichen werden. Lipid Droplets sind Organellen, die in Eukaryoten und Prokaryoten als Speicher für Neutralfette dienen und ebenfalls als Ort der Lipidsynthese fungieren. Um diese Aufgaben erfüllen zu können, besitzen sie auf ihrer Oberfläche Proteine, die für die Regulierung dieser Prozesse notwendig sind. Durch die weiterführende Analyse von Kandidatenproteinen, die durch eine proteomische Analyse von aufgereinigten LDs identifiziert wurden, konnte für vier weitere Proteine (Plsc1, Net4, Lip5 und Nsdhl) die LD-Assoziation durch GFP-Fusionsproteine bestätigt werden. Bei der Charakterisierung von plsc1 knockouts zeigte sich eine verminderte Fähigkeit beim Wachstum auf Bakterienrasen sowie eine erhöhte Phagozytoserate in Gegenwart einer exogenen Fettsäure, was auf eine Involvierung des Proteins in die Phospholipidsynthese hindeutet. Die bisher einzige identifizierte LD-assoziierte Lipase Lip5 nimmt nur eine untergeordnete Rolle bei der Hydrolyse von Triacylglycerolen und Sterolestern ein, da in KO-Mutanten nur ein milder Defekt beim Abbau beider Substanzen beobachtet werden konnte. Die LD-Lokalisation von Net4 ist evolutionär konserviert und kann nicht nur in D. discoideum beobachtet werden, sondern auch in humanen Zellen. Welche Funktion das Protein auf der LD-Oberfläche ausübt, konnte nicht geklärt werden. Allerdings kann ein direkter Einfluss auf den TAG- und Sterolaufbau ausgeschlossen werden. LDs stehen in engem Kontakt mit anderen Organellen, die in den Lipidmetabolismus involviert sind, wie mit den Mitochondrien oder dem ER. Durch Perilipin-Hybridproteine können künstliche, stabile Verbindungen zwischen LDs und diesen Organellen hergestellt werden. Dabei zeigte Perilipin ein sehr starkes Targeting-Potenzial, durch welches es notwendig war, als zweite Hybridhälfte ein Transmembranprotein zu wählen. Die Analyse eines Hybrids, das eine dauerhafte Verbindung von LDs und dem ER herstellt, wies dabeieine Reduktion der LD-Größe auf, wobei der Gesamt-TAG-Gehalt der Zellen unbeeinflusst blieb. Durch die starke Affinität von Perilipin für die Assoziation an LDs konnten durch die Generierung von Hybriden andere Proteine an die LD-Oberfläche dirigiert werden. Auf diese Weise konnte erfolgreich die LC-Acyl-CoA-Synthetase FcsA auf das LD transplantiert werden.
Resumo:
Das Leben in modernen Großstädten in Deutschland und Europa fordert heute mehr denn je sprachliche Kompetenzen von uns, wie sie vor einigen Jahrzehnten noch kaum erahnt wurden. Nicht selten findet man sich in einem Gewirr aus Sprachen wieder und realisiert schnell, dass die Europäische Union zumindest kulturell längst in unserem Alltag angekommen ist. Das Gespräch mit Touristen und Wahldeutschen aus aller Welt findet vorzugsweise auf Englisch statt, der Lingua Franca. Und hieraus ergibt sich ein großes Problem, eine zentrale Aufgabe der Schulbildung in dieser sich zunehmend globalisierenden Welt des einundzwanzigsten Jahrhunderts. Das Erlernen einer Sprache allein genügt nicht mehr, um die notwendigen Bürgerkompetenzen im kontemporären Europa zu erlangen. Die Sachfächer erweisen sich tendenziell immer mehr als gordische Knoten der Kompetenzorientierung, wenn sich etwa die Frage stellt, ob Schüler das dort erlangte Wissen auch wirklich international nutzbar machen können. In dieser Arbeit soll zunächst kurz auf einige grundlegende Merkmale und Ausprägungen bilingualen Unterrichts aufmerksam gemacht werden. Danach sollen im theoretischen Teil dieser Arbeit drei grundlegende Säulen eines bilingual ausgerichteten Physikunterrichts entworfen werden. Mithilfe empirischer Evidenz soll darauf aufbauend gezeigt werden, wie Sachfach und Sprache miteinander wechselwirken und welchen Einfluss die Sprache auf den Wissenserwerb hat (siehe Kapitel 3.1). Im folgenden Teil steht dann die Frage im Mittelpunkt, was mit Physikunterricht generell erzielt werden soll (siehe Kapitel 3.2). Der theoretische Teil wird schließlich mit der Betrachtung personeller Einflüsse durch die Schüler und Lehrer selbst abgerundet (siehe Kapitel 3.3). Auf der Grundlage dieser theoretischen Überlegungen, erfolgt schließlich die Analyse der im Zuge der Arbeit durchgeführten Lehrerinterviews. Mit der Formulierung der Forschungsfragen in Kapitel 4 sowie der genaueren Beschreibung der Untersuchungsmethodik in Kapitel 5, folgt in den Kapiteln 6 und 7 die Auswertungsmethodik sowie die Präsentation der so gewonnenen Ergebnisse. Im Kapitel 8 werden die Ergebnisse nochmals diskutiert und in Bezug auf die Forschungsfragen interpretiert. Schließlich fasst Kapitel 9 die Ergebnisse der Untersuchung zusammen und Kapitel 10 liefert ein Fazit der gesamten Arbeit.
Resumo:
Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.
Resumo:
Im Rahmen der Organischen Optoelektronik wird der Weg vom Molekül zum Bauteil als Wertschöpfungskette verstanden, deren Kernziele wissenschaftlicher Erkenntnisfortschritt und Produktanwendungen sind. Eine besonders vielversprechende Möglichkeit diese Entwicklung auch in Zukunft erfolgreich und innovativ fortführen zu können, eröffnet sich durch das Einbeziehen magnetosensitiver Prozesse. Spinzustände werden als zusätzliche Regelgröße verstanden, die es erlauben, optoelektronische Abläufe zu optimieren und neuartige Funktionen zu generieren. Dieses Konzept integriert die Vorteile sowie das Potential der Spintronik in die Organische Optoelektronik und hat sich zu einem zukunftsweisenden, neuartigen Forschungsfeld entwickelt. Es wird als Organische Magnetooptoelektronik bezeichnet und beschäftigt sich mit der Wirkung magnetischer Felder auf optisch und elektronisch anregbare Zustände in organischen Halbleitern. Mit den durchgeführten Forschungsaktivitäten ist es gelungen, Organische Feldeffekt-Transistoren (OFETs) als neuartige Plattform zur Untersuchung magnetooptoelektronischer Phänomene in niedermolekularen Halbleitern zu etablieren. Der gezielte Einsatz geeigneter Funktionsmaterialien ermöglicht die Herstellung magnetoresistiver 3-Kontakt-Bauteile, die das Wissenschaftsfeld des Organischen Magnetowiderstands entscheidend erweitern und dessen Anwendungsspektrum vergrößern. Dabei offenbaren OFETs auf Basis der Lochtransportmaterialien Pentacen und TIPS-Pentacen unter Belichtung magnetosensitives Verhalten, das erlaubt den Organischen Magnetowiderstand optisch ein- und auszuschalten. Auch ohne zusätzliche Belichtung können Magnetfeldeffekte erzielt werden, wenn spezielle Donor- und Akzeptor-Komponenten eingesetzt werden. Aus der ionisierenden Wechselwirkung zwischen Spiro-TTB (Elektronendonor) und HAT-CN (Elektronenakzeptor) resultiert eine so ausgeprägte Magnetosensitivität, dass bereits ultrakleine Magnetfelder den Ladungstransport signifikant beeinflussen. Zudem ist das magnetoresistive Verhalten empfindlich von den Spannungsbedingungen abhängig und das MR-Vorzeichen kann durch die Drainspannung umgepolt werden. Donor- und Akzeptor-Syteme mit nichtionisierender Wechselwirkung erweisen sich ebenfalls als geeignet für die Herstellung magnooptoelektronisch aktiver Bauteile. Sowohl in Spiro-DPPFPy als auch in Spiro-TAD/Spiro-PFPy OFETs zeigen sich im Dunkeln positiver und unter Belichtung negativer Magnetowiderstand. Diese gegensätzlichen MR-Komponenten lassen sich mit der Belichtungsintensität sowie der Magnetfeldstärke systematisch modulieren und es ist das magnetooptoelektronische Schalten des MR-Vorzeichens möglich. Unterschiedliche MR-Komponenten treten auch in ambipolaren Spiro-DPASP-tBu-Phenyl OFETs auf. Deren Drainstrom lässt sich in lochdominierte, elektronendominierte sowie ambipolare Bereiche gliedern, wobei bei unipolarem Ladungstransport positiver und bei ambipolarem negativer Magnetowiderstand vorherrscht. Mit der Betriebsspannung kann zwischen den jeweiligen Transportbereichen und damit dem MR-Vorzeichen geschaltet werden. All diese Facetten des Organischen Magnetowiderstands sind nicht nur Ausdruck des weitreichenden physikalischen Hintergrunds, sondern eröffnen eine vielversprechende Perspektive zur Realisierung multifunktionaler, magnetooptoelektronischer 3-Kontakt-Bauteile auf Basis organischer Halbleiter. Neben dem Nachweis neuartiger magnetoresistiver Phänomene in Organischen Feldeffekt-Transistoren beinhaltet dieses Forschungsprojekt das Ziel, zur Entschlüsselung der zugrundeliegenden Elementarprozesse beizutragen. Dabei ergibt sich folgendes Resümee für die Interpretation der erzielten Magnetfeldeffekte: Unter unipolaren Transportbedingungen wird der Magnetowiderstand durch spinsensitive Bipolaronenbildung versursacht. Im Rahmen dieser Arbeit tragen Bipolaronen signifikant zum Drainstrom bei, wenn im Leitungskanal Gegenladungen vorhanden sind oder dieser aus chemischen Einheiten mit hoher Elektronenaffinitätsdifferenz aufgebaut ist. Weitere MR-Komponenten werden erschlossen, wenn im Transportvolumen simultan positive und negative Ladungsträger vorhanden sind. Deren Interaktion resultiert in Elektron-Loch Paaren, die über ein magnetosensitives Reaktionsverhalten verfügen. Sie werden entweder über Belichtung der OFET-Struktur erzeugt oder bilden sich während des ambipolaren Ladungstransports.
Resumo:
In früheren Experimenten konnte gezeigt werden, dass die sekundären Botenstoffe cAMP, cGMP und IP3 in der olfaktorischen Signaltransduktionskaskade bei Manduca sexta involviert sind. Während cGMP Perfusionen in die Antenne die Pheromonwahrnehmung tageszeitabhängig adaptierten, führten cAMP Perfusionen zu einer tageszeitabhängigen Sensitisierung, ähnlicher der von Octopamin (OA). Daher wurde hypothetisiert, dass eine tageszeitabhängige Oszillation antennaler OA Level sowie der intrazelluläre Kalziumkonzentration in einer Schwankung von sekundären Botenstoffen resultieren könnte. Diese Hypothese wurde mittels biochemischen Nachweißverfahren in der Antenne von M. sexta und Rhyparobia maderae überprüft. Tatsächlich konnten in der Antenne des Tabakschwärmers tageszeitabhängige Unterschiede in der OA-, cAMP- und IP3-, aber nicht in der cGMP Konzentration, nachgewiesen werden. Während die cAMP- und OA Oszillationen einander sehr ähnelten und die Maxima in der Paarungsphase aufzeigten, korrelierte der IP3 Verlauf sehr stark mit dem Flug- bzw. Fressverhalten. Diese Korrelationen konnten auch in der Madeira Schabe beobachtet werden, in der darüber hinaus gezeigt werden konnte, dass antennale cAMP- und IP3 Level von dem circadianen Uhrwerk gesteuert werden. Zudem wurde herausgefunden, dass OA die cAMP- und teilweise auch die IP3- Spiegel reguliert. Demgegenüber beeinflusste Kalzium die Konzentration aller untersuchten sekundären Botenstoffe. Daher wird angenommen, dass die intrazelluläre Kalziumkonzentration aber auch der antennale OA Level kritische Faktoren bei der Regelung der olfaktorischen Sensitivität sind. Da Oszillationen von sekundären Botenstoffen in mutmaßlichen, peripheren Schrittmacher nachgewiesen wurden, wurde untersucht, ob sie auch im circadianen Schrittmacher der Madeira Schabe oszillieren und ob das Neuropeptid pigment-dispersing factor (PDF), ein entscheidender Kopplungsfaktor des Uhrwerks in Insekten, diese Rhythmen generieren könnte. Es konnte gezeigt werden, dass PDF die cAMP Synthese steigert. Darüber hinaus wurden bimodale cAMP Oszillationen unter licht-dunkel Bedingungen beobachtet, welche unter konstanten Umweltbedingungen verblieben. Daher wird angenommen, dass PDF Freisetzung zelluläres cAMP erhöht über das das circadiane Uhrwerk synchronisiert wird.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit dem Werk des französischen Philosophen Gilles Deleuze (1925-1995), indem sie dessen vielfältig-pluralistisches, in mancher Hinsicht sogar heterogenes Denken in einen Zusammenhang mit vitalistischen Philosophien der ersten Hälfte des 20. Jahrhunderts stellt (an erster Stelle Henri Bergson, aber auch Hans Driesch und Jakob von Uexküll), um auf diese Weise – durch Vergleiche und Gegenüberstellungen - zu verdeutlichen, dass und inwiefern der Vitalismus in der Version von Deleuze unter dem Eindruck der Entwicklung der Biologie seit Darwin (für die hier besonders die wissenschaftsphilosophischen Überlegungen der französischen Molekularbiologen François Jacob und Jacques Monod herangezogen werden) nicht mehr in erster Linie naturphilosophisch verstanden werden kann, sondern experimentell. Das, womit hier gedanklich experimentiert wird, sind Intensitäten. Und Intensität – so wird dargelegt – ist der Schlüsselbegriff zum Verständnis von Deleuzes’ erstem philosophischen Hauptwerk „Differenz und Wiederholung“. Im Zeichen eines Denkens der Intensitäten versucht Deleuze etablierte Dualismen wie die von Natur (physis) und Kunst (techné), Mensch und Tier, Individualität und Allgemeinheit zu unterlaufen. Weil dieser Versuch sich selbst als ein – wie es in dem von Deleuze gemeinsam mit dem Psychiater Félix Guattari verfassten Buch „Tausend Plateaus“ heißt - Vorstoß in "eine Welt aus formlosen, gegenstandslosen und gesichtslosen Schnelligkeiten und Langsamkeiten" versteht, stellt sich mit der Frage nach den lebenspraktischen Aspekten dieses grenzüberschreitenden und Freiräume eröffnenden Vorhabens auch die nach den damit verbundenen Risiken und Nebenwirkungen. Zur Konkretisierung werden Beispiele aus der modernen Literatur (die Verzeitlichung des Denkens bei Marcel Proust, aber auch die existentielle Sprachskepsis Antonin Artauds), der bildenden Kunst (die Deformationskunst in der Malerei Francis Bacons) und der Moral- bzw. moralkritischen Philosophie (der Stoizismus als eine Art Kunst der Selbstverteidigung, Nietzsches Umwertung aller Werte als eine Kunst der Selbstüberbietung) erörtert. Was in diesen Praktiken stattfindet und zum Ausdruck gebracht wird, sind Zerreißproben, d. h. radikale Belastungen oder Erprobungen von Vermögen wie Sinnlichkeit, Einbildungskraft, Denken, weshalb diese Versuche mit Deleuze, der sich hier von den stilpsychologischen Untersuchungen des Kunsthistorikers Wilhelm Worringer hat inspirieren lassen, als Spielarten eines nichtorganischen Lebens zu verstehen sind. Sich darauf in einem ständigen Wechsel von Annäherung und Distanzierung einzulassen, macht das ausgeprägte Pathos der Philosophie aus, auf das man im Denken von Gilles Deleuze trifft.
Resumo:
Enterprise-Resource-Planning-Systeme (ERP-Systeme) bilden für die meisten mittleren und großen Unternehmen einen essentiellen Bestandteil ihrer IT-Landschaft zur Verwaltung von Geschäftsdaten und Geschäftsprozessen. Geschäftsdaten werden in ERP-Systemen in Form von Geschäftsobjekten abgebildet. Ein Geschäftsobjekt kann mehrere Attribute enthalten und über Assoziationen zu anderen Geschäftsobjekten einen Geschäftsobjektgraphen aufspannen. Existierende Schnittstellen ermöglichen die Abfrage von Geschäftsobjekten, insbesondere mit Hinblick auf deren Attribute. Die Abfrage mit Bezug auf ihre Position innerhalb des Geschäftsobjektgraphen ist jedoch über diese Schnittstellen häufig nur sehr schwierig zu realisieren. Zur Vereinfachung solcher Anfragen können semantische Technologien, wie RDF und die graphbasierte Abfragesprache SPARQL, verwendet werden. SPARQL ermöglicht eine wesentlich kompaktere und intuitivere Formulierung von Anfragen gegen Geschäftsobjektgraphen, als es mittels der existierenden Schnittstellen möglich ist. Die Motivation für diese Arbeit ist die Vereinfachung bestimmter Anfragen gegen das im Rahmen dieser Arbeit betrachtete SAP ERP-System unter Verwendung von SPARQL. Zur Speicherung von Geschäftsobjekten kommen in ERP-Systemen typischerweise relationale Datenbanken zum Einsatz. Die Bereitstellung von SPARQL-Endpunkten auf Basis von relationalen Datenbanken ist ein seit längerem untersuchtes Gebiet. Es existieren verschiedene Ansätze und Tools, welche die Anfrage mittels SPARQL erlauben. Aufgrund der Komplexität, der Größe und der Änderungshäufigkeit des ERP-Datenbankschemas können solche Ansätze, die direkt auf dem Datenbankschema aufsetzen, nicht verwendet werden. Ein praktikablerer Ansatz besteht darin, den SPARQL-Endpunkt auf Basis existierender Schnittstellen zu realisieren. Diese sind weniger komplex als das Datenbankschema, da sie die direkte Abfrage von Geschäftsobjekten ermöglichen. Dadurch wird die Definition des Mappings erheblich vereinfacht. Das ERP-System bietet mehrere Schnittstellen an, die sich hinsichtlich des Aufbaus, der Zielsetzung und der verwendeten Technologie unterscheiden. Unter anderem wird eine auf OData basierende Schnittstelle zur Verfügung gestellt. OData ist ein REST-basiertes Protokoll zur Abfrage und Manipulation von Daten. Von den bereitgestellten Schnittstellen weist das OData-Interface gegenüber den anderen Schnittstellen verschiedene Vorteile bei Realisierung eines SPARQL-Endpunktes auf. Es definiert eine Abfragesprache und einen Link-Adressierungsmechanismus, mit dem die zur Beantwortung einer Anfrage benötigten Service-Aufrufe und die zu übertragende Datenmenge erheblich reduziert werden können. Das Ziel dieser Arbeit besteht in der Entwicklung eines Verfahrens zur Realisierung eines SPARQL-Endpunktes auf Basis von OData-Services. Dazu wird zunächst eine Architektur vorgestellt, die als Grundlage für die Implementierung eines entsprechenden Systems dienen kann. Ausgehend von dieser Architektur, werden die durch den aktuellen Forschungsstand noch nicht abgedeckten Bereiche ermittelt. Nach bestem Wissen ist diese Arbeit die erste, welche die Abfrage von OData-Schnittstellen mittels SPARQL untersucht. Dabei wird als Teil dieser Arbeit ein neuartiges Konzept zur semantischen Beschreibung von OData-Services vorgestellt. Dieses ermöglicht die Definition von Abbildungen der von den Services bereitgestellten Daten auf RDF-Graphen. Aufbauend auf den Konzepten zur semantischen Beschreibung wird eine Evaluierungssemantik erarbeitet, welche die Auflösung von Ausdrücken der SPARQL-Algebra gegen semantisch annotierte OData-Services definiert. Dabei werden die Daten aller OData-Services ermittelt, die zur vollständigen Abarbeitung einer Anfrage benötigt werden. Zur Abfrage der relevanten Daten wurden Konzepte zur Erzeugung der entsprechenden OData-URIs entwickelt. Das vorgestellte Verfahren wurde prototypisch implementiert und anhand zweier Anwendungsfälle für die im betrachteten Szenario maßgeblichen Servicemengen evaluiert. Mit den vorgestellten Konzepten besteht nicht nur die Möglichkeit, einen SPARQL-Endpunkt für ein ERP-System zu realisieren, vielmehr kann jede Datenquelle, die eine OData-Schnittstelle anbietet, mittels SPARQL angefragt werden. Dadurch werden große Datenmengen, die bisher für die Verarbeitung mittels semantischer Technologien nicht zugänglich waren, für die Integration mit dem Semantic Web verfügbar gemacht. Insbesondere können auch Datenquellen, deren Integration miteinander bisher nicht oder nur schwierig möglich war, über Systeme zur föderierten Abfrage miteinander integriert werden.
Resumo:
Die Trocknung ist eines der am häufigsten verwendeten Verfahren, um die Haltbarkeit von landwirtschaftlichen Gütern zu verlängern. Von den vielen gebräuchlichen Trocknungsarten ist die Konvektionstrocknung, die Luft als Energie- und Feuchteträger verwendet, weiterhin die wichtigste. Trotz ihrer Nachteile und ihres hohen spezifischen Energieverbrauchs sind Satztrockner für die Getreide-, Kräuter- und Heutrocknung noch weit verbreitet. Ferner werden Konvektionstrockner gemeinhin zur künstlichen Trocknung eingesetzt. Diese Arbeit ist Teil eines Forschungsprojekts, welches eine sorptionsgestützte solare Trocknung von landwirtschaftlichen Gütern untersucht. Bei dieser wird kühle feuchte Luft in Kontakt mit einer konzentrierten hygroskopischen Salzlösung gebracht. Während dieses Prozesses wird die Luft entfeuchtet und mit Hilfe der freigesetzten Verdampfungsenthalpie erwärmt. Die Anwendung dieses Verfahrens zur Trocknung landwirtschaftlicher Güter ist besonders interessant für Produkte, die bei niedrigen Temperaturen verarbeitet werden, um ihre Qualität nicht negativ zu beeinflussen. Bei allen energieintensiven Prozessen und vor allem bei der Verwendung von Solarenergie ist ein effizienter Energieverbrauch äußerst wichtig für den technischen und ökonomischen Erfolg. Eine ungleichmäßige Trocknung ist oftmals bei Satztrocknern zu beobachten, was die Energieeffizienz negativ beeinflusst. Aus diesem Grund lag im agrartechnischen Teil des Projekts der Schwerpunkt auf der Trocknung bei niedrigen Temperaturen und geringer Luftfeuchte, die der Sorptionsprozess liefert, sowie auf der Verbesserung der Luftverteilung und der Gleichmäßigkeit der Trocknung in lockeren und verdichteten Schüttungen. Es wurden Dünnschicht-Trocknungsexperminente für Blattsellerie bei unterschiedlichen Lufttemperaturen und unterschiedlicher relativer Luftfeuchte durchgeführt. Die Ergebnisse zeigen eindeutig, dass nicht nur die Lufttemperatur einen großen Einfluss auf die Trocknungsgeschwindigkeit hat, sondern auch die relative Luftfeuchte. Dies ist vor allem bei niedrigen Temperaturen, wie sie vom Sorptionssystem geliefert werden, der Fall. Um die Luftverteilung und Gleichmäßigkeit der Trocknung lockerer Schüttungen zu untersuchen, wurde ein Kistentrockner experimentell und in Strömungssimulationen getestet. Die Leistung des ursprünglichen Trockners wurde signifikant durch einfache Veränderungen des Designs verbessert. Diese stellten einen gleichmäßigeren Luftstrom durch das Produkt sicher. Die Trocknung von Heu-Rundballen stellt eine Herausforderung dar, da diese sehr stark verdichtet sind und die Dichte innerhalb eines Ballens stark schwankt. Strömungs- und Trocknungssimulationen so wie experimentelle Messungen zeigten, dass das Trocknerdesign einen großen Einfluss auf die Gleichmäßigkeit der Trocknung hat. Bei den einfachsten Trocknervarianten war die Verteilung auch bei optimal gepressten Ballen unzureichend, während komplexere Trockner eine gleichmäßigere Trocknung erzielten. Jedoch werden auch hier die Ergebnisse stark von der Verteilung der Dichte im Ballen beeinflusst, welche in der Praxis weiterhin nicht ideal ist. Abschließend wurde, um den Trocknungsfortschritt zu überwachen, eine Methodik getestet, bei der zur Messung des durchschnittlichen aktuellen Feuchtegehalts des Produktes psychrometrische Messungen und Messungen des Luftstroms in kurzen Abständen durchgeführt wurden. Die Menge des tatsächlich entfernten Wassers stimmte in den meisten Fällen gut mit der geschätzten Menge überein. Jedoch hängt der Erfolg dieser Methode stark von der Genauigkeit der Messfühler ab.
Resumo:
Anliegen dieser Dissertation ist die Untersuchung des Einflusses eines Lesestrategietrainings auf die Entwicklung des Leseverständnisses in den Klassen 2 und 4. In einer experimentellen Studie mit Prä-Post-Test-Design wurde die Wirksamkeit eines 25 Sitzungen umfassenden Trainings der Strategien Vorhersagen, kleinschrittiges Wiederholen und Zusammenfassen den Effekten einer lesefernen Kontrollbedingung gegenübergestellt. Die Lesestrategien wurden peergestützt vermittelt, d. h. in Dyaden aus einem leseschwächeren und einem lesestärkeren Kind. In drei Teilstudien wurden Fragestellungen zur differenzierten Analyse der Trainingswirksamkeit untersucht: (1) Wird die Trainingswirksamkeit durch die Effizienz der Worterkennungsprozesse beeinflusst?, (2) Kann die Entwicklung der Leseflüssigkeit durch das Lesestrategietraining gefördert werden? und (3) Können leseschwache Kinder von der Zusammenarbeit mit lesestärkeren Tutor(inn)en hinsichtlich der Verbesserung ihres Leseverständnisses profitieren?. Die Ergebnisse dieser Dissertation sprechen dafür, dass das eingesetzte peergestützte Lesestrategietraining das Leseverständnis und die Leseflüssigkeit von Zweit- und Viertklässler(inne)n unter bestimmten Voraussetzungen positiv beeinflussen konnte. Die Leseleistungen vor dem Training, die Effizienz der Worterkennungsprozesse und die Rolle im dyadischen Lernen erwiesen sich als relevante Einflussfaktoren für die Wirksamkeit des Strategietrainings. Zweitklässler(innen), die aufgrund guter Prä-Test Leseleistungen die Tutor(inn)enrolle erhielten, konnten ihr Leseverständnis gegenüber Kindern mit gleichen Leseleistungen in der Kontrollbedingung signifikant steigern. Leseschwache Zweitklässler(innen) hingegen schienen nur bei (relativ) effizienten Worterkennungsprozessen die Lesestrategien zur Steigerung ihres globalen Leseverständnisses nutzen zu können, wobei sie keinen Zugewinn aus der dyadischen Zusammenarbeit ziehen konnten. Bei ineffizienten Worterkennungsprozessen hatte das Strategietraining negative Auswirkungen auf das allgemeine Leseverständnis. Anders in Klasse 4: Kinder, die aufgrund unterdurchschnittlicher Leseleistungen im Prä-Test als Tutand(inn)en am Training teilnahmen, verbesserten ihr Leseverständnis und konnten dabei von der Zusammenarbeit mit lesestarken Tutor(inn)en profitieren. Für die Tutor(inn)en in Klasse 4 zeigte sich kein Effekt des Strategietrainings gegenüber der Kontrollgruppe. In beiden Klassenstufen stellte sich im Verlauf des Strategietrainings eine schnellere Entwicklung der Leseflüssigkeit der schwachen Leser(innen) ein. Zusammengefasst erzielte das Training die größten Effekte für gute Leser(innen) in Klasse 2 und schwache Leser(innen) in Klasse 4 – beide Gruppen konnten ihr Leseverständnis praktisch bedeutsam gegenüber Kindern mit gleichen Leseleistungen in der Kontrollbedingung steigern.
Resumo:
In dieser Lecture Note sind Inhalte der Linearen Algebra, der Algebra, der Ringtheorie, der Ordnungs- und der Graphentheorie gebündelt, so wie sie der Autor - verteilt auf Vorlesungen, Übungen, Seminare und Staatsexamens- bzw. Diplom-Anteile während seiner aktiven Zeit als Hochschullehrer wiederholt angeboten bzw. eingefordert hat.