997 resultados para erste Ausgabe
Resumo:
Überblick über die Arbeit: "Die Notwendigkeit deutscher Kinderfernseh- und -filmproduktion ist unbestritten. Sie sind die Voraussetzung dafür, dass Kinder im Fernsehen ihre eigene Lebenswirklichkeit wiederfinden und zur Reflexion dieser Wirklichkeit angeregt werden."(Rosenbaum 2000) Kinderfernsehexperten wie Uwe Rosenbaum (Landessenderdirektor des Südwestrundfunks Rheinland-Pfalz) oder Armin Maiwald (Geschäftsführer der Flash Filmstudio GmbH, Produzent und Regisseur vieler Sachgeschichten der Sendung mit der Maus) vertreten die Meinung, dass in Deutschland mehr Kinderprogramm mit Kindern produziert werden müsse, die in Deutschland wohnen. Sie sind dabei auch der Meinung, Realprogramm sei qualitativ hochwertiger und damit für Kinder besser, als einseitiges, triviales Zeichentrickprogramm. Der Teil 1 greift diesen Diskurs auf und beschreibt ihn. Einen Beitrag zu diesem Diskurs möchte die Frageleisten, welche Darstellungsformen von Welt vom expliziten Kinderfernsehen angeboten werden und welche davon Kinder bevorzugen. Das Material einer systematischen Fernsehprogrammanalyse, die von den Nutzungspräferenzen der Kinder ausgeht, kann dabei helfen. Dabei konzentriere ich mich auf die zwei Aspekte "Animation" und "real", da der Diskurs Realfilm als qualitativ hochwertig ansieht und Animation in dieser Hinsicht das genaue Gegenteil darstellt. Dabei ist ein zentrales Ergebnis der Analyse, dass sich die Nutzungspräferenzen der Jungen und Mädchen in bezug auf realitätsnahes Programm sehr unterscheiden: Jungen sehen eher Zeichentrickprogramm und Mädchen sehen eher Realformate wie z.B. Soap-Operas. Das legt nahe, die Diskussion um Realitätsnähe im Kinderfernsehen aus geschlechterspezifischer Sicht zu betrachten und die Fragestellung der Arbeit dahingehend neu zu formulieren. Der zweite Teil der Arbeit sortiert zunächst die Begriffe "Realitätsnähe", "Realfilm" und "Zeichentrick", die im ersten Teil eingeführt wurden und trennt sie von einander. Die "Jährliche Bestandsaufnahme zum Kinderfernsehen - qualitative und quantitative Fernsehprogrammanalyse in der Sicht der Kinder" dient dazu, im Kinderfernsehen die Spuren des Diskurses wieder zu finden. Die systematische Suche nach solchen Programmen macht es nötig, mit Hilfe operationalisierter Begriffe, Fernsehprogramm zu kodieren. Dabei bieten sich bereits vorhandene Kodes zur Realitätsnähe an. Für die Auswertung sind zudem auch Zugänge über weitere Kodes wie z.B. Information/ Unterhaltung oder Fiction/ Non-Fiction möglich. Die Ansätze in Teil 1 und 2 waren bis dahin umgangssprachliche Formulierungen, deshalb folgt im dritten Teil der Arbeit ein Exkurs in die Theorie, um den Begriff der Realitätsnähe im Fernsehen theoretisch zu begründen und um Realfilm und Animation theoretisch zu beschreiben. Zwei Themenfelder sind hierbei wesentlich: Das erste Themenfeld behandelt die Wirklichkeitskonstruktion im Fernsehen mit den Autoren Alfred Schütz, Thomas Luckmann und Jürgen Fritz. Das Wesentliche in diesem Abschnitt ist der Versuch Realfilm und Zeichentrick als geschlossene Sinngebiete wie "reale Welt" und "Spielwelt" zu verstehen, da geschlossenen Sinngebieten spezifische, eigene Erlebnis- und Erkenntnisstile zugrunde liegen. Fazit dieser Überlegung ist, dass Realfilm und Zeichentrick einander nicht über- oder untergeordnet sind, sondern formal nebeneinander mit unterschiedlichen Erkenntnis- und Erlebnisstilen in Erscheinung treten, bzw. in ihnen unterschiedliche Erlebnis- und Erkenntnisstile angelegt sind. Das zweite Themenfeld widmet sich der von David Buckingham so genannten "Perceived Reality", die nach der Wahrnehmung der Kinder von Wirklichkeit im Fernsehen fragt. Dabei geht es um die Frage, wie Kinder die Realität des Fernsehens beurteilen. Ein Fazit ist hierbei, dass Kinder an Fernsehsendungen keine allgemeingültige Messlatte anlegen, um die Realitätsnähe zu bestimmen, sondern Kinder handeln die Realitätsnähe von Sendungen und deren Bewertung in sozialen Kontexten mit Peers und Erwachsenen je nach Situation aus. Der vierte Teil der Arbeit wertet die Kodierung aus dem zweiten Teil aus und präsentiert Ergebnisse. In diesem Teil werden verschiedene Auswertungsverfahren ausprobiert, um Muster in der Rezeption und im Ein- und Ausschaltverhalten der Kinder in bezug auf Realitätsnähe zu finden. Nachdem Überblick über das Angebot an realitätsnahem Kinderfernsehprogramm, folgt die Auswertung der Nutzung des Kinderprogramms. Hierbei steht die Frage im Vordergrund, in welchem Ausmaß Kinder realitätsnahe Programme nutzen und welche geschlechterspezifischen Unterschiede es in der Nutzung Formate "Animation" und "real" gibt. Im Groben werden in diesem Kapitel zahlreiche Listen präsentiert, Sendungen beschrieben und vor allem unterschiedliche Altersgruppen sowie Geschlechter berücksichtigt. Eines der auffälligsten Merkmale wird sein, dass Jungen in Bezug auf die eingangs eröffneten Begriffe andere Präferenzen und Fernsehnutzungsmuster zeigen als Mädchen. Im Gegensatz zu Mädchen sehen die Jungen eher weniger Realprogramm und eher mehr Animationsprogramm. Kinder im Fernsehen stehen stellvertretend für Muster und Typen von Kindern der realen Welt. Das legitimiert anhand der Typologie der Kinder nach Freizeitmustern , nach diesen Kindertypen im Fernsehen und bei den Zuschauern zu suchen. Ein Ergebnis bestätigte die Beobchtung, dass Mädchen neben Realprogramm auch Zeichentrick sehen, und Jungen nur Zeichentrick. Anhand der bis dort gewonnenen Ergebnisse und zweier Beispiele aus dem Schulalltag folgt abschließend in Teil 5 ein pädagogisches Fazit. Der Umgang von Jungen mit Medien wird häufig problematisiert und so wie es sich in den Ergebnissen dieser und anderer Arbeiten wie der PISA2000-Studie oder in der Typologie der Freizeitmuster darstellt, könnte man durchaus den Eindruck gewinnen, dass Jungen eine schwierige Beziehung zu Medien haben. Deshalb muss man sich vermutlich zunächst eingestehen, dass Jungen eher Zeichentrick und Mädchen eher Soaps gucken, um danach Jungen emphatisch in Bezug auf ihre Mediennutzungsmuster zu begegnen und ihre Vorlieben nicht zu trivialisieren oder zu verurteilen. Das hat pädagogische Bedeutung für die Schule, wie die beiden Beispiele zeigen.
Resumo:
Mit der Verwirklichung ,Ökologischer Netzwerke‘ werden Hoffnungen zum Stopp des Verlustes der biologischen Vielfalt verknüpft. Sowohl auf gesamteuropäischer Ebene (Pan-European Ecological Network - PEEN) als auch in den einzelnen Staaten entstehen Pläne zum Aufbau von Verbundsystemen. Im föderalen Deutschland werden kleinmaßstäbliche Biotopverbundplanungen auf Landesebene aufgestellt; zum nationalen Biotopverbund bestehen erste Konzepte. Die vorliegende Arbeit ist auf diese überörtlichen, strategisch vorbereitenden Planungsebenen ausgerichtet. Ziele des Verbunds sind der Erhalt von Populationen insbesondere der gefährdeten Arten sowie die Ermöglichung von Ausbreitung und Wanderung. Aufgrund fehlender Datengrundlagen zu den Arten und Populationen ist es nicht ohne weiteres möglich, die Konzepte und Modelle der Populationsökologie in die überörtlichen Planungsebenen zu übertragen. Gemäß der o.g. Zielstellungen sollte sich aber die Planung von Verbundsystemen an den Ansprüchen der auf Verbund angewiesenen Arten orientieren. Ziel der Arbeit war die Entwicklung einer praktikablen GIS-gestützten Planungshilfe zur größtmöglichen Integration ökologischen Wissens unter der Bedingung eingeschränkter Informationsverfügbarkeit. Als Grundlagen dazu werden in Übersichtsform zunächst die globalen, europäisch-internationalen und nationalen Rahmenbedingungen und Anforderungen bezüglich des Aufbaus von Verbundsystemen zusammengestellt. Hier sind die Strategien zum PEEN hervorzuheben, die eine Integration ökologischer Inhalte insbesondere durch die Berücksichtigung räumlich-funktionaler Beziehungen fordern. Eine umfassende Analyse der landesweiten Biotopverbundplanungen der BRD zeigte die teilweise erheblichen Unterschiede zwischen den Länderplanungen auf, die es aktuell nicht ermöglichen, ein schlüssiges nationales Konzept zusammenzufügen. Nicht alle Länder haben landesweite Biotopverbundplanungen und Landeskonzepte, bei denen dem geplanten Verbund die Ansprüche von Arten zugrunde gelegt werden, gibt es nur ansatzweise. Weiterhin wurde eine zielgerichtete Eignungsprüfung bestehender GIS-basierter Modelle und Konzepte zum Verbund unter Berücksichtigung der regelmäßig in Deutschland verfügbaren Datengrundlagen durchgeführt. Da keine integrativen regelorientierten Ansätze vorhanden waren, wurde der vektorbasierte Algorithmus HABITAT-NET entwickelt. Er arbeitet mit ,Anspruchstypen‘ hinsichtlich des Habitatverbunds, die stellvertretend für unterschiedliche ökologische Gruppen von (Ziel-) Arten mit terrestrischer Ausbreitung stehen. Kombiniert wird die Fähigkeit zur Ausbreitung mit einer Grobtypisierung der Biotopbindung. Die wichtigsten Grundlagendaten bilden die jeweiligen (potenziellen) Habitate von Arten eines Anspruchstyps sowie die umgebende Landnutzung. Bei der Bildung von ,Lebensraumnetzwerken‘ (Teil I) werden gestufte ,Funktions- und Verbindungsräume‘ generiert, die zu einem räumlichen System verknüpft sind. Anschließend kann die aktuelle Zerschneidung der Netzwerke durch Verkehrstrassen aufgezeigt werden, um darauf aufbauend prioritäre Abschnitte zur Wiedervernetzung zu ermitteln (Teil II). Begleitend wird das Konzept der unzerschnittenen Funktionsräume (UFR) entworfen, mit dem die Indikation von Habitatzerschneidung auf Landschaftsebene möglich ist. Diskutiert werden schließlich die Eignung der Ergebnisse als kleinmaßstäblicher Zielrahmen, Tests zur Validierung, Vergleiche mit Verbundplanungen und verschiedene Setzungen im GIS-Algorithmus. Erläuterungen zu den Einsatzmöglichkeiten erfolgen beispielsweise für die Bereiche Biotopverbund- und Landschaftsplanung, Raumordnung, Strategische Umweltprüfung, Verkehrswegeplanung, Unterstützung des Konzeptes der Lebensraumkorridore, Kohärenz im Schutzgebietssystem NATURA 2000 und Aufbau von Umweltinformationssystemen. Schließlich wird ein Rück- und Ausblick mit der Formulierung des weiteren Forschungsbedarfs verknüpft.
Resumo:
Five laboratory incubation experiments were carried out to assess the salinity-induced changes in the microbial use of sugarcane filter cake added to soil. The first laboratory experiment was carried out to prove the hypothesis that the lower content of fungal biomass in a saline soil reduces the decomposition of a complex organic substrate in comparison to a non-saline soil under acidic conditions. Three different rates (0.5, 1.0, and 2.0%) of sugarcane filter cake were added to both soils and incubated for 63 days at 30°C. In the saline control soil without amendment, cumulative CO2 production was 70% greater than in the corresponding non-saline control soil, but the formation of inorganic N did not differ between these two soils. However, nitrification was inhibited in the saline soil. The increase in cumulative CO2 production by adding filter cake was similar in both soils, corresponding to 29% of the filter cake C at all three addition rates. Also the increases in microbial biomass C and biomass N were linearly related to the amount of filter cake added, but this increase was slightly higher for both properties in the saline soil. In contrast to microbial biomass, the absolute increase in ergosterol content in the saline soil was on average only half that in the non-saline soil and it showed also strong temporal changes during the incubation: A strong initial increase after adding the filter cake was followed by a rapid decline. The addition of filter cake led to immobilisation of inorganic N in both soils. This immobilisation was not expected, because the total C-to-total N ratio of the filter cake was below 13 and the organic C-to-organic N ratio in the 0.5 M K2SO4 extract of this material was even lower at 9.2. The immobilisation was considerably higher in the saline soil than in the non-saline soil. The N immobilisation capacity of sugarcane filter cake should be considered when this material is applied to arable sites at high rations. The second incubation experiment was carried out to examine the N immobilizing effect of sugarcane filter cake (C/N ratio of 12.4) and to investigate whether mixing it with compost (C/N ratio of 10.5) has any synergistic effects on C and N mineralization after incorporation into the soil. Approximately 19% of the compost C added and 37% of the filter cake C were evolved as CO2, assuming that the amendments had no effects on the decomposition of soil organic C. However, only 28% of the added filter cake was lost according to the total C and d13C values. Filter cake and compost contained initially significant concentrations of inorganic N, which was nearly completely immobilized between day 7 and 14 of the incubation in most cases. After day 14, N re-mineralization occurred at an average rate of 0.73 µg N g-1 soil d-1 in most amendment treatments, paralleling the N mineralization rate of the non-amended control without significant difference. No significant net N mineralization from the amendment N occurred in any of the amendment treatments in comparison to the control. The addition of compost and filter cake resulted in a linear increase in microbial biomass C with increasing amounts of C added. This increase was not affected by differences in substrate quality, especially the three times larger content of K2SO4 extractable organic C in the sugarcane filter cake. In most amendment treatments, microbial biomass C and biomass N increased until the end of the incubation. No synergistic effects could be observed in the mixture treatments of compost and sugarcane filter cake. The third 42-day incubation experiment was conducted to answer the questions whether the decomposition of sugarcane filter cake also result in immobilization of nitrogen in a saline alkaline soil and whether the mixing of sugarcane filter cake with glucose (adjusted to a C/N ratio of 12.5 with (NH4)2SO4) change its decomposition. The relative percentage CO2 evolved increased from 35% of the added C in the pure 0.5% filter cake treatment to 41% in the 0.5% filter cake +0.25% glucose treatment to 48% in the 0.5% filter cake +0.5% glucose treatment. The three different amendment treatments led to immediate increases in microbial biomass C and biomass N within 6 h that persisted only in the pure filter cake treatment until the end of the incubation. The fungal cell-membrane component ergosterol showed initially an over-proportionate increase in relation to microbial biomass C that fully disappeared at the end of the incubation. The cellulase activity showed a 5-fold increase after filter cake addition, which was not further increased by the additional glucose amendment. The cellulase activity showed an exponential decline to values around 4% of the initial value in all treatments. The amount of inorganic N immobilized from day 0 to day 14 increased with increasing amount of C added in comparison to the control treatment. Since day 14, the immobilized N was re-mineralized at rates between 1.31 and 1.51 µg N g-1 soil d-1 in the amendment treatments and was thus more than doubled in comparison with the control treatment. This means that the re-mineralization rate is independent from the actual size of the microbial residues pool and also independent from the size of the soil microbial biomass. Other unknown soil properties seem to form a soil-specific gate for the release of inorganic N. The fourth incubation experiment was carried out with the objective of assessing the effects of salt additions containing different anions (Cl-, SO42-, HCO3-) on the microbial use of sugarcane filter cake and dhancha leaves amended to inoculated sterile quartz sand. In the subsequent fifth experiment, the objective was to assess the effects of inoculum and temperature on the decomposition of sugar cane filter cake. In the fourth experiment, sugarcane filter cake led to significantly lower respiration rates, lower contents of extractable C and N, and lower contents of microbial biomass C and N than dhancha leaves, but to a higher respiratory quotient RQ and to a higher content of the fungal biomarker ergosterol. The RQ was significantly increased after salt addition, when comparing the average of all salinity treatments with the control. Differences in anion composition had no clear effects on the RQ values. In experiment 2, the rise in temperature from 20 to 40°C increased the CO2 production rate by a factor of 1.6, the O2 consumption rate by a factor of 1.9 and the ergosterol content by 60%. In contrast, the contents of microbial biomass N decreased by 60% and the RQ by 13%. The effects of the inoculation with a saline soil were in most cases negative and did not indicate a better adaptation of these organisms to salinity. The general effects of anion composition on microbial biomass and activity indices were small and inconsistent. Only the fraction of 0.5 M K2SO4 extractable C and N in non-fumigated soil was consistently increased in the 1.2 M NaHCO3 treatment of both experiments. In contrast to the small salinity effects, the quality of the substrate has overwhelming effects on microbial biomass and activity indices, especially on the fungal part of the microbial community.
Resumo:
Bei Dämmen auf wenig tragfähigem Untergrund ist es zwischenzeitlich Stand der Technik, an der Dammbasis eine Bewehrung aus hochzugfesten Geokunststoffen (Gewebe oder Geogitter) einzulegen. Dabei können die Bewehrungslagen direkt auf den weichen Boden oder über Pfahlelementen angeordnet werden, die die Dammlasten in tiefere, tragfähigere Schichten abtragen. Die horizontale Bewehrung an der Dammbasis hat die Aufgabe, die vertikalen Dammlasten und die nach außen wirkenden Spreizkräfte aufzunehmen. Dies ist besonders für bewehrte Tragschichten über Pfählen von großer Bedeutung, da sonst die Pfähle/Säulen eine Biegebeanspruchung erhalten, die sie aufgrund des geringen Durchmessers (oftmals unbewehrt) nicht aufnehmen können. Abgesicherte wissenschaftliche Erkenntnisse über Größe und Verteilung der Spreizspannung in Höhe ober- und unterhalb der Bewehrungslagen liegen derzeit noch nicht vor, aus denen dann auch die Beanspruchung abzuleiten ist, die aus der Spreizwirkung bei der Geokunststoffbemessung zu berücksichtigen ist. Herr Dr.-Ing. Gourge Fahmi hat dafür zunächst den Kenntnisstand zur Spreizbeanspruchung ohne und mit Bewehrung sowie ohne und mit Pfahlelementen zusammengefasst. Ein wesentlicher Teil einer wissenschaftlichen Untersuchungen stellt die Modellversuche in einem relativ großen Maßstab dar, die u. a. auch zur Validierung von numerischen Berechnungen zur Fragestellung vorgesehen waren. Dabei konnte nach gewissen Parameteranpassungen überwiegend eine gute Übereinstimmung zwischen Modellversuchen und FEM-Berechnungen erreicht werden. Lediglich bei den Dehnungen bzw. Zugkräften in den Geogittern über Pfahlelementen ergab die FEM bei dem verwendeten Programmsystem viel zu niedrige Werte. Es wurde dazu in der Arbeit anhand eigener Untersuchungen und Vergleichsergebnissen aus der Literatur eine Hypothese formuliert und zunächst die Berechnungsergebnisse mit einem Faktor angepasst. Mit den durchgeführten Verifikationen stand damit dann ein weitestgehend abgesichertes numerisches Berechnungsmodell zur Verfügung. Aufbauend auf diesen Vorarbeiten konnten Parameterstudien mit numerischen und analytischen Methoden zur Spreizproblematik durchgeführt werden. Dabei wurden die Randbedingungen und Parametervariationen sinnvoll und für die Fragestellung zutreffend gewählt. Die numerischen Verfahren ergaben vertiefte Erkenntnisse zur Mechanik und zum Verhalten der Konstruktion. Die analytischen Vergleichsberechnungen validierten primär die Güte dieser vereinfachten Ansätze für praktische Berechnungen. Zusammenfassend wurde festgestellt, dass erwartungsgemäß die Spreizkräfte im Geogitter nahezu linear mit der Dammhöhe anwachsen. Von besonderer Bedeutung für die Größe der Spreizkräfte ist die Steifigkeit der Weichschichten. Dieser Parameter wird bei den bisher bekannten analytischen Berechnungsverfahren nicht berücksichtigt. Je weicher der Untergrund, je größer wird das Verhältnis zwischen Spreiz- und Membranbeanspruchung. Eine steilere Dammböschung hat erwartungsgemäß ebenfalls eine höhere Spreizwirkung zur Folge. Des Weiteren ergeben sich bei mehrlagigen Geogittern die höheren Beanspruchungen in der unteren Lage aus dem Membraneffekt und in der oberen Lage aus dem Spreizeffekt. Zu diesen Erkenntnissen wurden in der Arbeit erste Vorschläge für die praktischen Bemessungen gemacht, die aber noch weiter zu optimieren sind. Schließlich erfolgt von Herrn Fahmi eine Betrachtung der Pfahlelementbeanspruchung aus Pfahlkopfverschiebung und Biegemomenten. Dabei wurde ersichtlich, dass die Pfahlelemente bei hohen Dämmen erhebliche Beanspruchungen erhalten können, wenn relativ weicher Untergrund vorhanden ist, und es zeigt die Notwendigkeit entsprechend abgesicherter Bemessungsverfahren auf.
Resumo:
Das Fehlen einer theoretisch und empirisch fundierten Konzeption des Managements im Rahmen internationaler Unternehmenskooperation am Standort Korea auf der Basis strategischer Erfolgsfaktoren bildet den Anlass und den Ausgangspunkt der vorliegenden Arbeit, deren Zielsetzung sich wie folgt formulieren lässt: • Eine erste Zielsetzung ist es, einen theoretisch fundierten Bezugsrahmen potentieller Einflussbereiche des Kooperationserfolgs zu entwickeln. Die einzelnen Bausteine dieses Bezugsrahmens, die zugleich die zentralen Elemente einer Gesamtkonzeption des Kooperationsmanagements darstellen, dienen im Folgenden als Suchfelder für eine theoriegeleitete Identifikation koreaspezifischer Erfolgs- und Misserfolgsfaktoren bei der Gestaltung und Führung internationaler Unternehmenskooperationen am Standort Korea. • Ein weiteres Untersuchungsziel besteht darin, die theoretisch identifizierten Erfolgsfaktoren mit Hilfe der varianzbasierten Strukturanalyse („PLS-Verfahren“) auf ihre empirische Relevanz im Rahmen internationaler Unternehmenskooperationen in Korea zu überprüfen. • Darüber hinaus sollen empirische Resultate auf den jeweiligen konzeptionellen Ebenen für praxis- und anwendungsorientierte Problemlösungsstrategien und -instrumente im Hinblick auf die Auswahl und Ausgestaltung einer adäquaten Koreastrategie abgeleitet werden. • Schließlich besteht das Untersuchungsziel in der Vermittlung von Problemlösungsstrategien mit Blick auf das interkulturelle Management. In diesem Zusammenhang wird in der vorliegenden Arbeit untersucht, inwiefern das unterschiedliche Kulturumfeld der beteiligten Unternehmen die effiziente und effektive Führung einer internationalen Unternehmenskooperation im Falle Korea erschwert und wie diese Kulturdistanz überwunden werden kann.
Resumo:
Simulation hat sich in der Vergangenheit als unterstützendes Planungsinstrument und Prognosemethode zur Untersuchung von Materialflusssystemen in verschiedenen Branchen etabliert. Dafür werden neben Simulationswerkzeugen auch zunehmend Virtual Reality (VR), insbesondere mit dem Ansatz Digitale Fabrik, eingesetzt. Ein Materialflusssimulator, der für den VR–Einsatz geeignet ist,existiert noch nicht, so dass Anwender gegenwärtig mit verschiedenen Systemen arbeiten müssen, um Untersuchungen eines Simulationsmodells in einem VR–Umfeld wie beispielsweise in einem CAVE zu ermöglichen. Zeitlicher Aufwand ist dadurch vorprogrammiert und das Auftreten von Fehlern bei der Konvertierung des Simulationsmodells möglich. Da auch der hauseigene Materialflusssimulator SIMFLEX/3D nicht für beide Anwendungsgebiete genutzt werden kann und für einen solchen Einsatz mit sehr hohem Aufwand angepasst werden müsste, wurde stattdessen ein neues Simulationssystem entworfen. Das Simulationssystem wird in der vorliegenden Arbeit als ein interoperables und offenes System beschrieben, das über eine flexible Softwarearchitektur verfügt und in einem vernetzten Umfeld mit anderen Werkzeugen Daten austauschen kann. Die grundlegende Idee besteht darin, eine flexible Softwarearchitektur zu entwerfen, die zunächst interaktive und ereignisorientierte 3D–Simulation erlaubt, aber zusätzlich für andere Anwendungszwecke offen gehalten wird. Durch den offenen Ansatz können Erweiterungen, die in Form von Plugins entwickelt werden, mit geringem Aufwand in das System integriert werden, wodurch eine hohe Flexibilität des Systems erreicht wird. Für interoperable Zwecke werden Softwaremodule vorgestellt, die optional eingesetzt werden können und standardisierte Formate wie bspw. XML benutzen. Mit dem neuen Simulationssystem wird die Lücke zwischen Desktop– und VR–Einsatz geschlossen und aus diesem Grund der Zeitaufwand und Fehlerquellen reduziert. Darüber hinaus ermöglicht der offene Ansatz, das Simulationssystem rollen- und aufgabenspezifisch anzupassen, indem die erforderlichen Plugins bereitgestellt werden. Aus diesem Grund kann das Simulationssystem mit sehr geringem Aufwand um weitere Untersuchungsschwerpunkte wie beispielsweise Avatare ergänzt werden. Erste Untersuchungen in einem CAVE wurden erfolgreich durchgeführt. Für die Digitale Fabrik kann der Prototyp eingesetzt werden, um die Produktionsplanung mit Hilfe der Simulation und die Entwicklung mit Hilfe der entwickelten Viewer zu unterstützen. Letzteres ist möglich, da die Viewer zahlreiche CAD–Formate lesen und um weitere Formate ergänzt werden können. Das entwickelte System ist für den Einsatz in verschiedenen Prozessen einer Wertschöpfungskette geeignet,um es als Untersuchungs-, Kommunikations- und Steuerungswerkzeug einzusetzen.
Resumo:
Dem Farinelli-Protein wird eine Funktion als hodenspezifisches VAP-Protein zugesprochen (Renner, 2001). Mit Hilfe des ER-Markers PDI konnte Fan eindeutig dem ER zugeordnet werden. Fan stellt dabei ein integrales Membranprotein dar, welches nur durch Detergenz- Behandlung in Lösung zu bringen war. Durch den Einsatz zweier Fragment-Konstrukte (fan∆MSP-GFP und fanMSP-GFP) von Fan wurde die Relevanz der MSP-Domäne für die männliche Fertilität dokumentiert. Das Fusionsprotein Fan∆MSP-GFP lag aufgrund der verbliebenen Transmembrandomäne weiterhin im ER vor. Dennoch konnte der sterile Phänotyp der fanJo-Männchen, die keinerlei Fan-Protein enthalten, durch das Einbringen des Fusionskonstrukts nicht gerettet werden. MSP-GFP für sich allein konnte keine Verbindung mit dem ER eingehen und zeigte eine diffuse Fluoreszenz. Im Rahmen der Dissertation wurden mehrere, durch das yeast two hybrid-System ermittelte, mögliche Interaktionspartner von Fan analysiert. Das Protein CG5194 konnte als einziges wie Fan dem ER zugeordnet werden. Seine Expression beschränkte sich aber auf die Spermatocytenphase und ist somit kürzer als die von Farinelli. Nach Einkreuzen der GFP-Fusionskonstrukte in die fan-Nullmutante konnte CG5194 nicht mehr am ER der Spermatocyten beobachtet werden, sondern lag innerhalb des Cytoplasmas diffus verteilt vor. Auch bei der Western Blot-Analyse konnte das Protein von CG5194 nur noch in der Überstand-Fraktion mit den ungebundenen Proteinen nachgewiesen werden. Lag in der fan-Nullmutante ausschließlich das Fan∆MSP-GFP-Fusionsprotein vor, konnte die ER-Lokalisation von CG5194 ebenfalls nicht beibehalten werden. Mit Hilfe einer Fragment-Analyse konnte gezeigt werden, dass in den männlichen Gonaden das erste Exon von CG5194 für die Interaktion mit Fan entscheidend ist. Innerhalb der Ovarien dagegen ist das zweite Exon für die Lokalisation im ER notwendig. Demzufolge ist neben einem anderen Interaktionspartner als Fan auch eine andere Domäne im Protein für die ER-Lokalisation in der weiblichen Keimbahn entscheidend. Durch den Einsatz von antisense- und RNAi-Konstrukten konnte ein steriler Phänotyp bei den Männchen erzeugt werden. Überraschenderweise zeigten die Tiere erst einen Defekt während der Spermatiden-Differenzierung. Bereits während der Diplomarbeit wurde 98A im Kopfbereich der elongierten Spermatiden nachgewiesen. Mittels einer DNA-Färbung sowie durch die Colokalisation mit dem Akrosom-Protein Sneaky wurde 98A dem Bereich des Akrosoms zugeordnet. Sneaky taucht jedoch bereits früher als 98A in den Keimzellen auf. Die Erzeugung eines sterilen Phänotyps durch den Einfluss eines RNAi-Konstrukts gelang nicht. Entweder ist 98A für die Fertilität von Drosophila nicht relevant oder aber seine Funktion kann von anderen Proteinen übernommen werden.
Resumo:
Excimerlaser sind gepulste Gaslaser, die Laseremission in Form von Linienstrahlung – abhängig von der Gasmischung – im UV erzeugen. Der erste entladungsgepumpte Excimerlaser wurde 1977 von Ischenko demonstriert. Alle kommerziell verfügbaren Excimerlaser sind entladungsgepumpte Systeme. Um eine Inversion der Besetzungsdichte zu erhalten, die notwendig ist, um den Laser zum Anschwingen zu bekommen, muss aufgrund der kurzen Wellenlänge sehr stark gepumpt werden. Diese Pumpleistung muss von einem Impulsleistungsmodul erzeugt werden. Als Schaltelement gebräuchlich sind Thyratrons, Niederdruckschaltröhren, deren Lebensdauer jedoch sehr limitiert ist. Deshalb haben sich seit Mitte der 1990iger Jahre Halbleiterschalter mit Pulskompressionsstufen auch in dieser Anwendung mehr und mehr durchgesetzt. In dieser Arbeit wird versucht, die Pulskompression durch einen direkt schaltenden Halbleiterstapel zu ersetzen und dadurch die Verluste zu reduzieren sowie den Aufwand für diese Pulskompression einzusparen. Zudem kann auch die maximal mögliche Repetitionsrate erhöht werden. Um die Belastung der Bauelemente zu berechnen, wurden für alle Komponenten möglichst einfache, aber leistungsfähige Modelle entwickelt. Da die normalerweise verfügbaren Daten der Bauelemente sich aber auf andere Applikationen beziehen, mussten für alle Bauteile grundlegende Messungen im Zeitbereich der späteren Applikation gemacht werden. Für die nichtlinearen Induktivitäten wurde ein einfaches Testverfahren entwickelt um die Verluste bei sehr hohen Magnetisierungsgeschwindigkeiten zu bestimmen. Diese Messungen sind die Grundlagen für das Modell, das im Wesentlichen eine stromabhängige Induktivität beschreibt. Dieses Modell wurde für den „magnetic assist“ benützt, der die Einschaltverluste in den Halbleitern reduziert. Die Impulskondensatoren wurden ebenfalls mit einem in der Arbeit entwickelten Verfahren nahe den späteren Einsatzparametern vermessen. Dabei zeigte sich, dass die sehr gebräuchlichen Class II Keramikkondensatoren für diese Anwendung nicht geeignet sind. In der Arbeit wurden deshalb Class I Hochspannungs- Vielschicht- Kondensatoren als Speicherbank verwendet, die ein deutlich besseres Verhalten zeigen. Die eingesetzten Halbleiterelemente wurden ebenfalls in einem Testverfahren nahe den späteren Einsatzparametern vermessen. Dabei zeigte sich, dass nur moderne Leistungs-MOSFET´s für diesen Einsatz geeignet sind. Bei den Dioden ergab sich, dass nur Siliziumkarbid (SiC) Schottky Dioden für die Applikation einsetzbar sind. Für die Anwendung sind prinzipiell verschiedene Topologien möglich. Bei näherer Betrachtung zeigt sich jedoch, dass nur die C-C Transfer Anordnung die gewünschten Ergebnisse liefern kann. Diese Topologie wurde realisiert. Sie besteht im Wesentlichen aus einer Speicherbank, die vom Netzteil aufgeladen wird. Aus dieser wird dann die Energie in den Laserkopf über den Schalter transferiert. Aufgrund der hohen Spannungen und Ströme müssen 24 Schaltelemente in Serie und je 4 parallel geschaltet werden. Die Ansteuerung der Schalter wird über hochisolierende „Gate“-Transformatoren erreicht. Es zeigte sich, dass eine sorgfältig ausgelegte dynamische und statische Spannungsteilung für einen sicheren Betrieb notwendig ist. In der Arbeit konnte ein Betrieb mit realer Laserkammer als Last bis 6 kHz realisiert werden, der nur durch die maximal mögliche Repetitionsrate der Laserkammer begrenzt war.
Resumo:
The presented thesis considered three different system approach topics to ensure yield and plant health in organically grown potatoes and tomatoes. The first topic describes interactions between late blight (Phytophthora infestans) incidence and soil nitrogen supply on yield in organic potato farming focussing in detail on the yield loss relationship of late blight based on results of several field trials. The interactive effects of soil N-supply, climatic conditions and late blight on the yield were studied in the presence and absence of copper fungicides from 2002-2004 for the potato cultivar Nicola. Under conditions of central Germany the use of copper significantly reduced late blight in almost all cases (15-30 %). However, the reductions in disease through copper application did not result in statistically significant yield increases (+0 – +10 %). Subsequently, only 30 % of the variation in yield could be attributed to disease reductions. A multiple regression model (R²Max), however, including disease reduction, growth duration and temperature sum from planting until 60 % disease severity was reached and soil mineral N contents 10 days after emergence could explain 75 % of the observed variations in yield. The second topic describes the effect of some selected organic fertilisers and biostimulant products on nitrogen-mineralization and efficiency, yield and diseases in organic potato and tomato trials. The organic fertilisers Biofeed Basis (BFB, plant derived, AgroBioProducts, Wageningen, Netherlands) and BioIlsa 12,5 Export (physically hydrolysed leather shavings, hair and skin of animals; ILSA, Arizignano, Italy) and two biostimulant products BioFeed Quality (BFQ, multi-compound seaweed extract, AgroBioProducts) and AUSMA (aqueous pine and spruce needle extract, A/S BIOLAT, Latvia), were tested. Both fertilisers supplied considerable amounts of nitrogen during the main uptake phases of the crops and reached yields as high or higher as compared to the control with horn meal fertilisation. The N-efficiency of the tested fertilisers in potatoes ranged from 90 to 159 kg yield*kg-1 N – input. Most effective with tomatoes were the combined treatments of fertiliser BFB and the biostimulants AUSMA and BFQ. Both biostimulants significantly increased the share of healthy fruit and/or the number of fruits. BFQ significantly increased potato yields (+6 %) in one out of two years and reduced R. solani-infestation in the potatoes. This suggests that the biostimulants had effects on plant metabolism and resistance properties. However, no effects of biostimulants on potato late blight could be observed in the fields. The third topic focused on the effect of suppressive composts and seed tuber health on the saprophytic pathogen Rhizoctonia solani in organic potato systems. In the present study 5t ha-1 DM of a yard and bio-waste (60/40) compost produced in a 5 month composting process and a 15 month old 100 % yard waste compost were used to assess the effects on potato infection with R. solani when applying composts within the limits allowed. Across the differences in initial seed tuber infestation and 12 cultivars 5t DM ha-1 of high quality composts, applied in the seed tuber area, reduced the infestation of harvested potatoes with black scurf, tuber malformations and dry core tubers by 20 to 84 %, 20 to 49 % and 38 to 54 %, respectively, while marketable yields were increased by 5 to 25 % due to lower rates of wastes after sorting (marketable yield is gross yield minus malformed tubers, tubers with dry core, tubers with black scurf > 15% infested skin). The rate of initial black scurf infection of the seed tubers also affected tuber number, health and quality significantly. Compared to healthy seed tubers initial black scurf sclerotia infestation of 2-5 and >10 % of tuber surface led in untreated plots to a decrease in marketable yields by 14-19 and 44-66 %, a increase of black scurf severity by 8-40 and 34-86 % and also increased the amount of malformed and dry core tubers by 32-57 and 109-214 %.
Resumo:
Der Name einer kleinen Internatsschule im Berner Oberland taucht zunehmend in den Diskussionen über die Gestaltung von selbst organisiertem Lernen auf: Institut Beatenberg. Der Direktor des Instituts, Andreas Müller, und seine Mitarbeiter sind gefragte Referenten auf Veranstaltungen über die Einführung einer Lehr-Lernkultur, die den Lernenden und seine Lernprozesse in den Mittelpunkt der pädagogischen Arbeit stellt. Zudem finden ihre Publikationen zunehmendes Interesse im gesamten deutschsprachigen Raum. Ein Schlüsselinstrument wurde dabei zum Schlagwort: Kompetenzraster. Doch die stellen nur eines der Instrumente dar, die den ‚Wirkungskreislauf des Lernerfolgs’ in Beatenberg stützen. Berufliche Schulen in Hessen und Hamburg haben im Rahmen von Modellprojekten mit der Erarbeitung von Kompetenzrastern nach den Vorbildern in Beatenberg begonnen und versprechen sich damit eine neue, auf selbst organisiertem Lernen aufbauende kompetenzorientierte berufliche Bildung. In dem Beitrag werden die Arbeit mit Kompetenzrastern und den dahinter liegenden ‚Lernlandschaften’ sowie der ‚Wirkungskreislauf den Lernerfolgs’ in Beatenberg kompetenzorientiert dargestellt. Die Dimensionen Definition, Beschreibung, Ordnung, Erwerb, Messung und Anerkennung von Kompetenzen werden herausgearbeitet und die Möglichkeiten von Kompetenzrastern in der beruflichen Bildung kritisch gewürdigt. Der Beitrag ist entlang der genannten Dimensionen gegliedert.
Resumo:
Im Rahmen dieser Dissertation wurden die Dynamik und die Kommunikation innerhalb der mikrobiellen Population der Rhizosphäre von Deutschem Weidelgras (Lolium perenne) untersucht, welches auf einer teilweise rekultivierten Rückstandshalde der Kaliindustrie wuchs. Um die niederschlagsbedingte Auswaschung von Salzen zu reduzieren, wird die Rückstandshalde des Kaliwerks Sigmundshall (in Bokeloh bei Hannover) schrittweise mit dem technogenen Abdecksubstrat REKAL/SAV ummantelt. Dieses weist eine hohe Standfestigkeit und Wasserspeicherkapazität auf und kann zudem begrünt werden, wofür als Pionierpflanze Lolium perenne dient. Durch diese Rekultivierung wird Niederschlag besser gespeichert und über Evapotranspiration wieder in die Luft abgegeben, was letztendlich die Bildung von Salzwasser vermindert. Da das Abdecksubstrat neben alkalischem pH-Wert auch teilweise hohe Schwermetallkonzentrationen aufweist, sollte in der vorliegenden Arbeit erstmals die mikrobielle Rhizosphären-Gemeinschaft in diesem extremen Habitat mittels einer kulturunabhängigen Methode erforscht werden. Zudem wurden erste Untersuchungen angestellt, ob im Substrat die zelldichte-abhängige bakterielle Kommunikation (Quorum Sensing) nachgewiesen werden kann. Mittels extrahierter Gesamt-DNA wurde anhand der 16S rDNA die Analyse des „Terminalen Restriktonsfragmentlängenpolymorphismus“ (TRFLP) verwendet, um die komplexe bakterielle Rhizosphären-Gemeinschaft unter zeitlichen und lokalen Aspekten zu vergleichen. Auftretende Veränderungen bei den bakteriellen Populationen der jeweiligen Proben wurden durch eine Zu- oder Abnahme der auch als Ribotypen bezeichneten terminalen Restriktionsfragmente (TRF) erfasst. Hierbei zeigten sich am Südhang der Halde während der Sommermonate der Jahre 2008 und 2009 zwar Schwankungen in den bakteriellen Gemeinschaftsprofilen, es lagen jedoch keine eindeutigen Dynamiken vor. Im Vergleich zum Südhang der Halde wies der Nordhang eine höhere Ribotyp-Diversität auf, was mit der fortgeschritteneren Rekultivierung dieses Haldenabschnitts zusammenhängen könnte. Zusätzlich wurden Bakterien aus der Rhizosphäre von Lolium perenne isoliert und mithilfe der Biosensoren Agrobacterium tumefaciens A136 pCF218 pCF372 und Chromobacterium violaceum CV026 auf die Produktion von N-Acylhomoserinlactonen (AHLs) überprüft. Diese AHLs werden von Gram-negativen Mikroorganismen als Signalmoleküle verwendet, um ihre Genexpression zelldichteabhängig zu kontrollieren. Von den 47 getesteten Gram-negativen Rhizosphärenisolaten konnten nur bei einem reproduzierbar AHL-Moleküle mithilfe des Reporterstamms A. tumefaciens nachgewiesen werden. Der AHL-Produzent wurde als Pseudomonas fluorescens identifiziert. Mittels dünnschichtchromatographischer Analysen konnten die extrahierten bakteriellen AHL-Moleküle den N-Octanoyl-L-homoserinlactonen zugeordnet werden.
Resumo:
Die Arbeit beschäftigt sich mit didaktischen Aspekten einer neuen Aufgabenkultur und mit ihrem Kern, den Modellierungsaufgaben. Im ersten Teil der Dissertation wird ein Überblick über ausgewählte Theorien und empirische Ergebnisse aus den Bereichen Lehr-Lernforschung, Problemlöseforschung, kognitive Psychologie sowie Allgemeindidaktik und den Fachdidaktiken gegeben. Es zeigt sich, dass Schüler-Schwierigkeiten und Schüler-Strategien eine bedeutende Rolle für den Lernprozess spielen, jedoch bei den Modellierungsaufgaben nicht ausreichend erforscht sind. Ziel der vorliegenden Arbeit ist es, Schüler-Schwierigkeiten und -Strategien bei der Bearbeitung von Modellierungsaufgaben empirisch zu erfassen, mit kognitiven Lern- und Problemlösetheorien zu verbinden und erste Bausteine einer Didaktik der Aufgabenkultur zu entwerfen. Drei zentrale Fragestellungen sind dabei: 1. Welche Schwierigkeiten haben Schüler beim Bearbeiten von Modellierungsaufgaben? 2. Welche Strategien wenden sie bei der Aufgabenbearbeitung an? 3. Welche didaktischen Konsequenzen können aufgrund der Antworten auf die erste und zweite Frage für die Didaktik der neuen Aufgabenkultur gezogen werden? Die Analyse der Bearbeitung von drei Modellierungsaufgaben durch vier Neuntklässler unterschiedlicher Kompetenzstufen (12 Fälle) mit Hilfe der Grounded Theory erfolgte hypothesenorientiert und erbrachte folgende Ergebnisse: Die Schüler-Schwierigkeiten bei der Bearbeitung der Modellierungsaufgaben lassen sich in drei Tätigkeitsbereiche aufschlüsseln: (1) die Aufgabe lesen und verstehen, (2) den Zusammenhang zwischen Gegebenheiten der Situation und mathematischer Lösungsstruktur verstehen sowie (3) Umformung mathematischer Strukturen, Ausführung der Rechenoperationen und Interpretieren der Ergebnisse. In den genannten Tätigkeitsbereichen wurden jeweils erfolgversprechende Strategien wie z.B. die Organisationsstrategie „Zeichnen und Beschriften einer Skizze“, die kooperative Strategie „Wechsel zwischen individueller Konstruktion und kooperativer Ko-Konstruktion“ oder die metakognitive Strategie „Planung“ identifiziert und ihre Ausführung dokumentiert. Aus den empirischen Analysen lässt sich eine Reihe von wichtigen Stichpunkten nennen, die einen bedeutsamen Bestandteil der Didaktik einer neuen Aufgabenkultur bilden. Wichtige Stichworte dazu sind die Einbettung der Aufgaben in Lernumgebungen, der Einbezug kooperativer Strategien, ein neues Verständnis von Lehrerinterventionen, das Diagnose und lernbegleitende Unterstützung stärker akzentuiert, Selbstregulierung und Individualisierung, Problem- und Lernprozessorientierung im Unterricht. Wird der letzte Punkt genau analysiert, zeigt sich, dass es zur erfolgreichen Lernprozessgestaltung notwendig ist, längerfristig die Zielperspektive, unter der die Schüler Aufgaben bearbeiten, zu verändern. Beim Bearbeiten der Aufgaben sollen Schülerhandlungen, statt sich nur auf die Lösung einer Aufgabe zu beschränken, auf den individuellen Erwerb von Wissen, Kompetenzen und Strategien ausgerichtet werden (Prozess-Ergebnis-Orientierung). Erreicht werden soll die Prozess-Ergebnis-Orientierung durch eine bessere strategische Durcharbeitung des Unterrichts, der gleichermaßen das Ausschöpfen des Potentials für die Selbststeuerung des Lernens bei den Schülern sowie die dafür notwendige Weiterentwicklung des diagnostischen und unterstützenden Handelns von Lehrerinnen und Lehrern betont.