1000 resultados para Drei Punkte


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit beschäftigt sich mit der Herstellung und Anwendungen von periodischen Goldnanopartikel-Arrays (PPAs), die mit Hilfe von Nanosphären-Lithografie hergestellt wurden. In Abhängigkeit der verwendeten Nanosphären-Größe wurden dabei entweder kleine dreieckige Nanopartikel (NP) (bei Verwendung von Nanosphären mit einem Durchmesser von 330 nm) oder große dreieckige NPD sowie leicht gestreckte NP (bei Verwendung von Nanosphären mit einem Durchmesser von 1390 nm) hergestellt. Die Charakterisierung der PPAs erfolgte mit Hilfe von Rasterkraftmikroskopie, Rasterelektronenmikroskopie und optischer Spektroskopie. Die kleinen NP besitzen ein Achsverhältnis (AV) von 2,47 (Kantenlänge des NPs: (74+/-6) nm, Höhe: (30+/-4) nm. Die großen dreieckigen NP haben ein AV von 3 (Kantenlänge des NPs:(465+/-27) nm, Höhe: (1530+/-10) nm) und die leicht gestreckten NP (die aufgrund der Ausbildung von Doppelschichten ebenfalls auf der gleichen Probe erzeugt wurden) haben eine Länge von (364+/-16)nm, eine Breite von (150+/-20) nm und eine Höhe von (150+/-10)nm. Die optischen Eigenschaften dieser NP werden durch lokalisierte Oberflächenplasmon-Polariton Resonanzen (LPPRs) dominiert, d.h. von einem eingestrahlten elektromagnetischen Feld angeregte kollektive Schwingungen der Leitungsbandelektronen. In dieser Arbeit wurden drei signifikante Herausforderungen für Plasmonik-Anwendungen bearbeitet, welche die einzigartigen optischen Eigenschaften dieser NP ausnutzen. Erstens wurden Ergebnisse der selektiven und präzisen Größenmanipulation und damit einer Kontrolle der interpartikulären Abstände von den dreieckigen Goldnanopartikel mit Hilfe von ns-gepulstem Laserlicht präsentiert. Die verwendete Methode basiert hierbei auf der Größen- und Formabhängigkeit der LPPRs der NP. Zweitens wurde die sensorischen Fähigkeiten von Gold-NP ausgenutzt, um die Bildung von molekularen Drähten auf den PPAs durch schrittweise Zugabe von unterschiedlichen molekularen Spezies zu untersuchen. Hierbei wurde die Verschiebung der LSPPR in den optischen Spektren dazu ausgenutzt, die Bildung der Nanodrähte zu überwachen. Drittens wurden Experimente vorgestellt, die sich die lokale Feldverstärkung von NP zu nutze machen, um eine hochgeordnete Nanostrukturierung von Oberflächen mittels fs-gepulstem Laserlicht zu bewerkstelligen. Dabei zeigt sich, dass neben der verwendeten Fluenz die Polarisationsrichtung des eingestrahlten Laserlichts in Bezug zu der NP-Orientierung sowie die Größe der NP äußerst wichtige Parameter für die Nanostrukturierung darstellen. So konnten z.B. Nanolöcher erzeugt werden, die bei höheren Fluenzen zu Nanogräben und Nanokanälen zusammen wuchsen. Zusammengefasst lässt sich sagen, dass die in dieser Arbeit gewonnen Ergebnisse von enormer Wichtigkeit für weitere Anwendungen sind.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen der vorliegenden Arbeit wurde eine größere Anzahl an E. faecalis Isolaten aus Vaginalabstrichen, erstmals insbesondere von Patientinnen, die an Bakterieller Vaginose litten, untersucht und mit E. faecalis Stämme aus verschiedenen anderen klinischen Bereichen auf das Vorkommen von Virulenzfaktoren verglichen. Weiterhin wurden Korrelationen zwischen bestimmten Faktoren und der Menge an produziertem Biofilm erstellt, um mögliche Zusammenhänge zum Mechanismus der Biofilm-Bildung zu erfassen. Mittels statistischer Analysen konnte hinsichtlich der 150 untersuchten E. faecalis Isolate nachgewiesen werden, dass keine signifikanten Unterschiede der Inzidenzen von Virulenzfaktoren (esp, asa1, gelE, GelE, cylA, β-Hämolyse) zwischen den Stämmen der verschiedenen Herkunftsbereiche bestanden. In Bezug auf das Auftreten von Biofilm-Bildung zeigte sich ein erhöhtes Vorkommen bei Stämmen aus Urin sowie invasiver Herkunft (insgesamt jeweils ca. 70 % mäßige und starke Biofilm-Bildner) im Vergleich zu E. faecalis Isolaten aus Wunden oder Faeces (je ca. 40 %). Statistische Auswertungen bzgl. des Zusammenhangs eines oder einer Kombination von Virulenzfaktoren mit der Menge an gebildetem Biofilm wiesen darauf hin, dass Isolate, die das esp Gen besaßen, in erhöhtem Maße zur Biofilm-Bildung befähigt waren. Dies zeigte einen gewissen Einfluss des Zellwandproteins auf die Fähigkeit zur Biofilm-Bildung bei E. faecalis. Allerdings wurden stets auch Stämme identifiziert, die die Fähigkeit zur Biofilm-Bildung trotz des Fehlens der jeweils untersuchten genetischen Determinante bzw. der Determinanten aufwiesen, so dass auf das Vorhandensein weiterer, unbekannter Einflussfaktoren auf den Mechanismus der Biofilm-Bildung bei E. faecalis geschlossen werden konnte. Unter 78 untersuchten E. faecium Isolaten aus verschiedenen klinischen Bereichen konnte lediglich ein Stamm (1,3 %) als mäßiger Biofilm-Bildner charakterisiert werden, so dass die Fähigkeit bei dieser Spezies in der hier untersuchten Region unter diesen Bedingungen kaum nachgewiesen werden konnte. Einen Schwerpunkt dieser Arbeit bildete die Untersuchung zum Vorkommen von Virulenzfaktoren und Biofilm-Bildung bei E. faecalis Isolaten aus Vaginalabstrichen. Bzgl. des Auftretens von Virulenzfaktoren und Biofilm-Produktion konnte kein Unterschied zwischen Stämmen assoziiert mit Bakterieller Vaginose und Isolaten einer Vergleichsgruppe festgestellt werden. Allerdings zeigte eine Gegenüberstellung mit den untersuchten E. faecalis Stämmen aus anderen klinischen Bereichen, dass die 80 Isolate aus Vaginalabstrichen eine ähnlich hohe Inzidenz bestimmter Virulenzfaktoren wie Stämme aus Faeces, Urin, Wunden oder invasiver Herkunft sowie eine mit den Isolaten aus Urin und invasiver Herkunft vergleichbar hohe Fähigkeit zur Biofilm-Bildung aufwiesen (ca. 75 % mäßige und starke Biofilm-Bildner). Dies deutete auf eine Verbreitung der Biofilm-Bildungsfähigkeit bei E. faecalis Stämmen der Vaginalflora und somit auf eine große Bedeutung der Eigenschaft für Isolate dieser Herkunft hin. Die statistische Auswertung der Korrelationen von Virulenzfaktoren mit der Menge an gebildetem Biofilm lieferte ähnliche Ergebnisse wie die Analysen bzgl. der 150 E. faecalis Isolate aus anderen klinischen Bereichen und untermauerte die Annahme, dass zusätzliche Faktoren zu den hier untersuchten Determinanten bei E. faecalis vorhanden sein müssen, die Einfluss auf den Mechanismus der Biofilm-Bildung nehmen. Deshalb konzentrierte sich ein weiterer Teil der vorliegenden Arbeit auf die Herstellung und Charakterisierung von E. faecalis Biofilm-Spontanmutanten, um bisher noch ungeklärte Mechanismen oder neue Faktoren zu erkennen, die Einfluss auf die Biofilm-Bildung bei E. faecalis nehmen. Die Untersuchung einer Mutante (1.10.16) und ihres Wildtypstamms lieferte erstmals den phänotypischen Nachweis des HMW-Komplexes der drei Bee-Proteine sowie die Identifizierung konservierter Pili-Motive dieser Proteine. Des Weiteren schien die in diesem Cluster ebenfalls codierte Sortase-1 dasjenige Enzym zu sein, das höchstwahrscheinlich die Bindung des Proteins Bee-2 innerhalb dieses HMW-Komplexes katalysiert. Insofern lieferten diese Untersuchungen neue, konkrete Hinweise zur Rolle des bee Genclusters bei der Pili-Biogenese und Biofilm-Bildung von E. faecalis. Darüber hinaus stellen Erkenntnisse aus der Charakterisierung von zwei weiteren hergestellten Biofilm-Spontanmutanten viel versprechende Ausgangspunkte für zukünftige Untersuchungen dar, die ein weitergehendes Verständnis der molekularen Mechanismen der Biofilm-Bildung bei E. faecalis erzielen könnten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Unterrichtsschritte, die im Videoband nicht gezeigt werden konnten, werden in diesem Beiheft erläutert: Nach einer "Beschreibung des Themas" wird die "Ausarbeitung der drei Lernsequenzen" am Beispiel des Unterrichts in einer kaufmännischen Berufsschule, einer Berufsfachschule Gesundheitswesen und einer technischen Fachoberschule ausführlich dargestellt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zur Abbildung heterogener Standorteigenschaften und Ertragspotenziale werden zunehmend flächenhafte Daten nachgefragt. Insbesondere für Grünland, das häufig durch ausgeprägte Standortheterogenität gekennzeichnet ist, ergeben sich hohe Anforderungen an die Wiedergabequalität, denn die realen Verhältnisse sollen in praktikabler Weise möglichst exakt abgebildet werden. Außerdem können flächenhafte Daten genutzt werden, um Zusammenhänge zwischen teilflächenspezifischen Standorteigenschaften und Grünlandaspekten detaillierter zu analysieren und bisher nicht erkannte Wechselbeziehungen nachzuweisen. Für mitteleuropäisches Grünland lagen zu Beginn dieser Arbeit derartige räumliche Untersuchungen nicht oder nur in Teilaspekten vor. Diese Arbeit befasste sich mit der Analyse von Wirkungsbeziehungen zwischen Standort- und Grünlandmerkmalen auf einer im Nordhessischen Hügelland (Deutschland) weitgehend praxisüblicher bewirtschafteten 20 ha großen Weidefläche. Erhoben wurden als Standortfaktoren die Geländemorphologie, die Bodentextur, die Grundnährstoffgehalten sowie als Parameter des Grünlandbestandes die botanische Zusammensetzung, der Ertrag und die Qualitätsparameter. Sie wurden sowohl in einem 50 m-Raster ganzflächig, als auch auf drei 50x50 m großen Teilflächen in erhöhter Beprobungsdichte (6,25 m-Rasterweite) aufgenommen. Die relevanten Fragestellungen zielen auf die räumliche und zeitliche Variabilität von Grünlandbestandesparametern innerhalb von Grünlandflächen sowie deren Abhängigkeit von den Standortfaktoren. Ein weiterer Schwerpunkt war die Überprüfung der Frage, ob die reale Variabilität der Zielvariablen durch die Interpolierung der punktuell erfassten Daten wiedergegeben werden kann. Die Beziehungen zwischen Standort- und Grünlandmerkmalen wurden mit monokausalen und multivariaten Ansätzen untersucht. Die Ergebnisse ließen, unabhängig vom Jahreseinfluss, bereits bestimmte Zusammenhänge zwischen botanischer Zusammensetzung und Standort, auch auf dem untersuchten kleinen Maßstab innerhalb der Grünlandfläche, finden. Demzufolge können unterschiedliche Areale abgegrenzt und charakterisiert werden, die als Grundlage für Empfehlungen zur Ausweisung von Arealen zur teilspezifischen Bewirtschaftung erarbeitet wurden. Die Validierung der interpolierten Daten zeigte, dass die 50-m Rasterbeprobung nur eine begrenzte Wiedergabe der räumlichen Variabilität ermöglicht. Inwieweit derartige Beziehungen quantitativ genauer beschreibbar sind, bleibt auf Grund der verbliebenen unerklärten Varianz im Datensatz dieser Studie offen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The presented thesis considered three different system approach topics to ensure yield and plant health in organically grown potatoes and tomatoes. The first topic describes interactions between late blight (Phytophthora infestans) incidence and soil nitrogen supply on yield in organic potato farming focussing in detail on the yield loss relationship of late blight based on results of several field trials. The interactive effects of soil N-supply, climatic conditions and late blight on the yield were studied in the presence and absence of copper fungicides from 2002-2004 for the potato cultivar Nicola. Under conditions of central Germany the use of copper significantly reduced late blight in almost all cases (15-30 %). However, the reductions in disease through copper application did not result in statistically significant yield increases (+0 – +10 %). Subsequently, only 30 % of the variation in yield could be attributed to disease reductions. A multiple regression model (R²Max), however, including disease reduction, growth duration and temperature sum from planting until 60 % disease severity was reached and soil mineral N contents 10 days after emergence could explain 75 % of the observed variations in yield. The second topic describes the effect of some selected organic fertilisers and biostimulant products on nitrogen-mineralization and efficiency, yield and diseases in organic potato and tomato trials. The organic fertilisers Biofeed Basis (BFB, plant derived, AgroBioProducts, Wageningen, Netherlands) and BioIlsa 12,5 Export (physically hydrolysed leather shavings, hair and skin of animals; ILSA, Arizignano, Italy) and two biostimulant products BioFeed Quality (BFQ, multi-compound seaweed extract, AgroBioProducts) and AUSMA (aqueous pine and spruce needle extract, A/S BIOLAT, Latvia), were tested. Both fertilisers supplied considerable amounts of nitrogen during the main uptake phases of the crops and reached yields as high or higher as compared to the control with horn meal fertilisation. The N-efficiency of the tested fertilisers in potatoes ranged from 90 to 159 kg yield*kg-1 N – input. Most effective with tomatoes were the combined treatments of fertiliser BFB and the biostimulants AUSMA and BFQ. Both biostimulants significantly increased the share of healthy fruit and/or the number of fruits. BFQ significantly increased potato yields (+6 %) in one out of two years and reduced R. solani-infestation in the potatoes. This suggests that the biostimulants had effects on plant metabolism and resistance properties. However, no effects of biostimulants on potato late blight could be observed in the fields. The third topic focused on the effect of suppressive composts and seed tuber health on the saprophytic pathogen Rhizoctonia solani in organic potato systems. In the present study 5t ha-1 DM of a yard and bio-waste (60/40) compost produced in a 5 month composting process and a 15 month old 100 % yard waste compost were used to assess the effects on potato infection with R. solani when applying composts within the limits allowed. Across the differences in initial seed tuber infestation and 12 cultivars 5t DM ha-1 of high quality composts, applied in the seed tuber area, reduced the infestation of harvested potatoes with black scurf, tuber malformations and dry core tubers by 20 to 84 %, 20 to 49 % and 38 to 54 %, respectively, while marketable yields were increased by 5 to 25 % due to lower rates of wastes after sorting (marketable yield is gross yield minus malformed tubers, tubers with dry core, tubers with black scurf > 15% infested skin). The rate of initial black scurf infection of the seed tubers also affected tuber number, health and quality significantly. Compared to healthy seed tubers initial black scurf sclerotia infestation of 2-5 and >10 % of tuber surface led in untreated plots to a decrease in marketable yields by 14-19 and 44-66 %, a increase of black scurf severity by 8-40 and 34-86 % and also increased the amount of malformed and dry core tubers by 32-57 and 109-214 %.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die gegenwärtigen Rekonstruktionsbemühungen sind keine Nachwirkungen der Wendezeit, die auf ostdeutschem Gebiet nachholen, was auf westdeutschem Terrain direkt nach dem Krieg erfolgte: der Nachkriegswiederaufbau. Es handelt sich beim Rekonstruktionsboom um ein generelles zeitgenössisches Phänomen wie anhand der Beispielsituationen Dresden – Frauenkirche, Frankfurt am Main – Römerberg und Berlin – Stadtschloss dargestellt wird. Dieses wird durch die Globalisierung aber auch andere Faktoren begünstigt. Die Planungen für die jeweiligen Rekonstruktionssituationen seit der Zerstörungen des Zweiten Weltkrieges werden verfolgt und innerhalb des Stadtwiederaufbaus der Nachkriegsjahre bis zur Gegenwart verortet. Dabei wird aufgezeigt, dass die jeweiligen Planungsvorhaben und besonders die Einstellungen zu Rekonstruktionen beziehungsweise zu den heute gewünschten Situationen in allen drei Beispielstädten abhängig sind von dem jeweiligen Zeitgeschmack und politischen, wirtschaftlichen oder finanziell geprägten Einflüssen; um den Willen der Stadtbürger geht es dabei immer nur am Rand – erfolgreich beim Durchsetzen der Vorstellungen sind deshalb selten sie, sondern vielmehr politische und wirtschaftliche Interessensverbände. Sucht man nach festgesetzten Richtlinien, die eine Rekonstruktion autorisieren, werden häufig Denkmalpflegeleitlinien zitiert, die jedoch nicht ausreichend detailliert formuliert sind und beispielsweise mit dem Fall der beschränkten Fehlstelle sowohl Befürwortern als auch Gegnern der Rekonstruktionen Argumente liefern. In den Diskussionen geht es nicht um Denkmäler im klassischen Sinne, das heißt es handelt sich nicht um Objekte, die vor ihrer Zerstörung das offizielle Siegel trugen und die deshalb wiederhergestellt werden sollen. Aus diesem Grund sind die gegenwärtigen Rekonstruktionsdebatten nicht klassischer Gegenstand der Denkmalpflegedisziplin. Dennoch werden erfolgreiche Fälle wie die Frauenkirche als Musterobjekte der Disziplin inszeniert, was suggeriert, dass sich das klassische Aufgabenfeld der Denkmalpflege verschiebt. Der bürgerliche Wunsch nach Rekonstruktionen spricht von einem neuen Denkmalverständnis: Als erhaltenswert werden nicht die offiziell mit Siegel erwählten Objekte verstanden, sondern Bauten, die für die eigene Identität eine wichtige Rolle spielen. Diese Form der Denkmalbewertung ist allerdings abhängig von Generationslinien, verschiedenen sozialen Schichten und anderen gesellschaftlichen Gruppierungen. Diese Tatsache führt zu einer unterschiedlichen Wertebeurteilung bestimmter Objekte und zu Diskussionen wie sie momentan für und wider Rekonstruktionen geführt werden. Der Rekonstruktionsboom barocker und renaissance-orientierter Strukturen wird durch ein sich wandelndes Geschichtsbild beeinflusst, welches das Interesse an diesen Epochen neu erweckt hat. Wurde bisher das Mittelalter und die Zeit zwischen Reformation und Französischer Revolution verdrängt, werden diese vergessenen Epochen wieder zunehmend zum Forschungsgegenstand und zum Bestandteil der kulturellen Debatte. Die gewünschten barocken und mittelalterlichen Rekonstruktionen kann man als mediale Rekonstruktionsarchitekturen bezeichnen. Die Macht der Medien ist auf fünf, die Rekonstruktion umgebenden Ebenen zu beobachten: Erschaffung; Vermarktung; Konsumentenüberzeugung; Bildneukompositionen; Erschaffung und Verbreitung von Bildern oder Realitäten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wheat as the major cereal crop in Egypt is the core of the government's food security policy. But there are rapid losses of the genetic resources of the country as a result of ongoing modernization and development. Thus we compiled the largest possible number of Egyptian accessions preserved in the world gene banks. In the present study we collected nearly 1000 Egyptian wheat accessions. A part from the Triticum species of the Egyptian flora four species have been found, which were recorded for the first time T. turanicum, T. compactum, T. polonicum and T. aethiopicum. To classify the Egyptian wheat species using morphological studies, 108 accessions were selected. Thereafter, these accessions were cultivated and evaluated morphologically to confirm the validity of the classified species. During the morphological evaluation study, a new case was noticed for the number of glumes in one of the Egyptian wheat accessions. Three glumes per spikelet were observed in a branched spike. This led us to assess the phenomenon in all varieties with branching spikes within the genus Triticum. All varieties which have branching spikes at least in some spikletes have three glumes. We considered the case of the third glume as indicator for the domestication syndrome. Also, a new case of other forms of branching in the genus Triticum was investigated, which was a compromise between true and false-branching. We called it true-false branching. Comparative anatomical studies were carried out between Egyptian Triticum species to investigate the possibility of using anatomical features to classify the Egyptian wheat species. It was concluded that it is difficult to use anatomical features alone to differentiate between two Triticum species, especially when they belong to the same ploidy level. A key for the identification of Egyptian Triticum taxa was established.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zur Erholung in die Natur gehen oder doch lieber zur Natursimulation greifen? Intuitiv würden die meisten Menschen der Natur einen größeren Erholungswert zusprechen als einer Natursimulation. Aber ist die Natur tatsächlich erholsamer? In der Naturerholungsforschung (Restorative Environment Research) kommen häufig Natursimulationen zum Einsatz, um die erholsame Wirkung von Natur zu ermitteln. Problematisch ist dabei, dass deren ökologische Validität und Vergleichbarkeit noch nicht empirisch abgesichert ist. Vorliegende Arbeit setzt an dieser methodischen und empirischen Lücke an. Sie überprüft sowohl die ökologische Validität als auch die Vergleichbarkeit von Natursimulationen. Dazu wird die erholsame Wirkung von zwei Natursimulationen im Vergleich zu der physisch-materiellen Natur empirisch untersucht und verglichen. Darüber hinaus werden Aspekte des subjektiven Erlebens und der Bewertung im Naturerholungskontext exploriert. Als bedeutsamer Wirkmechanismus wird die erlebnisbezogene Künstlichkeit/Natürlichkeit angesehen, die sich auf die Erlebnisqualität von Natursimulationen und der physisch-materiellen Natur bezieht: Natursimulationen weisen im Vergleich zur physisch-materiellen Natur eine reduzierte Erlebnisqualität auf (erlebnisbezogene Künstlichkeit), z.B. eine reduzierte Qualität und Quantität der Sinnesansprache. Stellt man einen derartigen Vergleich nicht nur mit der physisch-materiellen Natur, sondern mit unterschiedlichen Natursimulationstypen an, dann zeigen sich auch hier Unterschiede in der erlebnisbezogenen Künstlichkeit. Beispielsweise unterscheidet sich ein Naturfoto von einem Naturfilm durch das Fehlen von auditiven und bewegten Stimuli. Diese erlebnisbezogene Künstlichkeit kann die erholsame Wirkung von Natur - direkt oder indirekt über Bewertungen - hemmen. Als Haupthypothese wird angenommen, dass mit zunehmendem Ausmaß an erlebnisbezogener Künstlichkeit die erholsame Wirkung der Natur abnimmt. Dem kombinierten Feld- und Laborexperiment liegt ein einfaktorielles Vorher-Nachher-Design zugrunde. Den 117 Probanden wurde zunächst eine kognitiv und affektiv belastende Aufgabe vorgelegt, danach folgte die Erholungsphase. Diese bestand aus einem Spaziergang, der entweder in der physisch-materiellen Natur (urbaner Park) oder in einer der beiden audio-visuellen Natursimulationen (videogefilmter vs. computergenerierter Spaziergang durch selbigen urbanen Park) oder auf dem Laufband ohne audio-visuelle Darbietung stattfand. Die erlebnisbezogene Künstlichkeit/Natürlichkeit wurde also wie folgt operationlisiert: die physische Natur steht für die erlebnisbezogene Natürlichkeit. Die beiden Natursimulationen stehen für die erlebnisbezogene Künstlichkeit. Die computergenerierte Version ist im Vergleich zur Videoversion erlebnisbezogen künstlicher, da sie weniger fotorealistisch ist. Die Zuordnung zu einer der vier experimentellen Erholungssettings erfolgte nach dem Zufallsprinzip. Die Effekte von moderater Bewegung wurden in den Natursimulationen durch das Laufen auf dem Laufband kontrolliert. Die Beanspruchungs- bzw. Erholungsreaktionen wurden auf kognitiver (Konzentriertheit, Aufmerksamkeitsleistung) affektiver (3 Befindlichkeitsskalen: Wachheit, Ruhe, gute Stimmung) und physiologischer (Alpha-Amylase) Ebene gemessen, um ein umfassendes Bild der Reaktionen zu erhalten. Insgesamt zeigen die Ergebnisse, dass die beiden Natursimulationen trotz Unterschiede in der erlebnisbezogenen Künstlichkeit/Natürlichkeit zu relativ ähnlichen Erholungsreaktionen führen, wie die physisch-materielle Natur. Eine Ausnahme stellen eine der drei affektiven (Wachheit) und die physiologische Reaktion dar: Probanden der physisch-materiellen Naturbedingung geben an wacher zu sein und weisen - wider erwarten - eine höhere physiologische Erregung auf. Demnach ist die physisch-materielle Natur nicht grundsätzlich erholsamer als die Natursimulationen. Die Hypothese ließ sich somit nicht bestätigen. Vielmehr deuten sich komplexe Erholungsmuster und damit auch unterschiedliche Erholungsqualitäten der Settings an, die einer differenzierten Betrachtung bedürfen. Für die ökologische Validität von Natursimulationen gilt, dass diese nur mit Einschränkung als ökologisch valide bezeichnet werden können, d.h. nur für bestimmte, aber nicht für alle Erholungsreaktionen. Die beiden Natursimulationen führen ebenfalls trotz Unterschiede in der erlebnisbezogenen Künstlichkeit zu ähnlichen Erholungsreaktionen und können somit als gleichwertig behandelt werden. Erstaunlicherweise kommt es hier zu ähnlichen Erholungsreaktionen, obwohl die bestehenden Unterschiede von den Probanden wahrgenommen und die erlebnisbezogen künstlichere computergenerierte Version negativer bewertet wird. Aufgrund der nicht erwartungskonformen Ergebnisse muss das Erklärungskonzept der erlebnisbezogenen Künstlichkeit/Natürlichkeit infrage gestellt werden. Alternative Erklärungskonzepte für die Ergebnisse („Ungewissheit“, mentale räumliche Modelle), die sich andeutenden unterschiedlichen Erholungsqualitäten der Settings, methodische Einschränkungen sowie die praktische Bedeutung der Ergebnisse werden kritisch diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The 21st century has brought new challenges for forest management at a time when globalization in world trade is increasing and global climate change is becoming increasingly apparent. In addition to various goods and services like food, feed, timber or biofuels being provided to humans, forest ecosystems are a large store of terrestrial carbon and account for a major part of the carbon exchange between the atmosphere and the land surface. Depending on the stage of the ecosystems and/or management regimes, forests can be either sinks, or sources of carbon. At the global scale, rapid economic development and a growing world population have raised much concern over the use of natural resources, especially forest resources. The challenging question is how can the global demands for forest commodities be satisfied in an increasingly globalised economy, and where could they potentially be produced? For this purpose, wood demand estimates need to be integrated in a framework, which is able to adequately handle the competition for land between major land-use options such as residential land or agricultural land. This thesis is organised in accordance with the requirements to integrate the simulation of forest changes based on wood extraction in an existing framework for global land-use modelling called LandSHIFT. Accordingly, the following neuralgic points for research have been identified: (1) a review of existing global-scale economic forest sector models (2) simulation of global wood production under selected scenarios (3) simulation of global vegetation carbon yields and (4) the implementation of a land-use allocation procedure to simulate the impact of wood extraction on forest land-cover. Modelling the spatial dynamics of forests on the global scale requires two important inputs: (1) simulated long-term wood demand data to determine future roundwood harvests in each country and (2) the changes in the spatial distribution of woody biomass stocks to determine how much of the resource is available to satisfy the simulated wood demands. First, three global timber market models are reviewed and compared in order to select a suitable economic model to generate wood demand scenario data for the forest sector in LandSHIFT. The comparison indicates that the ‘Global Forest Products Model’ (GFPM) is most suitable for obtaining projections on future roundwood harvests for further study with the LandSHIFT forest sector. Accordingly, the GFPM is adapted and applied to simulate wood demands for the global forestry sector conditional on selected scenarios from the Millennium Ecosystem Assessment and the Global Environmental Outlook until 2050. Secondly, the Lund-Potsdam-Jena (LPJ) dynamic global vegetation model is utilized to simulate the change in potential vegetation carbon stocks for the forested locations in LandSHIFT. The LPJ data is used in collaboration with spatially explicit forest inventory data on aboveground biomass to allocate the demands for raw forest products and identify locations of deforestation. Using the previous results as an input, a methodology to simulate the spatial dynamics of forests based on wood extraction is developed within the LandSHIFT framework. The land-use allocation procedure specified in the module translates the country level demands for forest products into woody biomass requirements for forest areas, and allocates these on a five arc minute grid. In a first version, the model assumes only actual conditions through the entire study period and does not explicitly address forest age structure. Although the module is in a very preliminary stage of development, it already captures the effects of important drivers of land-use change like cropland and urban expansion. As a first plausibility test, the module performance is tested under three forest management scenarios. The module succeeds in responding to changing inputs in an expected and consistent manner. The entire methodology is applied in an exemplary scenario analysis for India. A couple of future research priorities need to be addressed, particularly the incorporation of plantation establishments; issue of age structure dynamics; as well as the implementation of a new technology change factor in the GFPM which can allow the specification of substituting raw wood products (especially fuelwood) by other non-wood products.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen der Arbeit wird den Fragen nachgegangen, inwiefern der Konsum von Öko-Lebensmitteln in Familien mit Kindern im zeitlichen Verlauf Veränderungen unterliegt und worin Veränderungen im Öko-Lebensmittelkonsum in Familien mit Kindern begründet sind. Aus den hierzu gewonnenen Erkenntnissen werden Schlussfolgerungen für die Konsumentenforschung und das Marketing von Öko-Produkten gezogen. Theoretische Grundlage stellen der Familienzyklus sowie Forschungsergebnisse zum Konsumentenverhalten in Familien und zum Konsum von Öko-Lebensmitteln in Familien dar. Für die empirische Bearbeitung der Forschungsfragen wurde ein qualitatives Forschungsdesign gewählt. Der Forschungsprozess gliederte sich in drei Wellen der Datenerhebung und -auswertung. Im Rahmen dessen wurden Eltern mithilfe problemzentrierter Interviews zur Entwicklung des Öko-Konsums in ihren Familien befragt. Die Interviews wurden computergestützt und in Anlehnung an die Kodierprozeduren offenes und axiales Kodieren der Grounded Theory ausgewertet. Ergebnis der Datenanalyse sind drei Zusammenhangsmodelle, die zu einer Erklärung von Veränderungen im Öko-Lebensmittelkonsum von Familien beitragen. Veränderungen können demnach erstens in einer Erhöhung der Konsumintensität während einer Schwangerschaft bestehen. Als Bedingungen hierfür konnten ein verstärktes Bewusstsein für Öko-Produkte, die körperliche Konstitution der Mutter sowie die Unterstützung durch die soziale Umwelt identifiziert werden. Weitere Bedingungen stellen Lebensmittelskandale sowie eine gute Verfügbarkeit von Öko-Produkten dar. Handlungsstrategien der Eltern beziehen sich auf das Wohlergehen des noch ungeborenen Kindes (Förderung der Gesundheit, Erhalten der zukünftigen Lebenswelt, Orientierung für die spätere Ernährung des Kindes) sowie auf das Wohlergehen der werdenden Mutter (Förderung der Gesundheit, Förderung des Wohlbefindens, Umgang mit schwangerschaftsbedingten Beschwerden). Zweitens können Veränderungen des Öko-Lebensmittelkonsums in einer Erhöhung der Konsumintensität ab dem Zeitpunkt der Umstellung der Ernährung eines Kindes auf eine Beikosternährung bestehen. Bedingungen hierfür sind eine verstärkte Beachtung von Öko-Produkten, die körperliche Konstitution des Kindes, die Abstimmung von Familien- und Baby-Kost, der Austausch mit und die Unterstützung durch die soziale Umwelt sowie der Wunsch von Eltern, einen Beitrag zum Öko-Landbau zu liefern. Bedingungen können außerdem eine gute Verfügbarkeit von Öko-Produkten sowie der Einfluss von Medien darstellen. Handlungsstrategien der Eltern beziehen sich auf die Ernährung des Kindes (Förderung der Gesundheit, Förderung der Geschmackssozialisation) und auf die Ernährung der restlichen Familie (effiziente Beschaffung und Verwendung von Lebensmitteln, Förderung des Wohlbefindens der Eltern). Drittens können Veränderungen im Öko-Lebensmittelkonsum in Familien in einem Rückgang der Konsumintensität während des Übergangs von Kindern ins Jugendalter bestehen. Bedingungen hierfür bestehen in der Konsequenz, mit der Eltern konventionellen Lebensmittelwünschen ihrer Kinder nachgeben, in der Beurteilung von Lebensmitteln durch die Eltern sowie in der Intensität, mit der Kinder ihre Wünsche einfordern. Handlungsstrategien der Eltern sind darauf ausgerichtet Kindern einen Wunsch zu erfüllen, sich gegenüber diesen liberal zu verhalten, Konflikte mit Kindern zu vermeiden oder diese ihre eigenen Erfahrungen sammeln zu lassen. Die Ergebnisse tragen zu einer theoretischen Fundierung des Zusammenhangs zwischen Familienzyklus und dem Öko-Lebensmittelkonsum in Familien bei und zeigen, dass dieser ein sinnvolles theoretisches Bezugssystem für Veränderungen der Konsumintensität von Öko-Produkten darstellt. Für die Konsumentenforschung tragen die Ergebnisse zu einem differenzierten Verständnis von Ober- und Untergrenzen von Familienzyklusstadien bei. Es zeigt sich weiterhin, dass Veränderungen des Öko-Konsums unter anderem unter dem Einfluss der sozialen Umwelt stehen. Im Hinblick auf das Marketing kann insbesondere geschlussfolgert werden, dass bei bestimmten Produktkategorien die Bedürfnisse jugendlicher Zielgruppen verstärkt berücksichtigt werden sollten. Zur Bindung junger Familien ist darauf hinzuwirken, einen Mehraufwand bei der Beschaffung von Öko-Produkten auszuschließen. Für die Ansprache der Zielgruppe Schwangere erscheinen Kommunikationsbotschaften geeignet, die sich auf das Wohlbefinden von Kind und Mutter und auf Nachhaltigkeitsaspekte beziehen. Eltern mit Kindern im Übergang zu einer Beikosternährung könnten gezielt durch Kommunikationsbotschaften angesprochen werden, die in Zusammenhang mit der Förderung der Gesundheit und der Geschmacksozialisation von Kindern stehen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden mithilfe der Likelihood-Tiefen, eingeführt von Mizera und Müller (2004), (ausreißer-)robuste Schätzfunktionen und Tests für den unbekannten Parameter einer stetigen Dichtefunktion entwickelt. Die entwickelten Verfahren werden dann auf drei verschiedene Verteilungen angewandt. Für eindimensionale Parameter wird die Likelihood-Tiefe eines Parameters im Datensatz als das Minimum aus dem Anteil der Daten, für die die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, und dem Anteil der Daten, für die diese Ableitung nicht positiv ist, berechnet. Damit hat der Parameter die größte Tiefe, für den beide Anzahlen gleich groß sind. Dieser wird zunächst als Schätzer gewählt, da die Likelihood-Tiefe ein Maß dafür sein soll, wie gut ein Parameter zum Datensatz passt. Asymptotisch hat der Parameter die größte Tiefe, für den die Wahrscheinlichkeit, dass für eine Beobachtung die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, gleich einhalb ist. Wenn dies für den zu Grunde liegenden Parameter nicht der Fall ist, ist der Schätzer basierend auf der Likelihood-Tiefe verfälscht. In dieser Arbeit wird gezeigt, wie diese Verfälschung korrigiert werden kann sodass die korrigierten Schätzer konsistente Schätzungen bilden. Zur Entwicklung von Tests für den Parameter, wird die von Müller (2005) entwickelte Simplex Likelihood-Tiefe, die eine U-Statistik ist, benutzt. Es zeigt sich, dass für dieselben Verteilungen, für die die Likelihood-Tiefe verfälschte Schätzer liefert, die Simplex Likelihood-Tiefe eine unverfälschte U-Statistik ist. Damit ist insbesondere die asymptotische Verteilung bekannt und es lassen sich Tests für verschiedene Hypothesen formulieren. Die Verschiebung in der Tiefe führt aber für einige Hypothesen zu einer schlechten Güte des zugehörigen Tests. Es werden daher korrigierte Tests eingeführt und Voraussetzungen angegeben, unter denen diese dann konsistent sind. Die Arbeit besteht aus zwei Teilen. Im ersten Teil der Arbeit wird die allgemeine Theorie über die Schätzfunktionen und Tests dargestellt und zudem deren jeweiligen Konsistenz gezeigt. Im zweiten Teil wird die Theorie auf drei verschiedene Verteilungen angewandt: Die Weibull-Verteilung, die Gauß- und die Gumbel-Copula. Damit wird gezeigt, wie die Verfahren des ersten Teils genutzt werden können, um (robuste) konsistente Schätzfunktionen und Tests für den unbekannten Parameter der Verteilung herzuleiten. Insgesamt zeigt sich, dass für die drei Verteilungen mithilfe der Likelihood-Tiefen robuste Schätzfunktionen und Tests gefunden werden können. In unverfälschten Daten sind vorhandene Standardmethoden zum Teil überlegen, jedoch zeigt sich der Vorteil der neuen Methoden in kontaminierten Daten und Daten mit Ausreißern.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit beschäftigt sich mit didaktischen Aspekten einer neuen Aufgabenkultur und mit ihrem Kern, den Modellierungsaufgaben. Im ersten Teil der Dissertation wird ein Überblick über ausgewählte Theorien und empirische Ergebnisse aus den Bereichen Lehr-Lernforschung, Problemlöseforschung, kognitive Psychologie sowie Allgemeindidaktik und den Fachdidaktiken gegeben. Es zeigt sich, dass Schüler-Schwierigkeiten und Schüler-Strategien eine bedeutende Rolle für den Lernprozess spielen, jedoch bei den Modellierungsaufgaben nicht ausreichend erforscht sind. Ziel der vorliegenden Arbeit ist es, Schüler-Schwierigkeiten und -Strategien bei der Bearbeitung von Modellierungsaufgaben empirisch zu erfassen, mit kognitiven Lern- und Problemlösetheorien zu verbinden und erste Bausteine einer Didaktik der Aufgabenkultur zu entwerfen. Drei zentrale Fragestellungen sind dabei: 1. Welche Schwierigkeiten haben Schüler beim Bearbeiten von Modellierungsaufgaben? 2. Welche Strategien wenden sie bei der Aufgabenbearbeitung an? 3. Welche didaktischen Konsequenzen können aufgrund der Antworten auf die erste und zweite Frage für die Didaktik der neuen Aufgabenkultur gezogen werden? Die Analyse der Bearbeitung von drei Modellierungsaufgaben durch vier Neuntklässler unterschiedlicher Kompetenzstufen (12 Fälle) mit Hilfe der Grounded Theory erfolgte hypothesenorientiert und erbrachte folgende Ergebnisse: Die Schüler-Schwierigkeiten bei der Bearbeitung der Modellierungsaufgaben lassen sich in drei Tätigkeitsbereiche aufschlüsseln: (1) die Aufgabe lesen und verstehen, (2) den Zusammenhang zwischen Gegebenheiten der Situation und mathematischer Lösungsstruktur verstehen sowie (3) Umformung mathematischer Strukturen, Ausführung der Rechenoperationen und Interpretieren der Ergebnisse. In den genannten Tätigkeitsbereichen wurden jeweils erfolgversprechende Strategien wie z.B. die Organisationsstrategie „Zeichnen und Beschriften einer Skizze“, die kooperative Strategie „Wechsel zwischen individueller Konstruktion und kooperativer Ko-Konstruktion“ oder die metakognitive Strategie „Planung“ identifiziert und ihre Ausführung dokumentiert. Aus den empirischen Analysen lässt sich eine Reihe von wichtigen Stichpunkten nennen, die einen bedeutsamen Bestandteil der Didaktik einer neuen Aufgabenkultur bilden. Wichtige Stichworte dazu sind die Einbettung der Aufgaben in Lernumgebungen, der Einbezug kooperativer Strategien, ein neues Verständnis von Lehrerinterventionen, das Diagnose und lernbegleitende Unterstützung stärker akzentuiert, Selbstregulierung und Individualisierung, Problem- und Lernprozessorientierung im Unterricht. Wird der letzte Punkt genau analysiert, zeigt sich, dass es zur erfolgreichen Lernprozessgestaltung notwendig ist, längerfristig die Zielperspektive, unter der die Schüler Aufgaben bearbeiten, zu verändern. Beim Bearbeiten der Aufgaben sollen Schülerhandlungen, statt sich nur auf die Lösung einer Aufgabe zu beschränken, auf den individuellen Erwerb von Wissen, Kompetenzen und Strategien ausgerichtet werden (Prozess-Ergebnis-Orientierung). Erreicht werden soll die Prozess-Ergebnis-Orientierung durch eine bessere strategische Durcharbeitung des Unterrichts, der gleichermaßen das Ausschöpfen des Potentials für die Selbststeuerung des Lernens bei den Schülern sowie die dafür notwendige Weiterentwicklung des diagnostischen und unterstützenden Handelns von Lehrerinnen und Lehrern betont.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit ist Teil eines Verbund-Forschungsprojektes mit dem Ziel, eine Präzisions-Bodenbearbeitung in Abhängigkeit von verschiedenen Bodenparametern sowie dem Bodenbedeckungsgrad zu realisieren. Ziel dieses Teilprojektes war die Bereitstellung einer Online-Messung des Bedeckungsgrades, um die Bearbeitungsintensität während der Feldüberfahrt regeln zu können: Ein Kamerasensor vorne am Schlepper ermittelt die Bodenbedeckung und ein Tiefen-Sollwert wird an das Regelsystem eines Gerätes zur teilfächenspezifischen Bodenbearbeitung ausgegeben. Da unter Feldbedingungen Methoden zur Bedeckungsgradmessung nur relativ zueinander verglichen werden können, wurde zunächst ein Laborvergleich mit wohldefinierten Bodenbedeckungen durchgeführt, um die prinzipiellen Stärken und Schwächen von Bildanalyse sowie zwei visuellen Methoden (Gitterraster-Methode und „Meterstick-Methode“) zu ermitteln: • Eine visuelle Methode, die auf einer begrenzten Anzahl von einfachen Stichprobenbeobachtungen beruht (Gitter), überschätzte den Bedeckungsgrad systematisch, wobei dieser Effekt unter Feldbedingungen vermutlich klein gegenüber der bekannten Schwankungsbreite zwischen Messungen verschiedener Beobachter ist. • Eine visuelle Methode, die auch Größe und Orientierung des Strohs berücksichtigt (Meterstick), lieferte präzise mittlere Messwerte. Diese Methode war die mit Abstand arbeitsaufwändigste. • Nach einer einfachen Korrektur des Abbildungsfehlers des Kameraobjektivs war auch die Bildverarbeitungs-Methode in der Lage, die bekannten tatsächlichen Bedeckungsgrade exakt darzustellen, bei gleichzeitig der geringsten Schwankungsbreite der Messwerte. Die Online-Messung der Bodenbedeckung durch Ernterückstände ist bisher jedoch ungelöst. Obwohl in früheren Untersuchungen Texturmerkmale oder Farbunterschiede erfolgreich genutzt wurden, um den Bedeckungsgrad zu bestimmen, wird eine Bedienperson zur interaktiven Festlegung bestimmter Parameter benötigt. Um den Prototypen eines onlinefähigen Kamerasensors zu entwickeln, wurden geeignete Ausrüstung und Bedingungen zur Bildaufnahme untersucht und verschiedene Auswertealgorithmen mit Hilfe einer wissenschaftlichen Bildanalysesoftware geschrieben und getestet: • Da im Nahinfraroten zwischen ca. 800 und 1400 nm der größte Intensitäts-Kontrast zwischen Stroh und Boden besteht wurde zur Bildaufnahme eine Schwarz-Weiss-CCD-Kamera mit aufgesetztem Infrarotfilter gewählt. Eine Diffusor-Box sorgte für homogene Beleuchtungsbedingungen. • Zwei auf Kantendetektion und automatischer Schwellwertsetzung basierende Versionen („A“ und „B“) eines „klassischen“ Segmentierungsalgorithmus wurden geschrieben. Durch einen iterativen Ansatz konnten geeignete Thresholding-Verfahren abhängig von der Größenordnung der Bodenbedeckung verwendet werden. Die zur Online-Regelung der Bearbeitungstiefe nötige Beschränkung der Prozesslaufzeit auf ca. 1000 ms/Bild konnte eingehalten werden. • Eine alternative automatisierbare Kontrollmethode wurde entwickelt, welche Merkmale der Grauwerthistogramme der Stroh/Boden-Bilder auswertet (Algorithmus „C“). Dieser Ansatz ist nochmals deutlich schneller als eine Bildsegmentierung (ca. 5 – 10 Bilder/s). • Der Sensor wurde an einem Quad montiert und die Bodenbedeckung auf drei Testfeldern untersucht. Zwischen den Messergebnissen eines Algorithmus vom Typ A/B und dem Ansatz C wurde eine Pearson-Korrelation von 0,967 für die Messwertegesamtheit gefunden. • Auf Versuchsparzellen mit definiert aufgebrachten Strohmengen (ein weiteres Teil-projekt) wurden an GPS-referenzierten Punkten Bilder mit dem Sensor aufgenommen und Referenzmessungen mit der visuellen Gitterraster-Methode durchgeführt. Zwischen der Bildverarbeitung (A, B) und dem Gitter ergaben sich befriedigende Pearson-Korrelationen im Bereich von 0,7 – 0,8. Allerdings waren für hohe Bedeckungen die Ergebnisse des Sensors meist signifikant niedrigere als der Mittelwert von drei das Gitter auszählenden Personen. Eine Kontrolle mit Ansatz C ergab, dass die Histogramm-Merkmale der einzelnen Bilder deutlich besser mit den per Bildverarbeitung ermittelten Bedeckungsgraden korrelierten als mit den Gittermessungen. – Insgesamt erwies sich die schnelle Bildverarbeitung als geeignet für den Einsatz als neue Referenzmethode zur Messung der Bodenbedeckung durch Ernterückstände. • Da der Aufbau des Sensors ohne die Diffusor-Box praxisgerechter ist, besteht weiterer Forschungsbedarf in Bezug auf die dann auftretenden Probleme durch stark wechselnde Beleuchtung und Schattenwurf. • In einem letzten Schritt wurde der Kamerasensor erfolgreich in ein bereits entwickeltes System zur teilflächenspezifischen Bodenbearbeitung an der Universität Kiel integriert. Eine Regelung der Arbeitstiefe durch den Kamerasensor war problemlos möglich, allerdings gilt es noch belastbare Kriterien für die Vorgabe von Tiefen-Sollwerten in Abhängigkeit vom Bedeckungsgrad zu entwickeln.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zum 1. November 2010 wird in Deutschland der neue Personalausweis starten, der gegenüber dem bisherigen Dokument drei neue Funktionen enthält: Die Speicherung biometrischer Daten, die optionale Signaturfunktion und den elektronischen Identitätsnachweis, also eine technische Funktion zur elektronischen Authentisierung. Die Rechtsgrundlagen wurden mit der Verabschiedung des neuen Gesetzes über Personalausweise und den elektronischen Identitätsnachweis sowie zur Änderung weiterer Vorschriften am 18. Dezember 2008 im Bundestag gelegt. Wie bei anderen Gesetzgebungsverfahren sind diesem formalen Verfahren wissenschaftliche und politische, in diesem Fall auch technische, Diskussionen vorangegangen, die darüber hinaus während des Gesetzgebungsverfahrens fortgesetzt wurden. Die Studie beschreibt in einem ersten Schritt die Eckdaten und wesentlichen Inhalte der Diskussion und des Gesetzgebungsverfahrens. Im Anschluss erfolgt eine Darlegung einzelner Einflussfaktoren und „Pfade“ der rechtlichen, technischen und politischen Entwicklung, die Einfluss auf bestimmte Innovationsentscheidungen hatten. Daran schließt sich eine Betrachtung der einzelnen Akteure an, bevor der Gesamtprozess bewertet wird.