7 resultados para Which-way experiments
em Universitätsbibliothek Kassel, Universität Kassel, Germany
Resumo:
Zusammenfassung: Ziel der Arbeit war ein Methodenvergleich zur Beurteilung der Milchqualität unterschiedlicher Herkünfte. Am Beispiel von Milchproben aus unterschiedlicher Fütterung sowie an Milchproben von enthornten bzw. horntragenden Kühen wurde geprüft, welche der angewendeten Methoden geeignet ist, die Vergleichsproben zu unterscheiden (Differenzierungsfähigkeit der Methoden) und inwieweit eine Qualitätsbeurteilung möglich ist (hinsichtlich Milchleistung, Fett-, Eiweiß-, Lactose- (=F,E,L), Harnstoff-gehalt und Zellzahl (=SCC), Säuerungseigenschaften (=SE), Fettsäuremuster (=FS-Muster), Protein- und Metabolit-Zusammensetzung (=Pr&M), Fluoreszenz-Anregungs-Spektroskopie-Eigenschaften (=FAS) und Steigbild-Merkmalen). Zusätzlich wurde vorab die Steigbildmethode (=SB-M) für das Produkt Rohmilch standardisiert und charakterisiert, um die Reproduzierbarkei der Ergebnisse sicherzustellen. Die Untersuchungen zur SB-M zeigten, dass es Faktoren gibt, die einen deutlichen Einfluß auf die Bildmerkmals-Ausprägung aufweisen. Dazu gehören laborseitig die Klimabedingungen in der Kammer, die Verdünnungsstufe der Probe, die Standzeiten der Vorverdünnung (Reaktionen mit der Luft, Alterung usw.), und tagesspezifisch auftretende Effekte, deren Ursache unbekannt ist. Probenseitig sind sehr starke tierindividuelle Effekte auf die Bildmerkmals-Ausprägung festzustellen, die unabhängig von Fütterung, Alter, Laktationsstadium und Genetik auftreten, aber auch Fütterungsbedingungen der Kühe lassen sich in der Bildmerkmals-Ausprägung wiederfinden. Die Art der Bildauswertung und die dabei berücksichtigten Bildmerkmale ist von großer Bedeutung für das Ergebnis. Die im Rahmen dieser Arbeit untersuchten 46 Probenpaare (aus den Fütterungsvergleichen (=FV) und zur Thematik der Hörner) konnten in 91% der Fälle korrekt gruppiert werden. Die Unterschiede konnten benannt werden. Drei FV wurden auf drei biologisch-dynamischen Höfen unter Praxis-Bedingungen durchgeführt (on-farm-Experimente). Es wurden jeweils zwei vergleichbare Gruppen à mindestens 11 Kühen gebildet, die im Cross-Over-Design gefüttert wurden, mit Probennahme am 14. und 21. Tag je Periode. Es wurden folgende FV untersucht: A: Wiesenheu vs. Kleegrasheu (=KG-Heu), B: Futterrüben (=FuR) vs. Weizen (Ergänzung zu Luzernegrasheu ad lib.), C: Grassilage vs. Grasheu. Bei Versuch A sind die Futtereffekte am deutlichsten, Gruppeneffekte sind gering. Die Milch der Wiesenheu-Variante hat weniger CLA’s und n3- FS und mehr mittellangkettige FS (MCT-FS), das Pr&M-Muster weist auf „Gewebereifung und Ausdifferenzierung“ vs. bei KG-Heu „Nährstoff-fülle, Wachstum und Substanz-Einlagerung und die SB zeigen fein ausdifferenzierte Bildmerkmale. Bei Versuch B sind die Futtereffekte ähnlich groß wie die Gruppeneffekte. Bei vergleichbarer Milchleistung weist die Milch der FuR-Variante höhere F- und E-Gehalte auf, sie säuert schneller und mehr, das FS-Muster weist auf eine „intensive“ Fütterung mit vermehrt MCT- FS, und die Pr&M-Untersuchungen charakterisieren sie mit „Eisentransport und Fetttröpfchenbildung“ vs. bei Weizen „mehr Abwehr-, Regulations- und Transportfunktion“ /. „mehr Lipidsynthese“. Die SB charakterisieren mit „große, kräftige Formen, verwaschen“ vs. „kleine, ausdifferenzierte Bildmerkmal“ für FuR vs. Weizen. Die FAS charakterisiert sie mit „Saftfutter-typisch“ vs. „Samentypisch“. Versuch C weist die geringsten Futtereffekt auf, und deutliche Gruppen- und Zeiteffekte. Milchleistung und F,E,L-Gehalte zeigen keinen Futtereffekt. Die Milch der Heu-Variante säuert schneller, und sie weist mehr SCT und MCT- FS auf. Pr&M-Untersuchungen wurden nicht durchgeführt. Die SB charakterisieren bei Heumilch mit „fein, zart, durchgestaltet, hell“, bei Silagemilch mit „kräftig, wäßrig-verwaschen, dunkler“. Die FAS kann keine konsistenten Unterschiede ermitteln. Der Horn-Einfluß auf die Milchprobe wurde an 34 Probenpaaren untersucht. Von 11 Höfen wurden je zwei möglichst vergleichbare Gruppen zusammengestellt, die sich nur im Faktor „Horn“ unterscheiden, und im wöchentlichen Abstand drei mal beprobt. F,E,L, SCC und SE der Proben sowie die FAS-Messungen weisen keine konsistenten signifikanten Unterschiede zwischen den Horn-Varianten auf. Pr&M weisen bei den untersuchten Proben (von zwei Höfen) auf Horneffekte hin: bei Eh eine Erhöhung von Immun-Abwehr-Funktionen, sowie einer Abnahme phosphorylierter C3- und C6-Metabolite und Beta-Lactoglobulin. Mit den SB ließen sich für die gewählten Merkmale (S-Größe und g.B.-Intensität) keine Horneffekte feststellen. FS, Pr&M-Muster sowie Harnstoffgehalt und SB (und z.T. Milchleistung) zeigten je FV ähnliche Effekt-Intensitäten für Futter-, Gruppen- und Zeiteffekte, und konnten die Cross-Over-Effekte gut wiedergeben. F- und E-Gehalte konnten neben tierindividuellen Effekten nur in FV B auch Futtereffekte aufzeigen. In FV C zeigten die SE der Proben den deutlichsten Futtereffekt, die anderen Methoden zeigten hier vorrangig Gruppen-Effekte, gefolgt von Futter- und Zeiteffekten. Die FAS zeigte den SB vergleichbare Ergebnisse, jedoch weniger sensibel reagierend. Die Interpretation von Qualitätsaspekten war bei konsistent differenzierbaren Proben (FV A, B, C) am fundiertesten mit Hilfe der FS möglich, da über die Synthese von FS und beeinflussende Faktoren schon vielfältige Erkenntnisse vorliegen. Das Pr&M-Muster war nach einer weiteren Methodenentwicklung bei der Deutung von Stoffwechselprozessen sehr hilfreich. Die FAS konnte z.T. eine zu der Fütterungsvariante passende Charakterisierung liefern. Für die SB-M fehlt es noch an Referenzmaterial, um Angaben zu Qualitätsaspekten zu machen, wenngleich Probenunterschiede aufgezeigt und Proben-Eigenschaften charakterisiert werden konnten.
Resumo:
Die laserinduzierte Plasmaspektroskopie (LIPS) ist eine spektrochemische Elementanalyse zur Bestimmung der atomaren Zusammensetzung einer beliebigen Probe. Für die Analyse ist keine spezielle Probenpräparation nötig und kann unter atmosphärischen Bedingungen an Proben in jedem Aggregatzustand durchgeführt werden. Femtosekunden Laserpulse bieten die Vorteile einer präzisen Ablation mit geringem thermischen Schaden sowie einer hohen Reproduzierbarkeit. Damit ist fs-LIPS ein vielversprechendes Werkzeug für die Mikroanalyse technischer Proben, insbesondere zur Untersuchung ihres Ermüdungsverhaltens. Dabei ist interessant, wie sich die initiierten Mikrorisse innerhalb der materialspezifschen Struktur ausbreiten. In der vorliegenden Arbeit sollte daher ein schnelles und einfach zu handhabendes 3D-Rasterabbildungsverfahren zur Untersuchung der Rissausbreitung in TiAl, einer neuen Legierungsklasse, entwickelt werden. Dazu wurde fs-LIPS (30 fs, 785 nm) mit einem modifizierten Mikroskopaufbau (Objektiv: 50x/NA 0.5) kombiniert, welcher eine präzise, automatisierte Probenpositionierung ermöglicht. Spektrochemische Sensitivität und räumliches Auflösungsvermögen wurden in energieabhängigen Einzel- und Multipulsexperimenten untersucht. 10 Laserpulse pro Position mit einer Pulsenergie von je 100 nJ führten in TiAl zum bestmöglichen Kompromiss aus hohem S/N-Verhältnis von 10:1 und kleinen Lochstrukturen mit inneren Durchmessern von 1.4 µm. Die für das Verfahren entscheidende laterale Auflösung, dem minimalen Lochabstand bei konstantem LIPS-Signal, beträgt mit den obigen Parametern 2 µm und ist die bislang höchste bekannte Auflösung einer auf fs-LIPS basierenden Mikro-/Mapping-Analyse im Fernfeld. Fs-LIPS Scans von Teststrukturen sowie Mikrorissen in TiAl demonstrieren eine spektrochemische Sensitivität von 3 %. Scans in Tiefenrichtung erzielen mit denselben Parametern eine axiale Auflösung von 1 µm. Um die spektrochemische Sensitivität von fs-LIPS zu erhöhen und ein besseres Verständnis für die physikalischen Prozesse während der Laserablation zu erhalten, wurde in Pump-Probe-Experimenten untersucht, in wieweit fs-Doppelpulse den laserinduzierten Abtrag sowie die Plasmaemission beeinflussen. Dazu wurden in einem Mach-Zehnder-Interferometer Pulsabstände von 100 fs bis 2 ns realisiert, Gesamtenergie und Intensitätsverhältnis beider Pulse variiert sowie der Einfluss der Materialparameter untersucht. Sowohl das LIPS-Signal als auch die Lochstrukturen zeigen eine Abhängigkeit von der Verzögerungszeit. Diese wurden in vier verschiedene Regimes eingeteilt und den physikalischen Prozessen während der Laserablation zugeordnet: Die Thermalisierung des Elektronensystems für Pulsabstände unter 1 ps, Schmelzprozesse zwischen 1 und 10 ps, der Beginn des Abtrags nach mehreren 10 ps und die Expansion der Plasmawolke nach über 100 ps. Dabei wird das LIPS-Signal effizient verstärkt und bei 800 ps maximal. Die Lochdurchmesser ändern sich als Funktion des Pulsabstands wenig im Vergleich zur Tiefe. Die gesamte Abtragsrate variiert um maximal 50 %, während sich das LIPS-Signal vervielfacht: Für Ti und TiAl typischerweise um das Dreifache, für Al um das 10-fache. Die gemessenen Transienten zeigen eine hohe Reproduzierbarkeit, jedoch kaum eine Energie- bzw. materialspezifische Abhängigkeit. Mit diesen Ergebnissen wurde eine gezielte Optimierung der DP-LIPS-Parameter an Al durchgeführt: Bei einem Pulsabstand von 800 ps und einer Gesamtenergie von 65 nJ (vierfach über der Ablationsschwelle) wurde eine 40-fache Signalerhöhung bei geringerem Rauschen erzielt. Die Lochdurchmesser vergrößerten sich dabei um 44 % auf (650±150) nm, die Lochtiefe um das Doppelte auf (100±15) nm. Damit war es möglich, die spektrochemische Sensitivität von fs-LIPS zu erhöhen und gleichzeitig die hohe räumliche Auflösung aufrecht zu erhalten.
Resumo:
Diese Arbeit beschreibt den Evaluationsprozess einer dreidimensionalen Visualisierungstechnik, die am Institut für periphere Mikroelektronik der Universität Kassel entwickelt wurde. Hinter der dreidimensionalen Darstellung mittels Linsenrasterscheibe verbirgt sich eine neue Dimension der Interaktion mit dem Computer. Im Vergleich zu gewöhnlichen dreidimensionalen Darstellungen, bei denen ein 3D-Objekt auf einer 2D-Fläche abgebildet wird und somit nach wie vor nicht aus der Bildschirmebene heraus kann, können bei der stereoskopen Darstellung die Objekte dreidimensional visualisiert werden. Die Objekte tauchen vor, beziehungsweise hinter der Darstellungsebene auf. Da die Linsenrasterscheibe bisher noch nicht wahrnehmungspsychologisch untersucht wurde und auch allgemein auf dem Gebiet der Evaluation von 3D-Systemen nur wenige Untersuchungen mit quantitativen Ergebnissen verfügbar sind (Vollbracht, 1997), besteht hier ein zentrales Forschungsinteresse. Um eine Evaluation dieses 3D-Systems durchzuführen, wird im Theorieteil der Arbeit zunächst der Begriff der Evaluation definiert. Des Weiteren werden die wahrnehmungspsychologischen Grundlagen der monokularen und binokularen Raumwahrnehmung erörtert. Anschließend werden Techniken zur Erzeugung von Tiefe in Bildern und auf Bildschirmen erläutert und die Unterschiede zwischen der technisch erzeugten und der natürlichen Tiefenwahrnehmung näher beleuchtet. Nach der Vorstellung verschiedener stereoskoper Systeme wird näher auf die autostereoskope Linsenrasterscheibe eingegangen. Zum Abschluss des theoretischen Teils dieser Arbeit wird die Theorie des eingesetzten Befindlichkeitsfragebogens veranschaulicht. Gegenstand des empirischen Teils dieser Arbeit sind zwei zentrale Fragestellungen. Erstens soll untersucht werden, ob durch den höheren Informationsgehalt grundlegende Wahrnehmungsleistungen in bestimmten Bereichen positiv beeinflusst werden können. Zweitens soll untersucht werden, ob sich die höhere visuelle Natürlichkeit und die Neuartigkeit der Bildpräsentation auch auf die subjektive Befindlichkeit der Probanden auswirkt. Die empirische Überprüfung dieser Hypothesen erfolgt mittels dreier Experimente. Bei den ersten beiden Experimenten stehen grundlegende wahrnehmungspsychologische Leistungen im Vordergrund, während in der dritten Untersuchung der Bereich der subjektiven Befindlichkeit gemessen wird. Abschließend werden die Ergebnisse der Untersuchungen vorgestellt und diskutiert. Des Weiteren werden konkrete Einsatzmöglichkeiten für die Linsenrasterscheibe aufgezeigt und denkbare nachfolgende experimentelle Vorgehensweisen skizziert.
Resumo:
The progress in microsystem technology or nano technology places extended requirements to the fabrication processes. The trend is moving towards structuring within the nanometer scale on the one hand, and towards fabrication of structures with high aspect ratio (ratio of vertical vs. lateral dimensions) and large depths in the 100 µm scale on the other hand. Current procedures for the microstructuring of silicon are wet chemical etching and dry or plasma etching. A modern plasma etching technique for the structuring of silicon is the so-called "gas chopping" etching technique (also called "time-multiplexed etching"). In this etching technique, passivation cycles, which prevent lateral underetching of sidewalls, and etching cycles, which etch preferably in the vertical direction because of the sidewall passivation, are constantly alternated during the complete etching process. To do this, a CHF3/CH4 plasma, which generates CF monomeres is employed during the passivation cycle, and a SF6/Ar, which generates fluorine radicals and ions plasma is employed during the etching cycle. Depending on the requirements on the etched profile, the durations of the individual passivation and etching cycles are in the range of a few seconds up to several minutes. The profiles achieved with this etching process crucially depend on the flow of reactants, i.e. CF monomeres during the passivation cycle, and ions and fluorine radicals during the etching cycle, to the bottom of the profile, especially for profiles with high aspect ratio. With regard to the predictability of the etching processes, knowledge of the fundamental effects taking place during a gas chopping etching process, and their impact onto the resulting profile is required. For this purpose in the context of this work, a model for the description of the profile evolution of such etching processes is proposed, which considers the reactions (etching or deposition) at the sample surface on a phenomenological basis. Furthermore, the reactant transport inside the etching trench is modelled, based on angular distribution functions and on absorption probabilities at the sidewalls and bottom of the trench. A comparison of the simulated profiles with corresponding experimental profiles reveals that the proposed model reproduces the experimental profiles, if the angular distribution functions and absorption probabilities employed in the model is in agreement with data found in the literature. Therefor the model developed in the context of this work is an adequate description of the effects taking place during a gas chopping plasma etching process.
Resumo:
Im Vordergrund der Arbeit stand die Erfassung der mikrobiellen Biomasse bzw. Residualmasse an der Wurzeloberfläche, im Rhizosphärenboden und im umgebenden Boden. Durch den Vergleich von verschiedenen Methoden zur Erfassung der mikrobiellen Biomasse wurden die Gehalte von pilzlichem und bakteriellem Kohlenstoff an der Rhizoplane und in der Rhizosphäre quantifiziert. Dabei wurde die Fumigations-Extraktions-Methode zur Erfassung der mikrobiellen Biomasse eingesetzt. Ergosterol diente als Indikator für die pilzliche Biomasse und die Aminozucker Glucosamin und Muraminsäure sollten Aufschluss geben über die bakterielle und pilzliche Biomasse bzw. Residualmasse in den drei Probenfraktionen. Dazu wurden Umrechnungsfaktoren erstellt, die zur Berechnung des bakteriellen und pilzlichen Kohlenstoffs aus den Gehalten von Muraminsäure und Pilz-Glucosamin dienten. Die Bestimmung von Aminozuckern wurde insoweit modifiziert, dass sowohl in Boden- als auch in Wurzelhydrolysaten die Messung von Glucosamin, Galactosamin, Muraminsäure und Mannosamin gleichzeitig als automatisiertes Standardverfahren mit Hilfe der HPLC erfolgen konnte. Es wurden drei Gefäßversuche durchgeführt: Im ersten Versuch wurde der Einfluss der Pflanzenart auf die mikrobielle Besiedlung der Wurzeloberflächen untersucht. Dabei wurden Wurzeln und Rhizosphärenboden von 15 verschiedenen Pflanzenarten miteinander verglichen. Im zweiten Versuch stand der Einfluss der mikrobiellen Biomasse eines Bodens auf die mikrobielle Besiedlung von Wurzeloberflächen im Vordergrund. Deutsches Weidelgras (Lolium perenne L.) wurde auf sieben verschiedenen Böden angezogen. Bei den Böden handelte es sich um sechs Oberböden, die sich hinsichtlich des Bodentyps und der Bewirtschaftungsform voneinander unterschieden, und einen Unterboden. Im dritten Versuch wurde die mikrobielle Besiedlung von Wurzeln nach teilweiser und vollständiger Entfernung der oberirdischen Biomasse beobachtet. Welsches Weidelgras (Lolium multiflorum Lam.) wurde 24 Tage nach der Aussaat beschnitten. Anschließend wurde über einen Versuchszeitraum von acht Tagen die mikrobielle Besiedlung an den Wurzeln und in den Bodenfraktionen bestimmt. Es bestätigte sich, dass der Einfluss der einzelnen Pflanzenart von entscheidender Bedeutung für die mikrobielle Besiedlung von Wurzeln ist. Bei fast allen Pflanzen wurde die mikrobielle Biomasse an den Wurzeln von Pilzen dominiert. Das Verhältnis von pilzlichem zu bakteriellem Kohlenstoff an den Wurzeln der 15 Pflanzenarten lag im Mittel bei 2,6. Bei der Betrachtung verschiedener Böden zeigte sich, dass die mikrobielle Besiedlung in tieferen Bodenschichten signifikant niedriger ist als in den Oberböden. Dabei war der Pilzanteil an der mikrobiellen Biomasse im Unterboden deutlich erhöht. Der Vergleich der Oberböden untereinander ergab, dass sowohl der Bodentyp als auch die Bewirtschaftungsform einen signifikanten Einfluss auf mikrobielle Besiedlung ausüben. Durch die teilweise oder vollständige Entfernung der oberirdischen Biomasse wurde eine Veränderung der mikrobiellen Besiedlung an den Wurzeln beobachtet. Das Verhältnis von pilzlichem zu bakteriellem Kohlenstoff sank in dem Versuchszeitraum von 2,5 auf 1,4. Dabei war die Förderung der Pilze in der Variante mit teilweise entfernter oberirdischer Biomasse relativ größer als in der Variante mit vollständig entfernter oberirdischer Biomasse. Entgegen der weit verbreiteten Annahme, dass bei den wurzelbesiedelnden Mikroorganismen die Bakterien gegenüber den Pilzen dominieren, zeigten die Ergebnisse ein gegensätzliches Bild. In allen drei Versuchen ergab sich gleichermaßen, dass sowohl im Boden als auch an den Wurzeln die Pilze gegenüber den Bakterien dominieren.
Resumo:
As the number of resources on the web exceeds by far the number of documents one can track, it becomes increasingly difficult to remain up to date on ones own areas of interest. The problem becomes more severe with the increasing fraction of multimedia data, from which it is difficult to extract some conceptual description of their contents. One way to overcome this problem are social bookmark tools, which are rapidly emerging on the web. In such systems, users are setting up lightweight conceptual structures called folksonomies, and overcome thus the knowledge acquisition bottleneck. As more and more people participate in the effort, the use of a common vocabulary becomes more and more stable. We present an approach for discovering topic-specific trends within folksonomies. It is based on a differential adaptation of the PageRank algorithm to the triadic hypergraph structure of a folksonomy. The approach allows for any kind of data, as it does not rely on the internal structure of the documents. In particular, this allows to consider different data types in the same analysis step. We run experiments on a large-scale real-world snapshot of a social bookmarking system.
Resumo:
Distributed systems are one of the most vital components of the economy. The most prominent example is probably the internet, a constituent element of our knowledge society. During the recent years, the number of novel network types has steadily increased. Amongst others, sensor networks, distributed systems composed of tiny computational devices with scarce resources, have emerged. The further development and heterogeneous connection of such systems imposes new requirements on the software development process. Mobile and wireless networks, for instance, have to organize themselves autonomously and must be able to react to changes in the environment and to failing nodes alike. Researching new approaches for the design of distributed algorithms may lead to methods with which these requirements can be met efficiently. In this thesis, one such method is developed, tested, and discussed in respect of its practical utility. Our new design approach for distributed algorithms is based on Genetic Programming, a member of the family of evolutionary algorithms. Evolutionary algorithms are metaheuristic optimization methods which copy principles from natural evolution. They use a population of solution candidates which they try to refine step by step in order to attain optimal values for predefined objective functions. The synthesis of an algorithm with our approach starts with an analysis step in which the wanted global behavior of the distributed system is specified. From this specification, objective functions are derived which steer a Genetic Programming process where the solution candidates are distributed programs. The objective functions rate how close these programs approximate the goal behavior in multiple randomized network simulations. The evolutionary process step by step selects the most promising solution candidates and modifies and combines them with mutation and crossover operators. This way, a description of the global behavior of a distributed system is translated automatically to programs which, if executed locally on the nodes of the system, exhibit this behavior. In our work, we test six different ways for representing distributed programs, comprising adaptations and extensions of well-known Genetic Programming methods (SGP, eSGP, and LGP), one bio-inspired approach (Fraglets), and two new program representations called Rule-based Genetic Programming (RBGP, eRBGP) designed by us. We breed programs in these representations for three well-known example problems in distributed systems: election algorithms, the distributed mutual exclusion at a critical section, and the distributed computation of the greatest common divisor of a set of numbers. Synthesizing distributed programs the evolutionary way does not necessarily lead to the envisaged results. In a detailed analysis, we discuss the problematic features which make this form of Genetic Programming particularly hard. The two Rule-based Genetic Programming approaches have been developed especially in order to mitigate these difficulties. In our experiments, at least one of them (eRBGP) turned out to be a very efficient approach and in most cases, was superior to the other representations.