47 resultados para Komponenten


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die technischen Oberflächen werden oft als Bauteilversagungsorte definiert. Deswegen ist eine optimale Ausnutzung der Werkstoffeigenschaften ohne mechanische Oberflächenbehandlungsverfahren nicht mehr wegzudenken. Mechanische Randschichtoptimierungsverfahren sind vergleichsweise einfach, Kosten sparend und hocheffektiv. Gerade das Festwalzen wird wegen seiner günstigen Auswirkungen wie die exzellente Oberflächengüte, die hohen Druckeigenspannungen sowie die hohe Oberflächenverfestigung zunehmend an Bedeutung gewinnen. Außerdem wird durch das Festwalzen in einigen Legierungen eine nanokristalline Oberflächenschicht gebildet. Diese brillanten Eigenschaften führen nach einer mechanischen Oberflächenbehandlung zur Erhöhung des Werkstoffwiderstandes unter anderem gegen Verschleiß, Spannungsrisskorrosion und insbesondere zur Steigerung der Schwingfestigkeit. Ein etabliertes Beispiel zur Steigerung der Schwingfestigkeit ist das Festwalzen von Achsen und Kurbelwellen. Auch solche komplexen Komponenten wie Turbinenschaufeln werden zur Schwingfestigkeitssteigerung laserschockverfestigt oder festgewalzt. Die Laserschockverfestigung ist ein relativ neues Verfahren auf dem Gebiet der mechanischen Oberflächenbehandlungen, das z.B. bereits in der Flugturbinenindustrie Anwendung fand und zur Schwingfestigkeitsverbesserung beiträgt. Das Verfahrensprinzip besteht darin, dass ein kurzer Laserimpuls auf die zu verfestigende, mit einer Opferschicht versehene Materialoberfläche fokussiert wird. Das Auftreffen des Laserimpulses auf der verwendeten Opferschicht erzeugt ein expandierendes Plasma, welches eine Schockwelle in randnahen Werkstoffbereichen erzeugt, die elastisch-plastische Verformungen bewirkt. Eine konsekutive Wärmebehandlung, Auslagerung nach dem Festwalzen, nutzt den statischen Reckalterungseffekt. Hierdurch werden die Mikrostrukturen stabilisiert. Die Änderung der Mikrostrukturen kann jedoch zu einer beträchtlichen Abnahme der mittels Festwalzen entstandenen Druckeigenspannungen und der Kaltverfestigungsrate führen. Das Festwalzen bei erhöhter Temperatur bietet eine weitere Möglichkeit die Schwingfestigkeit von metallischen Werkstoffen zu verbessern. Die Mikrostruktur wird durch den Effekt der dynamischen Reckalterung stabilisiert. Die Effekte beim Festwalzen bei erhöhten Temperaturen sind ähnlich dem Warmstrahlen. Das Festwalzen erzeugt Oberflächenschichten mit sehr stabilen Kaltverfestigungen und Druckeigenspannungen. Diese Strukturen haben viele Vorteile im Vergleich zu den durch rein mechanische Verfahren erzeugten Strukturen in Bezug auf die Schwingfestigkeit und die Stabilität der Eigenspannungen. Die Aufgabe der vorliegenden Dissertation war es, Verfahren zur Verbesserung der Schwingfestigkeit im Temperaturbereich zwischen Raumtemperatur und 600 °C zu erforschen. Begleitende mikrostrukturelle sowie röntgenographische Untersuchungen sollen zum Verständnis der Ursachen der Verbesserung beitragen. Für diese Arbeit wurde der in der Praxis häufig verwendete Modellwerkstoff X5CrNi18-10 ausgewählt. Als Randschichtverfestigungsverfahren wurden das Festwalzen, eine Kombination der mechanischen und thermischen, thermomechanischen Verfahren auf der Basis des Festwalzens und eine Laserschockverfestigung verwendet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Protein Orb2, welches zum Xenopus CPEB homolog ist, erfüllt während der Spermatogenese von Drosophila melanogaster eine wesentliche Funktion. Das teilweise Ausschalten von orb2 führt zu Störungen in der Individualisierung der Spermatiden, Veränderung in der Morphologie und Lokalisation der Spermatidenkerne und damit verbunden zu männlicher Sterilität. Der weit gestreute Phänotyp spricht für eine regulatorische Funktion des Proteins, wie es aufgrund der Homologie zu CPEB zu erwarten ist. Orb2 mutante Weibchen zeigen dagegen keinen Phänotyp. Die Sterilität konnte mit spezifischen Rettungskonstrukten rückgängig gemacht werden, wobei die beiden Proteinformen in ihrer Funktion höchstwahrscheinlich äquivalent sind, da eine größere Menge an kleinem Protein das Fehlen des größeren ausgleichen kann. Beide Proteinformen lokalisieren in fast alle Stadien der Spermatogenese, wobei nur das kleinere auch in reifen Spermien persistiert. Zur Untersuchung der regulatorischen Funktion des Proteins Orb2 wurden zunächst drei mögliche Protein-Interaktionskandidaten analysiert. Obwohl ähnliche mutante Phänotypen in Gap und Cup ausgelöst wurden, lässt sich eine Interaktion bis jetzt mit diesen Kandidaten weder ausschließen noch bestätigen. Daneben zeigte das Protein Tob eine ähnliche Lokalisierung und einen deutlich ähnlicheren mutanten Phänotyp, wie er für Orb2 beschrieben wurde. Besonders auffällig ist die Lokalisation der Tob mRNA an die Spermatidenenden und die Verringerung der Transkriptmenge in der orb2-Mutante. Ob dieser Phänotyp durch den Verlust der regulatorischen Funktion von Orb2 hervorgerufen wird oder durch den späten Zeitpunkt der Transkription bedingt ist, muß in späteren Experimenten geklärt werden. Mit Hilfe eines Co-Immunpräzipitations-Experimentes wurde nach weiteren Proteininteraktionspartnern sowie nach Ziel-mRNAs gesucht, die durch Orb2 reguliert werden könnten. Dabei ergaben die massenspektrometrischen Analysen zwar Proteine, die mit der Translation selbst in Zusammenhang stehen, sowie einige regulatorische RNA-bindende Proteine, wiesen aber auch in Gestalt eines häufig nachgewiesenen Anhangsdrüsenproteins auf deutliche systematische Probleme hin. Auf genetischem Wege war bereits der Nachweis gelungen, dass die Protamine und mst77F, die strukturelle Komponenten der kompaktierten Kern-DNA sind, durch Orb2 in ihrer Translation reprimiert werden. Dieses Ergebnis wurde zum Teil bestätigt durch den Nachweis der Protamin mRNAs in den Eluaten aus dem Co-Immunpräzipitationsexperiment. Damit konnte zum ersten Mal in der Drosophila Spermatogenese das regulatorische Protein zu einer translationskontrollierten mRNA identifiziert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Kurzfassung: Der Markt für ökologische Lebensmittel wächst stark. Verbraucher kaufen Produkte aus ökologischem Landbau aus einer Vielzahl von Gründen. Ein Teil dieser Gründe lässt sich nicht auf die Produktqualität zurückführen, sondern beruht auf der Annahme, dass sich der Produktionsprozess des Ökologischen Landbaus hinsichtlich der Schonung von Umweltressourcen, der Nachhaltigkeit der Produktion und sozialen Komponenten vom konventionellen Anbau unterscheidet. Daneben spielt der Wunsch nach einer gesunden Ernährung eine Rolle. Ökologische Lebensmittel können als Vertrauensgüter verstanden werden. Lebensmittelskandale machten in den vergangenen Jahren auch vor ökologischen Lebens¬mitteln nicht Halt. Folgerichtig erschütterte dies das Vertrauen der Verbraucher in ökologische Produkte. Mit steigender Produktion könnte die Gefahr, das weitere solche Ereignisse auftreten, steigen. Daher besteht Bedarf für Methoden, die die ökologische Produktqualität im Sinne einer Authentizitätsprüfung prüfen. Eine solche Prüfung könnte sich auf die Analyse sekundärer Pflanzenstoffe stützen. Diese Gruppe von Pflanzeninhaltsstoffen spielt bei der Diskussion um die besondere Qualität ökologischer Pflanzenprodukte eine große Rolle. Postuliert wird, dass ökologisch angebaute Pflanzen mangels mineralischer Düngung und mangels Schädlingsbekämpfung mit synthetischen Pestiziden einem erhöhten Stress ausgesetzt sind. Dies soll sich in einem höheren Niveau der mit den Selbstverteidigungsmechanismen der Pflanze eng verbundenen sekundären Pflanzenstoffe ausdrücken. Wichtige Untergruppen der sekundären Pflanzenstoffe sind Carotinoide und Polyphenole. An Weizen (Triticum aestivum L. und Triticum durum L.) und Möhre (Daucus carota L.) als für den ökologischen Landbau wichtigen Produkten wurden Messungen der Carotinoid- und Polyphenolkonzentration mit dem Ziel durchgeführt, die potentielle Eignung dieser Pflanzenstoffe als Biomarker zur Authentizitätsprüfung ökologischer Produkte zu evaluieren. Dazu wurden Proben aus ökologischem und konventionellem Anbau (Paarvergleich) untersucht. Diese stammten aus Langzeit-Feldversuchen (Weizen aus dem DOK- und dem MASCOT-Versuch), Feldversuchen und von Betriebspaaren untersucht. Ein generell höheres Niveau sekundärer Pflanzenstoffe in Möhren bzw. Weizen aus ökologischem Anbau gegenüber Proben aus konventionellem Anbau wurde nicht gefunden. Die Carotinoide waren weder bei der Möhre noch beim Weizen zur Authentizitätsprüfung geeignet. Die Konzentration der Carotinoide wurde stark durch die nicht dem Anbau¬verfahren zuzuordnenden Faktoren Klima, Sorte und Standort beeinflusst. Die Luteinkonzentration war das einzige durch das Anbauverfahren systematisch beeinflusste Carotenoid bei Weizen und Möhre. Die Unterschiede der Luteinkonzentration waren aber im Paarvergleich von Proben (ökologischer versus konventioneller Anbau) nicht durchgängig signifikant. Die Eignung von Polyphenolen als potentielles Authentizitätskriterium wurde nur an Möhren geprüft. Im Paarvergleich unterschieden sich die Konzentrationen einzelner Polyphenole signifikant und konsistent über Probenjahre und Standorte, nicht jedoch über Sorten hinweg. Wie bei den Carotinoiden konnte auch hier ein starker Einfluss von Probenjahr, Standort und Sorte gezeigt werden. Trotz der Variation durch diese nicht dem Anbau zuzuordnenden Faktoren war eine korrekte Klassifizierung der Proben nach Anbauverfahren möglich. Dies wurde mittels Diskriminanzanalyse getestet. Die Polyphenole sind daher potentiell als Authentizitätskriterium geeignet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The process of developing software that takes advantage of multiple processors is commonly referred to as parallel programming. For various reasons, this process is much harder than the sequential case. For decades, parallel programming has been a problem for a small niche only: engineers working on parallelizing mostly numerical applications in High Performance Computing. This has changed with the advent of multi-core processors in mainstream computer architectures. Parallel programming in our days becomes a problem for a much larger group of developers. The main objective of this thesis was to find ways to make parallel programming easier for them. Different aims were identified in order to reach the objective: research the state of the art of parallel programming today, improve the education of software developers about the topic, and provide programmers with powerful abstractions to make their work easier. To reach these aims, several key steps were taken. To start with, a survey was conducted among parallel programmers to find out about the state of the art. More than 250 people participated, yielding results about the parallel programming systems and languages in use, as well as about common problems with these systems. Furthermore, a study was conducted in university classes on parallel programming. It resulted in a list of frequently made mistakes that were analyzed and used to create a programmers' checklist to avoid them in the future. For programmers' education, an online resource was setup to collect experiences and knowledge in the field of parallel programming - called the Parawiki. Another key step in this direction was the creation of the Thinking Parallel weblog, where more than 50.000 readers to date have read essays on the topic. For the third aim (powerful abstractions), it was decided to concentrate on one parallel programming system: OpenMP. Its ease of use and high level of abstraction were the most important reasons for this decision. Two different research directions were pursued. The first one resulted in a parallel library called AthenaMP. It contains so-called generic components, derived from design patterns for parallel programming. These include functionality to enhance the locks provided by OpenMP, to perform operations on large amounts of data (data-parallel programming), and to enable the implementation of irregular algorithms using task pools. AthenaMP itself serves a triple role: the components are well-documented and can be used directly in programs, it enables developers to study the source code and learn from it, and it is possible for compiler writers to use it as a testing ground for their OpenMP compilers. The second research direction was targeted at changing the OpenMP specification to make the system more powerful. The main contributions here were a proposal to enable thread-cancellation and a proposal to avoid busy waiting. Both were implemented in a research compiler, shown to be useful in example applications, and proposed to the OpenMP Language Committee.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das von Maz'ya eingeführte Approximationsverfahren, die Methode der näherungsweisen Näherungen (Approximate Approximations), kann auch zur numerischen Lösung von Randintegralgleichungen verwendet werden (Randpunktmethode). In diesem Fall hängen die Komponenten der Matrix des resultierenden Gleichungssystems zur Berechnung der Näherung für die Dichte nur von der Position der Randpunkte und der Richtung der äußeren Einheitsnormalen in diesen Punkten ab. Dieses numerisches Verfahren wird am Beispiel des Dirichlet Problems für die Laplace Gleichung und die Stokes Gleichungen in einem beschränkten zweidimensionalem Gebiet untersucht. Die Randpunktmethode umfasst drei Schritte: Im ersten Schritt wird die unbekannte Dichte durch eine Linearkombination von radialen, exponentiell abklingenden Basisfunktionen approximiert. Im zweiten Schritt wird die Integration über den Rand durch die Integration über die Tangenten in Randpunkten ersetzt. Für die auftretende Näherungspotentiale können sogar analytische Ausdrücke gewonnen werden. Im dritten Schritt wird das lineare Gleichungssystem gelöst, und eine Näherung für die unbekannte Dichte und damit auch für die Lösung der Randwertaufgabe konstruiert. Die Konvergenz dieses Verfahrens wird für glatte konvexe Gebiete nachgewiesen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Entwicklung in der Windkrafttechnik ist aufgrund der Wirtschaftlichkeitserwartungen besonders auf große Anlagen im MW-Bereich ausgerichtet. Im unteren Leistungsbereich (5 bis 100kW) bilden Entwicklungen und Anlageninstallationen weitgehend Ausnahmen und erfüllen meist nicht die für Hybridanlagen notwendige Systemfähigkeit, was eine Einbindung in dezentrale Energiesysteme erschwert. Im Rahmen dieser Arbeit werden die elektrischen Komponenten für eine kostengünstige und systemfähige Windkraftanlage entwickelt, mit der die Nutzung erneuerbarer Energiequellen durch Einbindung der Windenergie in die modulare Energie-Systemtechnik erweitert und wesentlich verbessert wird. Dabei stellt der Generator als mechanisch-elektrischer Energiewandler die Schlüsselkomponente dar. Um den Teil- und Volllastbetrieb effektiv zu gestalten, wird bei der Auslegung und Optimierung des Generators nach dem Kennlinienverfahren möglichst großen Werten von Wirkungsgrad und Leistungsfaktor in einem weiten Spektrum der abgegebenen Leistung eine hohe Wichtigkeit beigemessen. Um hohe Energieerträge sowohl im Teil- als auch im Volllastbetrieb zu erzielen, wird der Generator polumschaltbar ausgeführt und im Betrieb entsprechend der aktuell eingespeisten Leistung zwischen zwei Drehzahlen geschaltet. Die durchgeführten Untersuchungen an mehrfach optimierten und speziell angefertigten Generatortypen sollen als Grundlage für die Gesamtkonzeption der Windenergieanlage dienen. Um die energetischen Auswirkungen und betriebstechnische Möglichkeiten der Auslegung zu ermitteln, werden im gesamten auftretenden Leistungsspektrum – Leerlauf bis 130% der Nennleistung – die mechanischen und elektrischen Verhaltensweisen in Abhängigkeit von der elektrisch abgegebenen Leistung bei unterschiedlichen Sättigungsgraden des Generators untersucht. Im Hinblick auf die Auslegung der mechanischen und elektrischen Komponenten wie z.B. des Getriebes und des Schleifringkörpers werden dynamische Zustandsänderungen wie verschiedene Kurzschlussvarianten und die Zuschaltung auf das Netz untersucht und dargestellt. Um den Anlagenbetrieb für nahezu alle Netze weltweit zu gewährleisten, wird eine polumschaltbare Einphasenmaschine für 240V / 60Hz ausgelegt. Der Generator kann mit Betriebskondensatorstufen im gesamten Leistungsbereich von Leerlauf bis Nennleistung ohne Laufgeräusche und Rüttelkräfte betrieben werden. Dabei soll der Einphasenasynchrongenerator nach dem gleichem Optimierungsverfahren wie beim Dreiphasigen Asynchrongenerator sowohl für die 4-polige als auch für die 6-polige Drehzahlstufe hohe Teillastwirkungsgrade erreichen. Um möglichst symmetrische Betriebsverhältnisse hinsichtlich Drehmomentschwankungen erreichen zu können, wird die Auslegung der Betriebskapazität an den Drehmomentschwankungen ausgerichtet und eine Optimierung der Betriebskapazität anhand minimaler Amplituden der Pendelmomente erreicht. Damit wird gezeigt, dass auch kleine Windkraftanlagen einen wertvollen Beitrag zur netzverträglichen und nachhaltigen Elektrizitätsversorgung leisten können.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract: This dissertation generally concentrates on the relationships between “gender” and “space” in the present time of urban life in capital city of Tehran. “Gender” as a changing social construct, differentiated within societies and through time, studied this time by investigation on “gender attitude” or “gender identity” means attitudes towards “gender” issues regarding Tehran residences. “Space” as a concept integrated from physical and social constituents investigated through focus on “spatial attitude” means attitudes towards using “living spaces” including private space of “house”, semi private semi public space of neighborhood and finally public spaces of the city. “Activities and practices” in space concentrated instead of “physical” space; this perspective to “space” discussed as the most justified implication of “space” in this debate regarding current situations in city of Tehran. Under a systematic approach, the interactions and interconnections between “gender” and “space” as two constituent variables of social organization investigated by focus on the different associations presented between different “gender identities” and their different “spatial identities”; in fact, “spatial identity” manifests “gender identity” and in opposite direction, “spatial identity” influences to construction of “gender identity”. The hypotheses of case study in Tehran defined as followed: • “Gender identity” is reflected on “spatial identity”. Various “gender identities” in Tehran present different perspectives of “space” or they identify “space” by different values. • As “gender identity” internalizes patriarchal oppression, it internalizes associated “spatial” oppression too. • Within the same social class, different “gender identities” related to men and women, present interconnected qualities, compared with “gender identities” related to men or women of different social classes. This situation could be found in the “spatial” perspectives of different groups of men and women too. • Following the upper hypotheses, “spatial” oppression differs among social classes of Tehran living in different parts of this city. This research undertook a qualitative study in Tehran by interviewing with different parents of both young daughter and son regarding their attitudes towards gender issues from one side and activities and behaviors of their children in different spaces from the other side. Results of case study indicated the parallel changes of parents’ attitudes towards “gender” and “spatial” issues; it means strong connection between “gender” and “space”. It revealed association of “equal” spatial attitudes with “open, neutral” gender attitudes, and also the association of “biased, unequal” spatial identities with “conservative patriarchal” gender identities. It was cleared too that this variable concept – gender space - changes by “sex”; mothers comparing fathers presented more equitable notions towards “gender spatial” issues. It changes too by “social class” and “educational level”, that means “gender spatial” identity getting more open equitable among more educated people of middle and upper classes. “Breadwinning status in the family” also presents its effect on the changes of “gender spatial” identity so participant breadwinners in the family expressed relatively more equitable notions comparing householders and housekeepers. And finally, “gender spatial” identity changes through “place” in the city and regarding South – North line of the city. The illustration of changes of “gender spatial” identity from “open” to “conservative” among society indicated not only vertical variation across social classes, furthermore the horizontal changing among each social class. These results also confirmed hypotheses while made precision on the third one regarding variable of sex. More investigations pointed to some inclusive spatial attitudes throughout society penetrated to different groups of “gender identities”, to “opens” as to “conservatives”, also to groups between them, by two opposite features; first kind, conservative biased spatial practices in favor of patriarchal gender relations and the second, progressive neutral actions in favor of equal gender relations. While the major reason for the inclusive conservative practices was referred to the social insecurity for women, the second neutral ones associated to more formal & safer spaces of the city. In conclusion, while both trends are associated deeply with the important issues of “sex” & “body” in patriarchal thoughts, still strong, they are the consequences of the transitional period of social change in macro level, and the challenges involved regarding interactions between social orders, between old system of patriarchy, the traditional biased “gender spatial” relations and the new one of equal relations. The case study drew an inhomogeneous illustration regarding gender spatial aspects of life in Tehran, the opposite groups of “open” and “conservative”, and the large group of “semi open semi conservative” between them. In macro perspective it presents contradicted social groups according their general life styles; they are the manifestations of challenging trends towards tradition and modernity in Iranian society. This illustration while presents unstable social situations, necessitates probing solutions for social integration; exploring the directions could make heterogeneous social groups close in the way they think and the form they live in spaces. Democratic approaches like participatory development planning might be helpful for the city in its way to more solidarity and sustainability regarding its social spatial – gender as well – development, in macro levels of social spatial planning and in micro levels of physical planning, in private space of house and in public spaces of the city.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Simulation von Verlusten in Verbrennungsmotoren ermöglicht die Entwicklung optimierter Strategien für Verbrauchs- und Emissionskonzepte sowie die modellbasierte Betrachtung von Steuerungssystemen in Kraftfahrzeugen. Es gibt Simulationswerkzeuge, die die Verluste sehr detailliert auf der Basis von physikalischen Gesetzen nachbilden. Allerdings sind diese Werkzeuge nicht echtzeitfähig und können somit nicht in HiL-Umgebungen und Steuergeräten verwendet werden. Mit dem hier vorgestellten Ansatz können die Verluste in Verbrennungsmotoren unter Berücksichtigung der Einflüsse des variablen Ventiltriebs (VVT) nachgebildet werden. Das Gesamtmodell basiert auf einer physikalischen Grundstruktur mit integrierten datengetriebenen Teilmodellen. Durch den modularen Aufbau des Modells werden die Ladungswechsel- und Reibverluste in getrennten Teilmodellen berechnet, wobei die Reibverluste einer weiteren Unterteilung in Bauteilgruppen (Grundlager, Pleuellager, Kolbengruppe, etc.) unterliegen. Dieser modulare Aufbau ermöglicht kompakte Teilmodelle, die nur komponentenspezifische Eingänge besitzen. Die Modularität der Gesamtstruktur ermöglicht es, die Verluste einzelner Komponenten zu simulieren und zu bewerten. Durch die Einbeziehung von Konstruktionsdaten in den Modellerstellungsprozess können neben den prozessrelevanten Betriebsparametern auch Konstruktionsparameter bei der Simulation berücksichtigt werden. Hierdurch wird eine vereinfachte Skalierung der abgeleiteten Modelle ermöglicht. Die aus dem vorgestellten Ansatz abgeleiteten Verlustmodelle erfüllen den Aspekt der Echtzeitfähigkeit und können daher in HiL-Umgebungen verwendet werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Excimerlaser sind gepulste Gaslaser, die Laseremission in Form von Linienstrahlung – abhängig von der Gasmischung – im UV erzeugen. Der erste entladungsgepumpte Excimerlaser wurde 1977 von Ischenko demonstriert. Alle kommerziell verfügbaren Excimerlaser sind entladungsgepumpte Systeme. Um eine Inversion der Besetzungsdichte zu erhalten, die notwendig ist, um den Laser zum Anschwingen zu bekommen, muss aufgrund der kurzen Wellenlänge sehr stark gepumpt werden. Diese Pumpleistung muss von einem Impulsleistungsmodul erzeugt werden. Als Schaltelement gebräuchlich sind Thyratrons, Niederdruckschaltröhren, deren Lebensdauer jedoch sehr limitiert ist. Deshalb haben sich seit Mitte der 1990iger Jahre Halbleiterschalter mit Pulskompressionsstufen auch in dieser Anwendung mehr und mehr durchgesetzt. In dieser Arbeit wird versucht, die Pulskompression durch einen direkt schaltenden Halbleiterstapel zu ersetzen und dadurch die Verluste zu reduzieren sowie den Aufwand für diese Pulskompression einzusparen. Zudem kann auch die maximal mögliche Repetitionsrate erhöht werden. Um die Belastung der Bauelemente zu berechnen, wurden für alle Komponenten möglichst einfache, aber leistungsfähige Modelle entwickelt. Da die normalerweise verfügbaren Daten der Bauelemente sich aber auf andere Applikationen beziehen, mussten für alle Bauteile grundlegende Messungen im Zeitbereich der späteren Applikation gemacht werden. Für die nichtlinearen Induktivitäten wurde ein einfaches Testverfahren entwickelt um die Verluste bei sehr hohen Magnetisierungsgeschwindigkeiten zu bestimmen. Diese Messungen sind die Grundlagen für das Modell, das im Wesentlichen eine stromabhängige Induktivität beschreibt. Dieses Modell wurde für den „magnetic assist“ benützt, der die Einschaltverluste in den Halbleitern reduziert. Die Impulskondensatoren wurden ebenfalls mit einem in der Arbeit entwickelten Verfahren nahe den späteren Einsatzparametern vermessen. Dabei zeigte sich, dass die sehr gebräuchlichen Class II Keramikkondensatoren für diese Anwendung nicht geeignet sind. In der Arbeit wurden deshalb Class I Hochspannungs- Vielschicht- Kondensatoren als Speicherbank verwendet, die ein deutlich besseres Verhalten zeigen. Die eingesetzten Halbleiterelemente wurden ebenfalls in einem Testverfahren nahe den späteren Einsatzparametern vermessen. Dabei zeigte sich, dass nur moderne Leistungs-MOSFET´s für diesen Einsatz geeignet sind. Bei den Dioden ergab sich, dass nur Siliziumkarbid (SiC) Schottky Dioden für die Applikation einsetzbar sind. Für die Anwendung sind prinzipiell verschiedene Topologien möglich. Bei näherer Betrachtung zeigt sich jedoch, dass nur die C-C Transfer Anordnung die gewünschten Ergebnisse liefern kann. Diese Topologie wurde realisiert. Sie besteht im Wesentlichen aus einer Speicherbank, die vom Netzteil aufgeladen wird. Aus dieser wird dann die Energie in den Laserkopf über den Schalter transferiert. Aufgrund der hohen Spannungen und Ströme müssen 24 Schaltelemente in Serie und je 4 parallel geschaltet werden. Die Ansteuerung der Schalter wird über hochisolierende „Gate“-Transformatoren erreicht. Es zeigte sich, dass eine sorgfältig ausgelegte dynamische und statische Spannungsteilung für einen sicheren Betrieb notwendig ist. In der Arbeit konnte ein Betrieb mit realer Laserkammer als Last bis 6 kHz realisiert werden, der nur durch die maximal mögliche Repetitionsrate der Laserkammer begrenzt war.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Bedeutung des Dienstgüte-Managements (SLM) im Bereich von Unternehmensanwendungen steigt mit der zunehmenden Kritikalität von IT-gestützten Prozessen für den Erfolg einzelner Unternehmen. Traditionell werden zur Implementierung eines wirksamen SLMs Monitoringprozesse in hierarchischen Managementumgebungen etabliert, die einen Administrator bei der notwendigen Rekonfiguration von Systemen unterstützen. Auf aktuelle, hochdynamische Softwarearchitekturen sind diese hierarchischen Ansätze jedoch nur sehr eingeschränkt anwendbar. Ein Beispiel dafür sind dienstorientierte Architekturen (SOA), bei denen die Geschäftsfunktionalität durch das Zusammenspiel einzelner, voneinander unabhängiger Dienste auf Basis deskriptiver Workflow-Beschreibungen modelliert wird. Dadurch ergibt sich eine hohe Laufzeitdynamik der gesamten Architektur. Für das SLM ist insbesondere die dezentrale Struktur einer SOA mit unterschiedlichen administrativen Zuständigkeiten für einzelne Teilsysteme problematisch, da regelnde Eingriffe zum einen durch die Kapselung der Implementierung einzelner Dienste und zum anderen durch das Fehlen einer zentralen Kontrollinstanz nur sehr eingeschränkt möglich sind. Die vorliegende Arbeit definiert die Architektur eines SLM-Systems für SOA-Umgebungen, in dem autonome Management-Komponenten kooperieren, um übergeordnete Dienstgüteziele zu erfüllen: Mithilfe von Selbst-Management-Technologien wird zunächst eine Automatisierung des Dienstgüte-Managements auf Ebene einzelner Dienste erreicht. Die autonomen Management-Komponenten dieser Dienste können dann mithilfe von Selbstorganisationsmechanismen übergreifende Ziele zur Optimierung von Dienstgüteverhalten und Ressourcennutzung verfolgen. Für das SLM auf Ebene von SOA Workflows müssen temporär dienstübergreifende Kooperationen zur Erfüllung von Dienstgüteanforderungen etabliert werden, die sich damit auch über mehrere administrative Domänen erstrecken können. Eine solche zeitlich begrenzte Kooperation autonomer Teilsysteme kann sinnvoll nur dezentral erfolgen, da die jeweiligen Kooperationspartner im Vorfeld nicht bekannt sind und – je nach Lebensdauer einzelner Workflows – zur Laufzeit beteiligte Komponenten ausgetauscht werden können. In der Arbeit wird ein Verfahren zur Koordination autonomer Management-Komponenten mit dem Ziel der Optimierung von Antwortzeiten auf Workflow-Ebene entwickelt: Management-Komponenten können durch Übertragung von Antwortzeitanteilen untereinander ihre individuellen Ziele straffen oder lockern, ohne dass das Gesamtantwortzeitziel dadurch verändert wird. Die Übertragung von Antwortzeitanteilen wird mithilfe eines Auktionsverfahrens realisiert. Technische Grundlage der Kooperation bildet ein Gruppenkommunikationsmechanismus. Weiterhin werden in Bezug auf die Nutzung geteilter, virtualisierter Ressourcen konkurrierende Dienste entsprechend geschäftlicher Ziele priorisiert. Im Rahmen der praktischen Umsetzung wird die Realisierung zentraler Architekturelemente und der entwickelten Verfahren zur Selbstorganisation beispielhaft für das SLM konkreter Komponenten vorgestellt. Zur Untersuchung der Management-Kooperation in größeren Szenarien wird ein hybrider Simulationsansatz verwendet. Im Rahmen der Evaluation werden Untersuchungen zur Skalierbarkeit des Ansatzes durchgeführt. Schwerpunkt ist hierbei die Betrachtung eines Systems aus kooperierenden Management-Komponenten, insbesondere im Hinblick auf den Kommunikationsaufwand. Die Evaluation zeigt, dass ein dienstübergreifendes, autonomes Performance-Management in SOA-Umgebungen möglich ist. Die Ergebnisse legen nahe, dass der entwickelte Ansatz auch in großen Umgebungen erfolgreich angewendet werden kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The 21st century has brought new challenges for forest management at a time when globalization in world trade is increasing and global climate change is becoming increasingly apparent. In addition to various goods and services like food, feed, timber or biofuels being provided to humans, forest ecosystems are a large store of terrestrial carbon and account for a major part of the carbon exchange between the atmosphere and the land surface. Depending on the stage of the ecosystems and/or management regimes, forests can be either sinks, or sources of carbon. At the global scale, rapid economic development and a growing world population have raised much concern over the use of natural resources, especially forest resources. The challenging question is how can the global demands for forest commodities be satisfied in an increasingly globalised economy, and where could they potentially be produced? For this purpose, wood demand estimates need to be integrated in a framework, which is able to adequately handle the competition for land between major land-use options such as residential land or agricultural land. This thesis is organised in accordance with the requirements to integrate the simulation of forest changes based on wood extraction in an existing framework for global land-use modelling called LandSHIFT. Accordingly, the following neuralgic points for research have been identified: (1) a review of existing global-scale economic forest sector models (2) simulation of global wood production under selected scenarios (3) simulation of global vegetation carbon yields and (4) the implementation of a land-use allocation procedure to simulate the impact of wood extraction on forest land-cover. Modelling the spatial dynamics of forests on the global scale requires two important inputs: (1) simulated long-term wood demand data to determine future roundwood harvests in each country and (2) the changes in the spatial distribution of woody biomass stocks to determine how much of the resource is available to satisfy the simulated wood demands. First, three global timber market models are reviewed and compared in order to select a suitable economic model to generate wood demand scenario data for the forest sector in LandSHIFT. The comparison indicates that the ‘Global Forest Products Model’ (GFPM) is most suitable for obtaining projections on future roundwood harvests for further study with the LandSHIFT forest sector. Accordingly, the GFPM is adapted and applied to simulate wood demands for the global forestry sector conditional on selected scenarios from the Millennium Ecosystem Assessment and the Global Environmental Outlook until 2050. Secondly, the Lund-Potsdam-Jena (LPJ) dynamic global vegetation model is utilized to simulate the change in potential vegetation carbon stocks for the forested locations in LandSHIFT. The LPJ data is used in collaboration with spatially explicit forest inventory data on aboveground biomass to allocate the demands for raw forest products and identify locations of deforestation. Using the previous results as an input, a methodology to simulate the spatial dynamics of forests based on wood extraction is developed within the LandSHIFT framework. The land-use allocation procedure specified in the module translates the country level demands for forest products into woody biomass requirements for forest areas, and allocates these on a five arc minute grid. In a first version, the model assumes only actual conditions through the entire study period and does not explicitly address forest age structure. Although the module is in a very preliminary stage of development, it already captures the effects of important drivers of land-use change like cropland and urban expansion. As a first plausibility test, the module performance is tested under three forest management scenarios. The module succeeds in responding to changing inputs in an expected and consistent manner. The entire methodology is applied in an exemplary scenario analysis for India. A couple of future research priorities need to be addressed, particularly the incorporation of plantation establishments; issue of age structure dynamics; as well as the implementation of a new technology change factor in the GFPM which can allow the specification of substituting raw wood products (especially fuelwood) by other non-wood products.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der Anwendung treten häufig Differentialgleichungssysteme auf, deren Komponenten über das Lösen mit einer vorgegeben Genauigkeit hinaus Anforderungen an die, zur Näherung verwendeten, numerischen Verfahren stellen. Die Arbeit widmet sich hierbei den beiden Forderungen 1. Erhaltung der Positivität aller positiven Größen (z.B. Massen, Konzentrationen, Energie) und 2. Erhaltung der Masse in abgeschlossenen Systemen. Ausgehend von einem komplexen ökologischen 2D Modell zur Beschreibung von Algendynamiken in flachen Gewässern auf Grund der verfügbaren Phosphorvorkommen wird ein problemangepasstes Finite-Volumen-Verfahren entwickelt. Den in diesem Rahmen auftauchenden gewöhnlichen Differentialgleichungssystemen wird spezielle Aufmerksamkeit geschenkt. Es werden die bestehenden Begriffe auf eine gemeinsame formale Basis gestellt und die bestehenden Verfahren (Bruggeman und modifizierte Patankar Ansätze) mit Hilfe dieser vereinheitlichten Basis formuliert. Anschließend werden die diesen Ansätzen jeweils eigenen Schwierigkeiten und Einschränkungen (Ordnungsschranke von zwei, Erhaltung der Konservativität nur für Gleichungen mit einfacher Struktur, nicht für steife Systeme geeignet) betrachtet. Danach werden zwei Verfahrensverallgemeinerungen des modifizierten Patankar Euler Verfahrens präsentiert, welche jeweils eine der bestehenden Schwächen aufhebt. 1. Das extrapolierte mod. Pat. Euler Verfahren ermöglicht in Abhängigkeit des zu Grunde liegenden Problems die Erzeugung von Näherungen beliebig hoher Ordnung. 2. Das verallgemeinerte mod. Pat. Euler Verfahren erlaubt den Erhalt der Masse auch für komplexe Strukturen. Anschließend befasst sich die Arbeit mit der Vorstellung des verwendeten FVV, einer angepassten Form der 2D DLR Taucodes. Im weiteren Verlauf werden sämtliche theoretischen Aussagen zu den Verfahren an Hand entsprechend gewählter praktischer Testfälle demonstriert. Abschließend wird die Wirksamkeit des Gesamtverfahrens in seiner Anwendung auf das Algendynamikmodell vorgeführt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Erforschung posttranslationaler Veränderungen von Chromatin-Komponenten stellt einen wichtigen Pfeiler der Epigenetik dar. Epigenetische Mechanismen verändern die Aussagekraft der DNA-Sequenz und entscheiden somit beispielsweise über die Aktivierung oder Stilllegung von Genen. Ein häufiges Ziel der Stilllegung sind springende genetische Elemente, die ansonsten zur Destabilisierung des Genoms führen können. Im Rahmen dieser Arbeit wurden zwei unterschiedliche Stilllegungsmechanismen der Transpo-sons DIRS-1 und Skipper aus Dictyostelium discoideum untersucht. Dabei konnte gezeigt werden, auf welche Weise die RNA-Interferenz (RNAi) zur Zerstörung des DIRS-1 Transkripts führt und dass die Ursache dafür in der Promotor-Aktivität des Elements selbst liegt. Eine überraschende Erkenntnis konnte auch für das zweite Element gewonnen werden. Experimente legen nahe, dass die in der kodierenden Skipper-Sequenz gefundene Chromo-Domäne zu einer gezielten Integration des Elements in bereits stillgelegte heterochromatische Bereiche führt. Diese zeichnen sich vor allem durch eine spezielle posttranslationale Histon-Modifikation, der Methylierung von Lysin 9 des Histons H3 (H3K9), aus. Während zu der Methylierung von H3K9 bereits Arbeiten erschienen sind, war ein Großteil der anderen in Dictyostelium discoideum kodierten Histon-Modifikationen bislang unbekannt. Mit Hilfe der Massenspektrometrie konnte erstmalig eine umfassende Karte der veränderten Aminosäuren erstellt werden. Dabei konnten neue, bislang für keinen Organismus beschriebene Modifikationsziele identifiziert werden. Weitere lassen durch einen Vergleich mit Modellorganismen wie Hefe und Fruchtfliege Schlüsse auf die Evolution des Histon-Codes zu. Die erstellte Karte kann in Zukunft Forschern als Grundlage dienen, um weitergehende Fragestellungen in Bezug auf die Funktionen der hier vorgestellten Modifikationen zu erforschen. Ein weiteres Ergebnis dieser Arbeit stellt die Charakterisierung posttranslationaler Veränderungen des an H3K9 bindenden Heterochromatin-Proteins 1 (HP1) dar. Neben einer ersten Analyse der in Dictyostelium discoideum vorhandenen Modifikationen der beiden Homologe HcpA und HcpB, wurde auch die Funktion der in der Chromoshadow-Domäne lokalisierten Acetylierung erforscht. Hierbei konnte gezeigt werden, dass ein Fehlen des veränderten Lysins zu einem deutlichen Phänotyp in der Sporenform und im Wachstum der Zellen führt. Als Ursache dafür konnte eine Veränderung in der Fähigkeit zur Gen-Stilllegung durch das mutierte HP1-Protein nachgewiesen werden. Dies gelang mit Hilfe eines dafür etablierten Reporters auf Basis des Gal4/UAS-Systems aus der Fruchtfliege und beweist erstmalig die Funktion einer Acetylierung der HP1-Proteine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Evolutionäre Algorithmen werden gerne für Optimierungsaufgaben mit sehr vielen Freiheitsgraden eingesetzt. Eine spezielle Konvergenzeigenschaft, daß nämlich der Rechenaufwand nur mit der Wurzel der Anzahl der Unbekannten steigt, prädestiniert sie dafür. Die evolutionären Algorithmen haben aber auch noch eine weitere interessante Eigenschaft: Von der Zielfunktion wird nur verlangt, daß sie monoton ist - nichts weiter. Speziell wird, im Gegensatz zu gradientenbasierten Verfahren, keinerlei Ableitung von der Zielfunktion benötigt. Dadurch können evolutionäre Algorithmen auch in solchen Fällen eingesetzt werden, in denen Ableitungen der Zielfunktion nicht oder nur schwierig zu beschaffen sind. Die evolutionären Algorithmen kommen deshalb mit so geringen Anforderungen an die Zielfunktion aus, weil nur absolute Bewertungen einzelner Punkte (hier Vektoren) im Lösungsraum durch die Zielfunktion vorgenommen werden. Dafür werden eine gewisse Anzahl Punkte gleichzeitig betrachtet. Im direkten Vergleich untereinander relativ günstig liegende Punkte werden für die weitere Rechnung übernommen, die anderen verworfen. Aus den Komponenten der übernommenen Punkte werden nun zufällig neue Punkte zusammengesetzt und ein wenig verschoben. Dann schließt sich der Kreis, indem diese neuen Punkte ebenfalls bewertet werden. Im Verlauf einer solchen Iteration konvergiert die Punktmenge in der Regel gegen ein Optimum. Oft kommt es gerade zu Beginn der Iteration zu schnellen Fortschritten. In dieser Arbeit wird ein Verfahren vorgestellt, bei dem mit Hilfe von evolutionären Algorithmen verbessernde Eingriffe in laufenden Echtzeitsystemen vorgenommen werden. Was gut oder schlecht ist, wird zu diesem Zweck über die Zielfunktion für die Optimierung definiert. Da von der Zielfunktion letztlich das Verhalten des Gesamtsystems abhängt, sollte sie sorgfältig ausgewählt werden. Die Eingriffe in das System sind zeitlich begrenzte Steuertrajektorien. Sie werden zusätzlich zur permanent wirkenden Regelung auf das System aufgebracht. Um die Anzahl der zu optimierenden Variablen in Grenzen zu halten, werden die Steuertrajektorien durch wenige Parameter repräsentiert. Da die Steuertrajektorien im voraus berechnet werden müssen, wird das Systemverhalten mittels eines Modells für eine gewisse, in der Zukunft liegende, Zeitspanne vorhergesagt. Wird die geforderte Qualität während dieser Zeitspanne unterschritten, kann so schon im Vorfeld ein Optimierungslauf des evolutionären Algorithmus durchgeführt werden. Allerdings ist die zur Verfügung stehende Rechenzeit von vornherein begrenzt. Daher ist es wesentlich, daß die mit evolutionären Algorithmen häufig assoziierte lange Rechenzeit nicht benötigt wird. Tatsächlich läßt sich unter Umständen mit wenig Rechenzeit auskommen. Erstens wird nur mit wenigen Variablen gerechnet, zweitens kommt es bei dem beschriebenen Verfahren - halbwegs gutmütige Systeme vorausgesetzt - gar nicht auf die letzte Nachkommastelle, sondern (ähnlich wie bei Sliding-Mode-Regelungen) mehr auf eine Tendenz an. Da evolutionäre Algorithmen aber gerade zu Beginn einer Iteration die größten Fortschritte in Richtung des Optimums machen, kann schon nach vergleichsweise wenigen Schritten eine deutliche Verbesserung der Gesamtsituation erreicht werden. Gerade um eine schnelle Konvergenz zu erreichen, sind die spezielle Ausprägung und die Parameter des evolutionären Algorithmus mit Bedacht zu wählen. Dafür werden im Rahmen der Arbeit einige Experimente durchgeführt. Anhand der Ergebnisse der Experimente können konkrete Empfehlungen für eine günstige Konfiguration des evolutionären Algorithmus gegeben werden. Um es vorwegzunehmen: Zuviel Aufwand beim evolutionären Algorithmus zu treiben, lohnt sich nicht. Schon mit einfachen Konfigurationen können gute Ergebnisse erzielt werden. Die einzige Maßnahme, die sich bei den Experimenten tatsächlich als vorteilhaft herausstellte, war die Aufteilung der Gesamtpopulation (betrachtete Punktmenge im Lösungsraum) in mehrere Subpopulationen. Schließlich wird noch ein Computerprogramm beschrieben, das die Arbeitsweise des vorgestellten Verfahrens am Bildschirm erlebbar macht. Die einzelnen Komponenten werden vom Programm während der Ausführung mit einigen wesentlichen Rechengrößen visualisiert. Der Betrachter erhält so einen besseren Eindruck vom Zusammenwirken der einzelnen Verfahrens-Teile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um die Nährstoffeffizienz im Boden zu erhöhen und klimarelevante Gasemissionen zu minimieren, sind quantitative Informationen zu den C- und N-Fraktionen im Kot sowie deren Mineralisierungspotential nötig. Da über die Hälfte des fäkalen N mikrobiell gebunden ist, sind Methoden zur Bestimmung der mikrobiellen Kotqualität hilfreich. Ziele der ersten Publikation waren die Anwendung der CFE-Methode zur Bestimmung der mikrobiellen Biomasse in Rinderkot, Ergosterolbestimmung als Marker für die pilzliche Biomasse und Aminozuckernachweis zur Analyse der mikrobiellen Gemeinschaftsstruktur (pilzliches Glucosamin und bakterielle Muramin-säure). Mit Hilfe der CFE-Methode sollten lebende Mikroorganismen im Kot, inklusive Bakterien, Pilze und Archaeen, erfasst werden. Verschiedene Extraktionsmittel wurden für diese Methode getestet, um stabile Extrakte und reproduzierbare mikrobielle Biomasse-C- und -N-Gehalte zu erhalten. Der Einsatz von 0.05 M CuSO4 als Extraktionsmittel löste vorherige Probleme mit der Extraktion CHCl3-labiler N-Komponenten und sorgte für stabile Kotextrakte. Die Methoden wurden in einem Kotinkubationsexperiment bei 25 °C verglichen. Mikrobielle Parameter zeigten dynamische Charakteristika und mögliche Verschiebungen innerhalb der mikrobiellen Gemeinschaft. Im Kot von Färsen betrug das mittlere C/N-Verhältnis 5,6 und der mittlere Cmik/Corg-Quotient 2,2%, das Verhältnis von Ergosterol zum mikrobiellen Biomasse-C war 1,1‰. Ergosterol und Aminozuckeranalyse ergaben einen signifikanten Pilzanteil von über 40% des mikrobiellen Gesamt-C. Für die Analyse mikrobieller Parameter in Rinderkot erwiesen sich alle getesteten Methoden als geeignet. Diese wurden für die folgenden Fütterungsversuche weiter unabhängig voneinander angewendet und verglichen. Die zweite Publikation verglich eine N-defizitäre (ND) und eine ausgeglichene N-Bilanz (NB) bei der Fütterung von Milchkühen unter Berücksichtigung der Kot-inhaltsstoffe, der mikrobiellen Parameter und der Verdaulichkeit. Unterschiede zwischen Individuen und Probennahmetagen wurden ebenfalls miteinbezogen. Mittlerer mikrobieller Biomasse-C- und -N-Gehalt war 37 bzw. 4,9 mg g-1 TM. Der Pilzanteil lag diesmal bei 25% des mikrobiellen Gesamt-C. Die Fütterung zeigte signifikante Effekte auf die Kotzusammensetzung. Das fäkale C/N-Verhältnis der NB-Fütterung war signifikant niedriger als bei ND. Gleiches gilt für das C/N-Verhältnis der mikrobiellen Biomasse mit jeweils 9.1 und 7.0 für ND und NB. Auch die Verdaulichkeit wurde durch die Fütterung beeinflusst. Unverdauter Futterstickstoff, Faserstoffe (NDF) und Hemi-cellulose waren in der ND-Behandlung signifikant erhöht. Einige Parameter zeigten nur einen Einfluss der Probennahmetage, mit den angewendeten Methoden gelang jedoch der eindeutige Nachweis der Fütterungseffekte auf mikrobielle Parameter im Rinderkot, wobei sich die Fütterung in nur einer Variable unterschied. Weitere Fütterungseinflüsse auf die Kotqualität wurden schließlich auch für Rinder unterschiedlicher Leistungsstufen erforscht. Hier waren die Unterschiede in der Fütterung wesentlich größer als in den vorhergehenden Experimenten. Der Kot von Färsen, Niederleistungs- und Hochleistungskühen sowie dessen Einfluss auf N2O-Emissionen, N-Mineralisierung und pflanzliche N-Aufnahme wurden untersucht. Die Färsenfütterung mit geringem N- und hohem ADF-Anteil führte zu pilzdominiertem Kot. Besonders im Vergleich zum Kot der Hochleistungskühe war der Gehalt an mikrobiellem Biomasse-C niedrig, in Verbindung mit einem breiten mikrobiellen C/N-Verhältnis und hohem Ergosterolgehalt. Eingemischt in Boden zeigte Färsenkot die niedrigste CO2-Produktion und höchste N-Immobilisierung sowie niedrigste N2O-Emissionen während einer 14-tägigen Inkubation bei 22 °C. In einem 62-Tage-Gefäßversuch mit Welschem Weidelgras waren der Trocken-masseertrag und die pflanzliche Stickstoffaufnahme in den Färsenbehandlungen am niedrigsten. Die Stickstoffaufnahme durch die Pflanzen korrelierte positiv mit der Stickstoffkonzentration im Kot und negativ mit dem Rohfasergehalt, aber auch negativ mit dem C/N-Verhältnis der mikrobiellen Biomasse und dem Verhältnis von pilzlichem zu bakteriellem C. Mikrobielle Parameter im Kot zeigten einen größeren Zusammen-hang mit der pflanzlichen Stickstoffaufnahme als die mikrobiellen Bodenparameter.