961 resultados para GUT
Resumo:
Der Vielelektronen Aspekt wird in einteilchenartigen Formulierungen berücksichtigt, entweder in Hartree-Fock Näherung oder unter dem Einschluß der Elektron-Elektron Korrelationen durch die Dichtefunktional Theorie. Da die Physik elektronischer Systeme (Atome, Moleküle, Cluster, Kondensierte Materie, Plasmen) relativistisch ist, habe ich von Anfang an die relativistische 4 Spinor Dirac Theorie eingesetzt, in jüngster Zeit aber, und das wird der hauptfortschritt in den relativistischen Beschreibung durch meine Promotionsarbeit werden, eine ebenfalls voll relativistische, auf dem sogenannten Minimax Prinzip beruhende 2-Spinor Theorie umgesetzt. Im folgenden ist eine kurze Beschreibung meiner Dissertation: Ein wesentlicher Effizienzgewinn in der relativistischen 4-Spinor Dirac Rechnungen konnte durch neuartige singuläre Koordinatentransformationen erreicht werden, so daß sich auch noch für das superschwere Th2 179+ hächste Lösungsgenauigkeiten mit moderatem Computer Aufwand ergaben, und zu zwei weiteren interessanten Veröffentlichungen führten (Publikationsliste). Trotz der damit bereits ermöglichten sehr viel effizienteren relativistischen Berechnung von Molekülen und Clustern blieben diese Rechnungen Größenordnungen aufwendiger als entsprechende nicht-relativistische. Diese behandeln das tatsächliche (relativitische) Verhalten elektronischer Systeme nur näherungsweise richtig, um so besser jedoch, je leichter die beteiligten Atome sind (kleine Kernladungszahl Z). Deshalb habe ich nach einem neuen Formalismus gesucht, der dem möglichst gut Rechnung trägt und trotzdem die Physik richtig relativistisch beschreibt. Dies gelingt durch ein 2-Spinor basierendes Minimax Prinzip: Systeme mit leichten Atomen sind voll relativistisch nunmehr nahezu ähnlich effizient beschrieben wie nicht-relativistisch, was natürlich große Hoffnungen für genaue (d.h. relativistische) Berechnungen weckt. Es ergab sich eine erste grundlegende Veröffentlichung (Publikationsliste). Die Genauigkeit in stark relativistischen Systemen wie Th2 179+ ist ähnlich oder leicht besser als in 4-Spinor Dirac-Formulierung. Die Vorteile der neuen Formulierung gehen aber entscheidend weiter: A. Die neue Minimax Formulierung der Dirac-Gl. ist frei von spuriosen Zuständen und hat keine positronischen Kontaminationen. B. Der Aufwand ist weit reduziert, da nur ein 1/3 der Matrix Elemente gegenüber 4-Spinor noch zu berechnen ist, und alle Matrixdimensionen Faktor 2 kleiner sind. C. Numerisch verhält sich die neue Formulierung ähnlilch gut wie die nichtrelativistische Schrödinger Gleichung (Obwohl es eine exakte Formulierung und keine Näherung der Dirac-Gl. ist), und hat damit bessere Konvergenzeigenschaften als 4-Spinor. Insbesondere die Fehlerwichtung (singulärer und glatter Anteil) ist in 2-Spinor anders, und diese zeigt die guten Extrapolationseigenschaften wie bei der nichtrelativistischen Schrödinger Gleichung. Die Ausweitung des Anwendungsbereichs von (relativistischen) 2-Spinor ist bereits in FEM Dirac-Fock-Slater, mit zwei Beispielen CO und N2, erfolgreich gemacht. Weitere Erweiterungen sind nahezu möglich. Siehe Minmax LCAO Nährung.
Resumo:
Als Beispiele für die vielfältigen Phänomene der Physik der Elektronen in niedrigdimensionalen Systemen wurden in dieser Arbeit das Cu(110)(2x1)O-Adsorbatsystem und die violette Li0.9Mo6O17-Bronze untersucht. Das Adsorbatsystem bildet selbstorganisierte quasi-eindimensionale Nanostrukturen auf einer Kupferoberfläche. Die Li-Bronze ist ein Material, das aufgrund seiner Kristallstruktur quasi-eindimensionale elektronische Eigenschaften im Volumen aufweist. Auf der Cu(110)(2x1)O-Oberfläche kann durch Variation der Sauerstoffbedeckung die Größe der streifenartigen CuO-Domänen geändert werden und damit der Übergang von zwei Dimensionen auf eine Dimension untersucht werden. Der Einfluss der Dimensionalität wurde anhand eines unbesetzten elektronischen Oberflächenzustandes studiert. Dessen Energieposition (untere Bandkante) verschiebt mit zunehmender Einschränkung (schmalere CuO-Streifen) zu größeren Energien hin. Dies ist ein bekannter quantenmechanischer Effekt und relativ gut verstanden. Zusätzlich wurde die Lebensdauer des Zustandes auf der voll bedeckten Oberfläche (zwei Dimensionen) ermittelt und deren Veränderung mit der Breite der CuO-Streifen untersucht. Es zeigt sich, dass die Lebensdauer auf schmaleren CuO-Streifen drastisch abnimmt. Dieses Ergebnis ist neu. Es kann im Rahmen eines Fabry-Perot-Modells als Streuung in Zustände außerhalb der CuO-Streifen verstanden werden. Außer den gerade beschriebenen Effekten war es möglich die Ladungsdichte des diskutierten Zustandes orts- und energieabhängig auf den CuO-Streifen zu studieren. Die Li0.9Mo6O17-Bronze wurde im Hinblick auf das Verhalten der elektronischen Zustandsdichte an der Fermikante untersucht. Diese Fragestellung ist besonders wegen der Quasieindimensionalität des Materials interessant. Die Messungen von STS-Spektren in der Nähe der Fermienergie zeigen, dass die Elektronen in der Li0.9Mo6O17-Bronze eine sogenannte Luttingerflüssigkeit ausbilden, die anstatt einer Fermiflüssigkeit in eindimensionalen elektronischen Systemen erwartet wird. Bisher wurde Luttingerflüssigkeitsverhalten erst bei wenigen Materialien und Systemen experimentell nachgewiesen, obschon die theoretischen Voraussagen mehr als 30 Jahre zurückliegen. Ein Charakteristikum einer Luttingerflüssigkeit ist die Abnahme der Zustandsdichte an der Fermienergie mit einem Potenzgesetz. Dieses Verhalten wurde in STS-Spektren dieser Arbeit beobachtet und quantitativ im Rahmen eines Luttingerflüssigkeitsmodells beschrieben. Auch die Temperaturabhängigkeit des Phänomens im Bereich von 5K bis 55K ist konsistent mit der Beschreibung durch eine Luttingerflüssigkeit. Generell zeigen die Untersuchungen dieser Arbeit, dass die Dimensionalität, insbesondere deren Einschränkung, einen deutlichen Einfluss auf die elektronischen Eigenschaften von Systemen und Materialien haben kann.
Resumo:
Die relativistische Multikonfigurations Dirac-Fock (MCDF) Methode ist gegenwärtig eines der am häufigsten benutzten Verfahren zur Berechnung der elektronischen Struktur und der Eigenschaften freier Atome. In diesem Verfahren werden die Wellenfunktionen ausgewählter atomarer Zustände als eine Linearkombination von sogenannten Konfigurationszuständen (CSF - Configuration State Functions) konstruiert, die in einem Teilraum des N-Elektronen Hilbert-Raumes eine (Vielteilchen-)Basis aufspannen. Die konkrete Konstruktion dieser Basis entscheidet letzlich über die Güte der Wellenfunktionen, die üblicherweise mit Hilfe einer Variation des Erwartungswertes zum no-pair Dirac-Coulomb Hamiltonoperators gewonnen werden. Mit Hilfe von MCDF Wellenfunktionen können die dominanten relativistischen und Korrelationseffekte in freien Atomen allgemein recht gut erfaßt und verstanden werden. Außer der instantanen Coulombabstoßung zwischen allen Elektronenpaaren werden dabei auch die relativistischen Korrekturen zur Elektron-Elektron Wechselwirkung, d.h. die magnetischen und Retardierungsbeiträge in der Wechselwirkung der Elektronen untereinander, die Ankopplung der Elektronen an das Strahlungsfeld sowie der Einfluß eines ausgedehnten Kernmodells erfaßt. Im Vergleich mit früheren MCDF Rechnungen werden in den in dieser Arbeit diskutierten Fallstudien Wellenfunktionsentwicklungen verwendet, die um 1-2 Größenordnungen aufwendiger sind und daher systematische Untersuchungen inzwischen auch an Atomen mit offenen d- und f-Schalen erlauben. Eine spontane Emission oder Absorption von Photonen kann bei freien Atomen theoretisch am einfachsten mit Hilfe von Übergangswahrscheinlichkeiten erfaßt werden. Solche Daten werden heute in vielen Forschungsbereichen benötigt, wobei neben den traditionellen Gebieten der Fusionsforschung und Astrophysik zunehmend auch neue Forschungsrichtungen (z.B. Nanostrukturforschung und Röntgenlithographie) zunehmend ins Blickfeld rücken. Um die Zuverlässigkeit unserer theoretischen Vorhersagen zu erhöhen, wurde in dieser Arbeit insbesondere die Relaxation der gebundenen Elektronendichte, die rechentechnisch einen deutlich größeren Aufwand erfordert, detailliert untersucht. Eine Berücksichtigung dieser Relaxationseffekte führt oftmals auch zu einer deutlich besseren Übereinstimmung mit experimentellen Werten, insbesondere für dn=1 Übergänge sowie für schwache und Interkombinationslinien, die innerhalb einer Hauptschale (dn=0) vorkommen. Unsere in den vergangenen Jahren verbesserten Rechnungen zu den Wellenfunktionen und Übergangswahrscheinlichkeiten zeigen deutlich den Fortschritt bei der Behandlung komplexer Atome. Gleichzeitig kann dieses neue Herangehen künftig aber auch auf (i) kompliziertere Schalensstrukturen, (ii) die Untersuchung von Zwei-Elektronen-ein-Photon (TEOP) Übergängen sowie (iii) auf eine Reihe weiterer atomarer Eigenschaften übertragen werden, die bekanntermaßen empflindlich von der Relaxation der Elektronendichte abhängen. Dies sind bspw. Augerzerfälle, die atomare Photoionisation oder auch strahlende und dielektronische Rekombinationsprozesse, die theoretisch bisher nur selten überhaupt in der Dirac-Fock Näherung betrachtet wurden.
Resumo:
Diese Arbeit umfaßt das elektromechanische Design und die Designoptimierung von weit durchstimmbaren optischen multimembranbasierten Bauelementen, mit vertikal orientierten Kavitäten, basierend auf der Finiten Element Methode (FEM). Ein multimembran InP/Luft Fabry-Pérot optischer Filter wird dargestellt und umfassend analysiert. In dieser Arbeit wird ein systematisches strukturelles Designverfahren dargestellt. Genaue analytische elektromechanischer Modelle für die Bauelemente sind abgeleitet worden. Diese können unschätzbare Werkzeuge sein, um am Anfang der Designphase schnell einen klaren Einblick zur Verfügung zu stellen. Mittels des FEM Programms ist der durch die nicht-lineare Verspannung hervorgerufene versteifende Effekt nachgeforscht und sein Effekt auf die Verlängerung der mechanischen Durchstimmungsstrecke der Bauelemente demonstriert worden. Interessant war auch die Beobachtung, dass die normierte Relation zwischen Ablenkung und Spannung ein unveränderliches Profil hat. Die Deformation der Membranflächen der in dieser Arbeit dargestellten Bauelementformen erwies sich als ein unerwünschter, jedoch manchmal unvermeidbarer Effekt. Es zeigt sich aber, dass die Wahl der Größe der strukturellen Dimensionen den Grad der Membrandeformation im Falle der Aktuation beeinflusst. Diese Arbeit stellt ein elektromechanisches in FEMLAB implementierte quasi-3D Modell, das allgemein für die Modellierung dünner Strukturen angewendet werden kann, dar; und zwar indem man diese als 2D-Objekte betrachtet und die dritte Dimension als eine konstante Größe (z.B. die Schichtdicke) oder eine Größe, welche eine mathematische Funktion ist, annimmt. Diese Annahme verringert drastisch die Berechnungszeit sowie den erforderlichen Arbeitsspeicherbedarf. Weiter ist es für die Nachforschung des Effekts der Skalierung der durchstimmbaren Bauelemente verwendet worden. Eine neuartige Skalierungstechnik wurde abgeleitet und verwendet. Die Ergebnisse belegen, dass das daraus resultierende, skalierte Bauelement fast genau die gleiche mechanische Durchstimmung wie das unskalierte zeigt. Die Einbeziehung des Einflusses von axialen Verspannungen und Gradientenverspannungen in die Berechnungen erforderte die Änderung der Standardimplementierung des 3D Mechanikberechnungsmodus, der mit der benutzten FEM Software geliefert wurde. Die Ergebnisse dieser Studie zeigen einen großen Einfluss der Verspannung auf die Durchstimmungseigenschaften der untersuchten Bauelemente. Ferner stimmten die Ergebnisse der theoretischen Modellrechnung mit den experimentellen Resultaten sehr gut überein.
Resumo:
Die in dieser Arbeit durchgeführten Untersuchungen zeigen, daß es möglich ist, komplexe thermische Systeme, unter Verwendung der thermisch-, elektrischen Analogien, mit PSpice zu simulieren. Im Mittelpunkt der Untersuchungen standen hierbei Strangkühlkörper zur Kühlung von elektronischen Bauelementen. Es konnte gezeigt werden,daß alle Wärmeübertragungsarten, (Wärmeleitung, Konvektion und Wärmestrahlung) in der Simulation berücksichtigt werden können. Für die Berechnung der Konvektion wurden verschiedene Methoden hergeleitet. Diese gelten zum einen für verschiedene Kühlkörpergeometrien, wie z.B. ebene Flächen und Kühlrippenzwischenräume, andererseits unterscheiden sie sich, je nachdem, ob freie oder erzwungene Konvektion betrachtet wird. Für die Wärmestrahlung zwischen den Kühlrippen wurden verschiedenen Berechnungsmethoden entwickelt. Für die Simulation mit PSpice wurde die Berechnung der Wärmestrahlung zwischen den Kühlrippen vereinfacht. Es konnte gezeigt werden, daß die Fehler, die durch die Vereinfachung entstehen, vernachlässigbar klein sind. Für das thermische Verhalten einer zu kühlenden Wärmequelle wurde ein allgemeines Modell entworfen. Zur Bestimmung der Modellparameter wurden verschiedene Meßverfahren entwickelt. Für eine im Fachgebiet Elektromechanik entwickelte Wärmequelle zum Test von Kühlvorrichtungen wurde mit Hilfe dieser Meßverfahren eine Parameterbestimmung durchgeführt. Die Erstellung des thermischen Modells eines Kühlkörpers für die Simulation in PSpice erfordert die Analyse der Kühlkörpergeometrie. Damit diese Analyse weitestgehend automatisiert werden kann, wurden verschiedene Algorithmen unter Matlab entwickelt. Es wurde ein Algorithmus entwickelt, der es ermöglicht, den Kühlkörper in Elementarzellen zu zerlegen, die für die Erstellung des Simulationsmodells benötigt werden. Desweiteren ist es für die Simulation notwendig zu wissen, welche der Elementarzellen am Rand des Kühlkörpers liegen, welche der Elementarzellen an einem Kühlrippenzwischenraum liegen und welche Kühlkörperkanten schräg verlaufen. Auch zur Lösung dieser Aufgaben wurden verschiedene Algorithmen entwickelt. Diese Algorithmen wurden zu einem Programm zusammengefaßt, das es gestattet, unterschiedliche Strangkühlkörper zu simulieren und die Simulationsergebnisse in Form der Temperaturverteilung auf der Montagefläche des Kühlkörpers grafisch darzustellen. Es können stationäre und transiente Simulationen durchgeführt werden. Desweiteren kann der thermische Widerstand des Kühlkörpers RthK als Funktion der Verlustleistung der Wärmequelle dargestellt werden. Zur Verifikation der Simulationsergebnisse wurden Temperaturmessungen an Kühlkörpern durchgeführt und mit den Simulationsergebnissen verglichen. Diese Vergleiche zeigen, daß die Abweichungen im Bereich der Streuung der Temperaturmessung liegen. Das hier entwickelte Verfahren zur thermischen Simulation von Strangkühlkörpern kann somit als gut bewertet werden.
Resumo:
In der vorliegenden Arbeit wurde das Wachstum von Silbernanoteilchen auf Magnesiumoxid und dabei insbesondere deren Größen- und Formrelation untersucht. Hierzu wurden Silbernanoteilchen auf ausgedehnten Magnesiumoxidsubstraten sowie auf Magnesiumoxid-Nanowürfeln präpariert. Zur Charakterisierung wurde die optische Spektroskopie, die Rasterkraftmikroskopie und die Transmissionselektronenmikroskopie eingesetzt. Während die Elektronenmikroskopie direkt sehr exakte Daten bezüglich der Größe und Form der Nanoteilchen liefert, kann mit den beiden anderen in dieser Arbeit verwendeten Charakterisierungsmethoden jeweils nur ein Parameter bestimmt werden. So kann man die Größe der Nanoteilchen indirekt mit Hilfe des AFM, durch Messung der Teilchananzahldichte, bestimmen. Bei der Bestimmung der Form mittels optischer Spektroskopie nutzt man aus, dass die spektralen Positionen der Plasmonresonanzen in dem hier verwendeten Größenbereich von etwa 2 - 10~nm nur von der Form aber nicht von der Größe der Teilchen abhängen. Ein wesentliches Ziel dieser Arbeit war es, die Ergebnisse bezüglich der Form und Größe der Nanoteilchen, die mit den unterschiedlichen Messmethoden erhalten worden sind zu vergleichen. Dabei hat sich gezeigt, dass die mit dem AFM und dem TEM bestimmten Größen signifikant voneinander Abweichen. Zur Aufklärung dieser Diskrepanz wurde ein geometrisches Modell aufgestellt und AFM-Bilder von Nanoteilchen simuliert. Bei dem Vergleich von optischer Spektroskopie und Transmissionselektronenmikroskopie wurde eine recht gute Übereinstimmung zwischen den ermittelten Teilchenformen gefunden. Hierfür wurden die gemessenen optischen Spektren mit Modellrechnungen verglichen, woraus man die Relation zwischen Teilchengröße und -form erhielt. Eine Übereinstimmung zwischen den erhaltenen Daten ergibt sich nur, wenn bei der Modellierung der Spektren die Form- und Größenverteilung der Nanoteilchen berücksichtigt wird. Insgesamt hat diese Arbeit gezeigt, dass die Kombination von Rasterkraftmikroskopie und optischer Spektroskopie ein vielseitiges Charakterisierungsverfahren für Nanoteilchen. Die daraus gewonnenen Ergebnisse sind innerhalb gewisser Fehlergrenzen gut mit der Transmissionselektronenmikroskopie vergleichbar.
Resumo:
Bei der Stromversorgung handelte es sich bis zu seiner Liberalisierung 1998 um einen Wirtschaftszweig, der von Gebietsmonopolen auf allen Versorgungsstufen geprägt war. Diese Monopole gründeten im Wesentlichen auf dem natürlichen Monopol des Stromnetzes sowie auf der Bedeutung der Stromversorgung. Auch nach der Liberalisierung ist der Markt noch immer durch die etablierten ehemaligen Gebietsversorger geprägt, die nach wie vor über die Netze verfügen und zudem untereinander und mit der Politik gut vernetzt sind. Damit über das weiterhin bestehende natürliche Monopol bei den Stromnetzen keine wettbewerbswidrigen Interessen verfolgt werden können, bedarf die Transformation der Elektrizitätsversorgung in einen vorwiegend vom Wettbewerb geprägten Markt einiger Anpassungen. Einige Interessenskonflikte können bereits gelöst werden, indem die Marktstruktur an die neuen Bedingungen angepasst wird. Zum einen bedarf es einer Netzzugangsregelung, die dem Netzbetreiber möglichst geringe Missbrauchsmöglichkeiten offen lässt. Damit der Netzbetreiber überdies keine Interessen aus Aktivitäten in wettbewerbsgeprägten Märkten zulasten der Netznutzer verfolgt, ist zumindest der Betrieb des Netzes auf eigentumsrechtlich unabhängige Netzbetreiber zu übertragen. Diese Entflechtungsform sollte scheinbar bequemeren Lösungen, die sich leichter umsetzen lassen, vorgezogen werden. Auf lange Sicht werden die damit verbundenen höheren Regulierungskosten die Markttransformationskosten weit übersteigen. Das Problem des natürlichen Monopols beim Netz bedarf trotz allem einer dauernden Regulierung. Hier empfiehlt sich eine weitreichende ex-ante-Regulierung, in die auch Kriterien einfließen sollten, die den Netzbetreiber zu einem stabilen und sicheren Betrieb des Netzes veranlassen. Infolgedessen dürfte der Bedarf an einer ex-post-Kontrolle durch die Regulierungsinstitution entsprechend gering ausfallen. Die Regulierungsinstitution sollte hierbei nicht auf einige wenige Regulierungsinstrumente festgelegt werden. Die Gefahr der Anmaßung von Wissen, der Regulierungsinstitutionen wegen ihrer im Vergleich zu den Marktteilnehmern größeren Marktferne ausgesetzt sind, lässt sich durch die Akteursbeteiligung in der Regulierungsinstitution verringern: Die Akteure könnten innerhalb eines vorgegebenen Rahmens die Ausgestaltung der Netznutzungsregeln weitestgehend selbst bestimmen, die Aushandelungsmodalitäten hierfür müssen allerdings präzise festgelegt und die getroffenen Regelungen für alle Marktteilnehmer verbindlich sein. Diese Mischform zwischen staatlicher Rahmensetzung und Selbstregulierung nutzt die Regelungspotentiale des Staates und die Selbstorganisationsmöglichkeiten der relevanten Akteure gleichermaßen. Durch die Besetzung der Regulierungsinstitution mit Vertretern der relevanten Akteure wird zudem ein großes Maß an spezifischem Branchenwissen in sie hineingetragen, insbesondere da die vertikal integrierten Elektrizitätsversorgungsunternehmen nach der eigentumsrechtlichen Entflechtung zumindest noch anfangs über einen großen Teil der Informationen über den Netzbetrieb verfügen. Damit wäre das Informationsproblem, das staatlichen Regulierungsstellen anhaftet, geringer. Durch die Interessenlage der Mitglieder der Regulierungsinstitution dürfte sie auf den Netzbetreiber den starken Effizienzdruck ausüben. Der Netzbetreiber sollte hingegen ein Unternehmen im vollständigen öffentlichen Eigentum sein. Damit kann eine Unterwanderung durch Anteilserwerb verhindert und das Netz leichter im Sinne gemeinwirtschaftlicher Verpflichtungen betrieben werden. Dies wäre überdies wegen der Legitimationsprobleme, die mit einer weitgehend unabhängigen, mit umfangreichen und nicht präzise abgegrenzten Eingriffbefugnissen versehenen Regulierungsinstitution einhergehen, vorteilhaft, wenn nicht gar geboten. Damit sind große Teile der Grundrechtsprobleme, die mit der Regulierungsinstitution, ihrer Zusammensetzung und ihren Kompetenzen zusammenhängen, irrelevant.
Resumo:
Seit gut einem Jahrzehnt wird über die so genannte Globalisierung viel geschrieben und geforscht. Es ist an der Zeit Zwischenbilanz zu ziehen. Hat sich mittlerweile ein Konsens herausgeschält, was Globalisierung eigentlich ist, was ihre Ursachen sind und welche Konsequenzen sie zeitigt? Oder haben zumindest die jeweiligen Interpretationen klare Konturen gewonnen? Der Autor gibt hier zunächst einen kurzen, keinesfalls Vollständigkeit beanspruchenden Überblick zum Stand der Diskussionen zum "Globalisierungskomplex" (Hübner 1998). Dieser soll als Grundlage für eine Diskussion der derzeitig in der deutschen Politik gehandelten Antworten auf die Globalisierung dienen.
Resumo:
Angepasste Kommunikationssysteme für den effizienten Einsatz in dezentralen elektrischen Versorgungsstrukturen - In öffentlichen Elektrizitätsnetzen wird der Informationsaustausch seit längerem durch historisch gewachsene und angepasste Systeme erfolgreich bewerkstelligt. Basierend auf einem weiten Erfahrungsspektrum und einer gut ausgebauten Kommunikationsinfrastruktur stellt die informationstechnische Anbindung eines Teilnehmers im öffentlichen Versorgungsnetz primär kein Hemmnis dar. Anders gestaltet sich dagegen die Situation in dezentralen Versorgungsstrukturen. Da die Elektrifizierung von dezentralen Versorgungsgebieten, mittels der Vernetzung vieler verteilter Erzeugungsanlagen und des Aufbaus von nicht an das öffentliche Elektrizitätsnetz angeschlossenen Verteilnetzen (Minigrids), erst in den letzten Jahren an Popularität gewonnen hat, sind nur wenige Projekte bis dato abgeschlossen. Für die informationstechnische Anbindung von Teilnehmern in diesen Strukturen bedeutet dies, dass nur in einem sehr begrenzten Umfang auf Erfahrungswerte bei der Systemauswahl zurückgegriffen werden kann. Im Rahmen der Dissertation ist deshalb ein Entscheidungsfindungsprozess (Leitfaden für die Systemauswahl) entwickelt worden, der neben einem direkten Vergleich von Kommunikationssystemen basierend auf abgeleiteten Bewertungskriterien und Typen, der Reduktion des Vergleichs auf zwei Systemwerte (relativer Erwartungsnutzenzuwachs und Gesamtkostenzuwachs), die Wahl eines geeigneten Kommunikationssystems für die Applikation in dezentralen elektrischen Versorgungsstrukturen ermöglicht. In Anlehnung an die klassische Entscheidungstheorie werden mit der Berechnung eines Erwartungsnutzens je Kommunikationssystems, aus der Gesamtsumme der Einzelprodukte der Nutzwerte und der Gewichtungsfaktor je System, sowohl die technischen Parameter und applikationsspezifischen Aspekte, als auch die subjektiven Bewertungen zu einem Wert vereint. Mit der Ermittlung der jährlich erforderlichen Gesamtaufwendungen für ein Kommunikationssystem bzw. für die anvisierten Kommunikationsaufgaben, in Abhängigkeit der Applikation wird neben dem ermittelten Erwartungsnutzen des Systems, ein weiterer Entscheidungsparameter für die Systemauswahl bereitgestellt. Die anschließende Wahl geeigneter Bezugsgrößen erlaubt die Entscheidungsfindung bzgl. der zur Auswahl stehenden Systeme auf einen Vergleich mit einem Bezugssystem zurückzuführen. Hierbei sind nicht die absoluten Differenzen des Erwartungsnutzen bzw. des jährlichen Gesamtaufwandes von Interesse, sondern vielmehr wie sich das entsprechende System gegenüber dem Normal (Bezugssystem) darstellt. Das heißt, der relative Zuwachs des Erwartungsnutzen bzw. der Gesamtkosten eines jeden Systems ist die entscheidende Kenngröße für die Systemauswahl. Mit dem Eintrag der berechneten relativen Erwartungsnutzen- und Gesamtkostenzuwächse in eine neu entwickelte 4-Quadranten-Matrix kann unter Berücksichtigung der Lage der korrespondierenden Wertepaare eine einfache (grafische) Entscheidung bzgl. der Wahl des für die Applikation optimalsten Kommunikationssystems erfolgen. Eine exemplarisch durchgeführte Systemauswahl, basierend auf den Analyseergebnissen von Kommunikationssystemen für den Einsatz in dezentralen elektrischen Versorgungsstrukturen, veranschaulicht und verifiziert die Handhabung des entwickelten Konzeptes. Die abschließende Realisierung, Modifikation und Test des zuvor ausgewählten Distribution Line Carrier Systems unterstreicht des Weiteren die Effizienz des entwickelten Entscheidungsfindungsprozesses. Dem Entscheidungsträger für die Systemauswahl wird insgesamt ein Werkzeug zur Verfügung gestellt, das eine einfache und praktikable Entscheidungsfindung erlaubt. Mit dem entwickelten Konzept ist erstmals eine ganzheitliche Betrachtung unter Berücksichtigung sowohl der technischen und applikationsspezifischen, als auch der ökonomischen Aspekte und Randbedingungen möglich, wobei das Entscheidungsfindungskonzept nicht nur auf die Systemfindung für dezentrale elektrische Energieversorgungsstrukturen begrenzt ist, sondern auch bei entsprechender Modifikation der Anforderungen, Systemkenngrößen etc. auf andere Applikationsanwendungen übertragen werden.
Resumo:
Die vielfältigen Funktionen der sekundären Pflanzenstoffe sowohl im Organismus der Pflanze, als auch im Körper des Menschen bieten der Wissenschaft ein weites Betätigungsfeld. Die Carotinoide findet man in fast allen Plastiden der Pflanze und sie erfüllen dort Aufgaben in Form von Pigmenten, Antioxidantien, Hormonen und zählen außerdem zu den wichtigsten Bestandteilen des Photosyntheseapparates. Im menschlichen Organismus hingegen wirken sie als Provitamin A und in den Endverästelungen der Blutgefäße bei niedrigem Sauerstoffpartialdruck. Des Weiteren besitzen sie die Fähigkeiten freie Radikale unschädlich zu machen und wirken in vitro als Fänger von energiereichem Singulettsauerstoff. Die Polyphenole, die man zu der Stoffgruppe der Phenole zählt, befinden sich in den Randschichten von Obst, Gemüse, Getreide und anderen Samen. Ihnen obliegt die Aufgabe die darunter befindlichen Gewebe vor antioxidativem Verderb zu schützen. Im Körper des Menschen dagegen besitzen sie eine gerinnungshemmende Wirkung, schützen die Zellen vor Oxidation und üben Fähigkeiten aus, die Krebs vorbeugen können. Im Zuge dieser Literaturarbeit werden endogene und exogene Faktoren beschrieben, die auf Pflanzen allgemein und auf die Fokusprodukte Möhre (Daucus carota L.) und Weizen (Triticum aestivum L.) speziell einwirken. Die pflanzenphysiologische Herkunft und Bedeutung der sekundären Pflanzenstoffgruppen Carotinoide und Polyphenole wird dargestellt. Schließlich wird die vorhandene Literatur ausgewertet, die sich mit der Beeinflussung des Gehaltes der genannten sekundären Pflanzenstoffe in den gewählten Fokusprodukten durch exogene und endogene Faktoren beschäftigt. Die Beeinflussung des Polyphenolgehaltes in Möhre und des Carotinoid- und Polyphenolgehaltes in Weizen ist nur wenig untersucht. Dagegen ist die Beeinflussung des Carotinoidgehaltes in Möhren durch exogene und endogene Faktoren gut beschrieben. Der Faktor „Sorte“ spielt aufgrund der vorhandenen genetischen Anlagen (carotinoidreich / carotinoidarm) eine wesentliche Rolle bei der späteren Ausbildung des Carotinoidgehaltes in der Möhre. Die Reife der Möhre, die u.a. das Ergebnis des Einwirkens exogener Faktoren, wie Temperatur, Wuchsraum, verfügbare Wassermenge im Boden sowie der Niederschläge ist, beeinflusst maßgeblich den späteren Gehalt an Carotinoiden. Des Weiteren üben noch anbautechnische Maßnahmen (z.B. Düngung, Herbizidbehandlungen, Produktionstechnik) einen Einfluss auf den Carotinoidgehalt der Möhre aus. Der Phenolgehalt in Möhren wurde bisher ausschließlich auf Sortenebene verglichen. In einer Studie von Zhang & Hamauzu (2004) fand man heraus, dass der Phenol-Gehalt in den verschiedenen Geweben der Möhre von der Schale in Richtung Phloem und Xylem anstieg, während sich die antioxidantischen und radical scavening Aktivitäten auf gleiche Weise, wie der Phenol-Gehalt erhöhten und wiederum mit dem totalen Phenol-Gehalt korrelierten. Die phenolischen Extrakte verfügten über stärkere radical scavening Fähigkeiten, als die zum Vergleich herangezogenen Reinsubstanzen Chlorogensäure, Vitamin C und β-Carotin. Insgesamt wurde aufgrund dieser Studie vermutet, dass sich der höchste Gehalt an Phenolen in der Schale der Möhre befindet. Das geringe Vorliegen von Studien bezüglich des Carotinoid- und Phenolgehaltes in Weizen kann man darauf zurückführen, dass die sekundären Pflanzenstoffe im Vergleich zum Proteingehalt keine wesentliche Rolle als Qualitätsmerkmal beim Fokusprodukt Weizen spielen. Der Gehalt an Phenolen und Carotinoiden wurde bisher ausschließlich auf Sortenebene untersucht. Die Untersuchungen ergaben, dass der Gehalt an sekundären Pflanzenstoffen (Phenole, Tocopherole, Carotinoide) stark durch die Sorte beeinflusst wird.
Resumo:
In zebrafish, germ cells are responsible for transmitting the genetic information from one generation to the next. During the first cleavages of zebrafish embryonic development, a specialized part of the cytoplasm known as germ plasm, is responsible of committing four blastomeres to become the progenitors of all germ cells in the forming embryo. Much is known about how the germ plasm is spatially distributed in early stages of primordial germ cell development, a process described to be dependant on microtubules and actin. However, little is known about how the material is inherited after it reorganizes into a perinuclear location, or how is the symmetrical distribution regulated in order to ensure proper inheritance of the material by both daughter cells. It is also not clear whether there is a controlled mechanism that regulates the number of granules inherited by the daughter cells, or whether it is a random process. We describe the distribution of germ plasm material from 4hpf to 24hpf in zebrafish primordial germ cells using Vasa protein as marker. Vasa positive material appears to be conglomerate into 3 to 4 big spherical structures at 4hpf. While development progresses, these big structures become smaller perinuclear granules that reach a total number of approximately 30 at 24hpf. We investigated how this transformation occurs and how the minus-end microtubule dependent motor protein Dynein plays a role in this process. Additionally, we describe specific colocalization of microtubules and perinuclear granules during interphase and more interestingly, during all different stages of cell division. We show that distribution of granules follow what seems to be a regulated distribution: during cells division, daughter cells inherit an equal number of granules. We propose that due to the permanent colocalization of microtubular structures with germinal granules during interphase and cell division, a coordinated mechanism between these structures may ensure proper distribution of the material among daughter cells. Furthermore, we show that exposure to the microtubule-depolymerizing drug nocodazole leads to disassembly of the germ cell nuclear lamin matrix, chromatin condensation, and fusion of granules to a big conglomerate, revealing dependence of granular distribution on microtubules and proper nuclear structure.
Resumo:
In dieser Arbeit werden zwei Aspekte bei Randwertproblemen der linearen Elastizitätstheorie untersucht: die Approximation von Lösungen auf unbeschränkten Gebieten und die Änderung von Symmetrieklassen unter speziellen Transformationen. Ausgangspunkt der Dissertation ist das von Specovius-Neugebauer und Nazarov in "Artificial boundary conditions for Petrovsky systems of second order in exterior domains and in other domains of conical type"(Math. Meth. Appl. Sci, 2004; 27) eingeführte Verfahren zur Untersuchung von Petrovsky-Systemen zweiter Ordnung in Außenraumgebieten und Gebieten mit konischen Ausgängen mit Hilfe der Methode der künstlichen Randbedingungen. Dabei werden für die Ermittlung von Lösungen der Randwertprobleme die unbeschränkten Gebiete durch das Abschneiden mit einer Kugel beschränkt, und es wird eine künstliche Randbedingung konstruiert, um die Lösung des Problems möglichst gut zu approximieren. Das Verfahren wird dahingehend verändert, dass das abschneidende Gebiet ein Polyeder ist, da es für die Lösung des Approximationsproblems mit üblichen Finite-Element-Diskretisierungen von Vorteil sei, wenn das zu triangulierende Gebiet einen polygonalen Rand besitzt. Zu Beginn der Arbeit werden die wichtigsten funktionalanalytischen Begriffe und Ergebnisse der Theorie elliptischer Differentialoperatoren vorgestellt. Danach folgt der Hauptteil der Arbeit, der sich in drei Bereiche untergliedert. Als erstes wird für abschneidende Polyedergebiete eine formale Konstruktion der künstlichen Randbedingungen angegeben. Danach folgt der Nachweis der Existenz und Eindeutigkeit der Lösung des approximativen Randwertproblems auf dem abgeschnittenen Gebiet und im Anschluss wird eine Abschätzung für den resultierenden Abschneidefehler geliefert. An die theoretischen Ausführungen schließt sich die Betrachtung von Anwendungsbereiche an. Hier werden ebene Rissprobleme und Polarisationsmatrizen dreidimensionaler Außenraumprobleme der Elastizitätstheorie erläutert. Der letzte Abschnitt behandelt den zweiten Aspekt der Arbeit, den Bereich der Algebraischen Äquivalenzen. Hier geht es um die Transformation von Symmetrieklassen, um die Kenntnis der Fundamentallösung der Elastizitätsprobleme für transversalisotrope Medien auch für Medien zu nutzen, die nicht von transversalisotroper Struktur sind. Eine allgemeine Darstellung aller Klassen konnte hier nicht geliefert werden. Als Beispiel für das Vorgehen wird eine Klasse von orthotropen Medien im dreidimensionalen Fall angegeben, die sich auf den Fall der Transversalisotropie reduzieren lässt.
Resumo:
Am Beispiel der in der Wetterau gelegenen Reichsgrafschaft Solms-Rödelheim werden in der Dissertation die Existenzbedingungen der kleinen und kleinsten selbstständigen Reichsstände im Heiligen Römischen Reich Deutscher Nation der Frühen Neuzeit untersucht. Erkenntnisleitend ist dabei die Frage, ob und wie solche Territorien nicht nur trotz wiederkehrender Existenzbedrohungen bis zum Ende des Alten Reichs überleben konnten, sondern durch welche Strategien es ihnen gelang, dabei teilweise recht erfolgreich zu sein, wobei sich Erfolg durch politische Stabilität und wirtschaftliche Effizienz äußern konnte. Diese Frage rückt die zahlreichen kleinen Stände in den Fokus, nachdem diese lange Zeit marginalisiert und als bloße Objekte im Spiel der mächtigen Fürsten angesehen wurden. Insofern füllt sie eine bis heute evidente Lücke in der historischen Forschung zu frühneuzeitlicher Landesherrschaft, aber auch zum Funktionieren des Reichs als Verbund von Hoch-adelsherrschaften insgesamt. Zu ihrer Beantwortung werden zunächst systematisch die territorialen und rechtlichen Grundlagen reichsgräflicher Herrschaft herausgearbeitet, die aus einer größeren Zahl einzelner Rechts- und Herrschaftstitel zusammengesetzt waren. Die Herrschaft der Reichsgrafen unterschied sich also im 18. Jahrhundert deutlich von derjenigen der meisten Fürsten, die oft eine autonome und einheitliche Landeshoheit hatten herausbilden können. Die verstreut liegenden Gebiete, auf die sie sich bezog, wurden durch eine wirtschaftliche und herrschaftliche Administration verwaltet, die trotz kleiner Dimensionen als auf der Höhe der Zeit befindlich und leistungsfähig bezeichnet werden kann. Sowohl Herrschaft als auch Ökonomie waren dabei jederzeit stark auf die Person des regierenden Reichsgrafen ausge-richtet, weshalb in der Dissertation der Begriff „personale Ökonomie“ analog zur geläufigen „personalen Herrschaft“ entwickelt wird. Die schmale territoriale Basis konnte im späten 17. und im 18. Jahrhundert auf verschiedenen Wegen erweitert werden. Durch eine rigidere Kontrolle über die Weitergabe durch Vererbung durch die Durchsetzung der Primogenitur gelang es zudem, eine neuerliche Zersplitterung beim Tod eines Regenten weitgehend zu verhindern. Dass dies jedoch nicht die Lösung aller Probleme bedeutete, zeigt die Untersuchung der Position des Sekundogenitus, die – insbesondere wenn er der Erbe eines verfeindeten Bruders war – große Bedeutung für die Entwicklung einer Reichsgrafschaft gewinnen konnte. Im letzten Kapitel schließlich rückt das in der Dissertation entwickelte Konzept der „Herrschaft durch Delegation“ in den Mittelpunkt. Danach funktionierte eine Landesherrschaft kleiner und kleinster Reichsstände angesichts der großen Herausforderungen bei gleichzeitig geringer Macht und vergleichsweise wenig leistungsfähiger Verwaltungen dann besonders gut, wenn die Landesherren darauf verzichteten, alle ihnen prinzipiell zustehenden Rechte selbst auszuüben, sondern sie statt dessen an Dritte delegierten. Für die Reichsgrafen von Solms-Rödelheim wird herausgearbeitet, dass besonders Haus und Familie, Ständische Bündnissysteme wie der Wetterauer Grafenverein, der Oberrheinische Reichskreis und innerterritoriale Mediatgewalten, hier v.a. die Gemeinden, große Bedeutung als Träger delegierter Herrschaft besaßen.
Resumo:
Im Rahmen der vorliegenden Arbeit sollten mit Hilfe molekularer Techniken die Verwandtschaftsbeziehungen innerhalb der Gattung Fosterella (Bromeliaceae) geklaert und eine umfassende Phylogenie erstellt werden. Im Vordergrund standen dabei die folgenden Fragen: Sind die aufgrund von morphologischen Merkmalen bzw. ihrer geographischen Verbreitung bisher beschriebenen 30 Fosterella-Arten auch molekular voneinander abgrenzbar und wie sind die einzelnen Arten miteinander verwandt? Lassen sich innerhalb der Gattung evolutionaere Linien identifizieren? Sind Akzessionen, die bisher noch keiner Art zugeordnet werden konnten, genetisch distinkt? Laesst sich eine Schwestergattung von Fosterella herausstellen? Zwei verschiedene molekulare Techniken, die AFLP-Methode (amplified fragment length polymorphism, Vos et al. 1995) und die vergleichende Sequenzierung verschiedener Mitochondrien- und Chloroplasten-DNA-Regionen wurden zur phylogenetischen Untersuchung der Gattung Fosterella etabliert und optimiert. Diese beiden Methoden wurden anschliessend vergleichend fuer die molekularsystematischen Studien eingesetzt. Folgende Ergebnisse konnten erzielt werden: Fuer die erstmals innerhalb der Gattung Fosterella eingesetzte AFLP-Methode wurden acht Primerkombinationen fuer die Hauptanalysen ausgewaehlt. Die AFLP-Bandenmuster erwiesen sich als komplex, distinkt und reproduzierbar und sowohl intra- als auch interspezifisch informativ. Insgesamt wurden mit 77 Proben aus mindestens 18 der bisher beschriebenen 30 Arten 310 informative AFLP-Merkmale erzeugt und mittels verschiedener Analyseverfahren ausgewertet. Die Darstellung der Ergebnisse erfolgte in Form von Phaenogrammen, Kladogrammen und in einem dreidimensionalen Koordinatensystem (Hauptkoordinatenanalyse). Zur statistischen Absicherung wurden Bootstrap-Analysen durchgefuehrt. Die Topologien der einzelnen Baeume untereinander stimmten weitgehend ueberein, wobei sich insgesamt 12 Artengruppen definieren liessen, die statistisch unterschiedlich gut abgesichert waren. In einigen Gruppen liessen sich enge Verwandtschaftsbeziehungen feststellen, die bis auf wenige Ausnahmen, nicht befriedigend aufgeloest sind. Einige der in diese Untersuchung einbezogenen, bisher noch keiner Art zugeordneten Taxa liessen sich z. T. in die entstandenen Artengruppen einordnen oder aufgrund ihrer distinkten Position in den Stammbaeumen vermuten, dass es sich um neue Arten handelt. Fuer die vergleichende DNA-Sequenzierung wurde zunaechst die Eignung verschiedener Chloroplasten- und Mitochondrien-DNA-Regionen getestet. Die Bereiche atpB-rbcL, psbB-psbH und rps16-Intron wurden fuer die vergleichende Sequenzierung der Chloroplasten-DNA als geeignet befunden, waehrend alle untersuchten Mitochondrien-Loci eine so geringe Sequenzvariabilitaet aufwiesen, dass sie nicht weiter in Betracht gezogen wurden. Die drei Chloroplastenloci wurden mit 61 Akzessionen aus 24 der bisher 30 beschriebenen Fosterella-Arten sowie 44 Akzessionen aus sechs der acht Unterfamilien (nach Givnish et al. im Druck) sowohl einzeln, als auch kombiniert ausgewertet. Die Merkmalsmatrix wurde sowohl mit einem Distanzverfahren, als auch mit Maximum Parsimonie-, Maximum Likelihood- und Bayes´schen-Methoden analysiert. Die mit den verschiedenen Methoden erhaltenen Baumtopologien waren weitgehend kongruent. Es konnte gezeigt werden, dass die Gattung Fosterella monophyletisch ist. Zudem besteht eine sehr gut gestuetzte Schwestergruppenbeziehung der Gattung zu einer Gruppe aus den Gattungen Dyckia, Encholirium und Deuterocohnia. Die in Givnish et al. (im Druck) gezeigte Einordnung von Fosterella in die Pitcairnioideae s. str. wurde ebenfalls bestaetigt. Basal laesst sich die Gattung Fosterella in zwei Linien einteilen, von denen eine auf die F. penduliflora-Gruppe entfaellt und die andere alle anderen sechs Gruppen vereint. Insgesamt laesst sich festhalten, dass der Grossteil der bisher beschriebenen 30 Fosterella-Arten auch molekular voneinander abgrenzbar ist, sie also genetisch distinkte Taxa (Monophyla) darstellen. Die meisten Spezies lassen sich Artengruppen zuordnen, innerhalb derer die Verwandtschaft allerdings z. T. ungeklaert bleibt. Diese Speziesgruppen bilden monophyletische Linien mit unterschiedlicher statistischer Unterstuetzung. Einige bisher nur morphologisch definierte Taxa zeigen eine enorme genetische Variabilitaet Die Beziehungen zwischen den einzelnen Gruppen der Gattung Fosterella sind zum Teil nur wenig aufgelaest. Die Ergebnisse der beiden in der vorliegenden Arbeit eingesetzten Techniken sind weitgehend kongruent und fuer die Verwandtschaftsanalyse der Gattung Fosterella als geeignet einzustufen. Die Aufloesung der AFLP-Baeume deutet allerdings auf eine noch bessere Nuetzlichkeit fuer die Untersuchung innerhalb der einzelnen Artengruppen hin, waehrend die vergleichende Sequenzierung durch Ergaenzung weiterer Regionen relativ klare Strukturen innerhalb der Gattung Fosterella erkennen laesst (vgl. Rex et al. 2006).
Resumo:
Im Rahmen dieser Arbeit wurde mittels einer umfassenden und von einer Projektgruppe begleiteten Literaturanalyse sowie anhand von Praxiserhebungen der Frage nachgegangen, wie es um die Tiergesundheit in der ökologischen Schweinehaltung bestellt ist. Ferner wurde untersucht, ob die ökologischen Rahmenrichtlinien (EWG-VO 2092/91) ein Hemmnis für die Sicherstellung eines hohen Gesundheitsstatus der Nutztiere darstellen. Die Literaturauswertung ergab, dass die Erkrankungsraten sowohl auf ökologisch wie auf konventionell geführten Betrieben ein hohes Niveau aufwiesen. Die Ursachen wurden vorrangig in einem unzureichenden betrieblichen Management gesehen, während den EG-Rahmenrichtlinien in der Regel keine maßgebliche Bedeutung für den Gesundheitsstatus beigemessen wurde. In Praxiserhebungen wurde die Status-quo-Situation zur Tiergesundheit auf sechs ökologisch wirt- schaftenden Schweinemastbetrieben erfasst. Ferner wurde untersucht, inwieweit eine Verbesserung des Gesundheitsstatus auf den Betrieben mit einem Mehraufwand an Arbeitszeit und Investitionen verbunden ist. Hierzu wurden die Bereiche Haltung, Fütterung und Hygienemanagement mittels einer Schwachstellenanalyse (Hazard Analysis Critical Control Points-Konzept) beurteilt. Der Zeit- bedarf für Maßnahmen zur Gesundheitsvorsorge wurde durch Arbeitszeitaufzeichnungen erfasst. Die Untersuchungen zeigten, dass auf den Betrieben zum Teil erhebliche Mängel im Hygiene- management bestanden. Anhand von Schlachtkörperbefunden wurde eine hohe Rate pathologischer Leberveränderungen, verursacht durch Larven des Schweinespulwurms Ascaris suum, diagnosti- ziert. Insgesamt wiesen die Schlachtkörper der Tiere von den sechs Betrieben mit durchschnittlich 48,8 % sowie die Schlachtkörper von ökologischen Vergleichsbetrieben mit 63,9 % signifikant höhere Befundraten auf als die Schlachtkörper konventioneller Vergleichsbetriebe (17,4 %). Der Arbeitszeitbedarf für die Mastschweinehaltung auf den sechs Betrieben variierte zwischen 2,0 und 3,7 Arbeitskraftstunden pro Mastplatz und Jahr und lag damit deutlich höher als vergleichbare Literaturdaten. Zwischen den Betrieben traten hohe Unterschiede hinsichtlich der zeitlichen Aufwendungen für Hygiene- und Tiergesundheitsmaßnahmen auf. Während der Interventionsphase wurden das Entwurmungs- und das Hygieneregime der sechs Betriebe optimiert. Die Buchten wurden ordnungsgemäß gereinigt und desinfiziert und der erforderliche Arbeitszeitaufwand quantifiziert. Dieser lag zusammen mit den zusätzlichen Kosten um ca. 46 % höher als der betrieblich übliche Arbeitszeitaufwand. Betriebe mit neu konzipierten Ställen und glatten Buchtenböden und -wänden konnten diese mit vergleichsweise geringem Arbeitsaufwand reinigen und desinfizieren. In einigen Altgebäuden hingegen war aufgrund rauer und schadhafter Oberflächen eine ordnungsgemäße Reinigung und Desinfektion nur bedingt durchzuführen. Die Rate der Leberveränderungen am Schlachthof konnte von durchschnittlich 48,9 % auf 32,7 % gesenkt werden. Während sich die Befundraten auf einigen Betrieben signifikant verbesserten, trat bei der Nutzung von unrenovierten Ställen in Altgebäuden keine Besserung ein. Es wird geschlussfolgert, dass die Rahmenbedingungen der EG-Verordnung einem hohen Tiergesundheitsstatus nicht entgegen stehen, in der Regel jedoch mit einem erhöhten Aufwand für Hygienemaßnahmen verbunden sind. Voraussetzung für eine geringe Parasitenbelastung sind ein konsequent umgesetztes Hygiene- und Entwurmungsregime sowie gut zu reinigende Buchten. Letzteres ist allerdings bei der Nutzung von Altgebäuden nicht immer gegeben.