280 resultados para TEU-Faktor
Resumo:
Bei dem Konzept Makerspace handelt es sich um ein niedrigschwelliges Angebot, das für alle Besucher Anreize, Ideen und Unterstützung bieten kann. Durch den Faktor des gemeinsamen Lernens werden soziale Grenzen überbrückt und neue Netzwerke gebildet, implizites Wissen wird ausgetauscht und Lernen neu erfahren. Der Makerspace bietet eine Bühne, um eigene Erfahrungen auszutauschen, Wissen an Interessierte weiterzugeben oder gemeinschaftlich an einem kreativen Projekt zu arbeiten. Als Ort des Lernens und der Information, aber auch als Treffpunkt bieten öffentliche Bibliotheken einen idealen Rahmen für ein entsprechendes Angebot. Das modulare Makerspace-Konzept ermöglicht ihnen, die Angebote ganz nach ihren Bedürfnissen und Ansprüchen auszurichten. Vorhandene Medienbestände können in die Makerspace-Aktivitäten eingebunden werden. Makerspaces sind vielversprechende Zukunftsmodelle kollektiver Erfahrungsräume und bieten Platz für eine inklusive Lernwerkstatt für die Gemeinschaft. Aufgrund der vorliegenden Analyse empfiehlt das Projektteam für die Stadtbibliothek Göttingen mit dem Koffermodul zu starten, um die Teilnehmer und Mitarbeiter nicht zu überfordern. Die räumlichen Gegebenheiten lassen aber in einem späteren Stadium auch die Module Schrank und Raum zu. Diese Erweiterungen sollten von der Nutzung und der Nachfrage abhängig gemacht werden.
Resumo:
Das in unserer Arbeitsgruppe entwickelte relativistische Molekülstrukturprogramm RELMOS erlaubt die Berechnung der totalen Energie kleiner Moleküle und Cluster mit der Dichtefunktional-Methode. Das Programm arbeitet mit numerischen Basissätzen aus atomaren DFT-Rechnungen; alle vorkommenden Matrixelemente müssen daher duch eine dreidimensionale numerische Integrationsregel ausgewertet werden. Die linear mit der Zahl der Stützstellen der numerischen Regel skalierende Rechenzeit, bestimmt im Wesentlichen die Gesamtlaufzeit des Programms und beschränkt in der Praxis die Größe der berechenbaren Systeme. Die zu berechnenden Mehr-Zentren-Integrale können wie die atomaren Basisfunktionen an einem oder mehreren Kernorten gepeakt sein, so dass eine direkte Integration sehr ineffektiv ist. Die große Zahl der durchzuführenden Integrationen verlangt weiterhin die Aufstellung einer gemeinsamen Integrationsregel für alle vorkommenden Integrale. Durch eine Raumaufteilung kann ein solches Mehr-Zentren- Integral in eine Summe von Ein-Zentren-Integralen zerlegt werden. Anschließend kann für jedes Zentrum eine numerische Integrationsregel aufgestellt werden, die dem Verlauf der Wellenfunktionen in der Nähe der Kerne Rechnung trägt. Ziel ist dabei, die Regel so zu wählen, dass sie für alle Integranden geeignet ist, dabei aber eine möglichst geringe Zahl von Stützstellen benötigt. Im Rahmen dieser Arbeit ist ein Programmpaket entstanden, dass die Erzeugung einer numerischen Integrationsregel für Mehr-Zentren-Systeme erlaubt. Der Algorithmus des Integrationspaketes ist sehr allgemein gehalten. Für jede Raumdimension und jedes Integrationszentrum lassen sowohl die numerische Integrationsregel, als auch Koordinatentransformationen und Genauigkeitsanforderungen getrennt angeben. Die Anzahl der Integrationspunkte kann mit Hilfe von Testfunktionen an die unterschiedlichen Raumbereiche angepasst werden. Anschließend kann die Anzahl der Punkte durch eine eventuell vorhandene Molekülsymmetrie reduziert werden. Das Integrationspaket wurde an Atomen und an Molekülen unterschiedlicher Größe und Symmetrie getestet und mit der bisher verwendeten Methode von Baerends et. al verglichen. Dabei wurde die jeweils erreichte Genauigkeit für verschiedene Größen in Abhängigkeit der Zahl der Integrationspunkte betrachtet. Gegenüber dem Verfahren von Baerends zeigt sich eine Verbesserung in der Anzahl der Integrationspunkte um einen Faktor vier bis neun bei gleicher Genauigkeit, während bei festgehaltener Zahl der Integrationspunkte die numerische Genauigkeit um zwei bis drei Größenordnungen gesteigert wird.
Resumo:
Die Maßnahmen zur Förderung der Windenergie in Deutschland haben wichtige Anstöße zur technologischen Weiterentwicklung geliefert und die Grundlagen für den enormen Anlagenzubau geschaffen. Die installierte Windleistung hat heute eine beachtliche Größenordnung erreicht und ein weiteres Wachstum in ähnlichen Dimensionen ist auch für die nächsten Jahre zu erwarten. Die aus Wind erzeugte elektrische Leistung deckt bereits heute in einigen Netzbereichen die Netzlast zu Schwachlastzeiten. Dies zeigt, dass die Windenergie ein nicht mehr zu vernachlässigender Faktor in der elektrischen Energieversorgung geworden ist. Im Rahmen der Kraftwerkseinsatzplanung sind Betrag und Verlauf der Windleistung des folgenden Tages mittlerweile zu wichtigen und zugleich schwierig zu bestimmenden Variablen geworden. Starke Schwankungen und falsche Prognosen der Windstromeinspeisung verursachen zusätzlichen Bedarf an Regel- und Ausgleichsleistung durch die Systemführung. Das im Rahmen dieser Arbeit entwickelte Prognosemodell liefert die zu erwartenden Windleistungen an 16 repräsentativen Windparks bzw. Gruppen von Windparks für bis zu 48 Stunden im Voraus. Aufgrund von prognostizierten Wetterdaten des deutschen Wetterdienstes (DWD) werden die Leistungen der einzelnen Windparks mit Hilfe von künstlichen neuronalen Netzen (KNN) berechnet. Diese Methode hat gegenüber physikalischen Verfahren den Vorteil, dass der komplexe Zusammenhang zwischen Wettergeschehen und Windparkleistung nicht aufwendig analysiert und detailliert mathematisch beschrieben werden muss, sondern anhand von Daten aus der Vergangenheit von den KNN gelernt wird. Das Prognosemodell besteht aus zwei Modulen. Mit dem ersten wird, basierend auf den meteorologischen Vorhersagen des DWD, eine Prognose für den Folgetag erstellt. Das zweite Modul bezieht die online gemessenen Leistungsdaten der repräsentativen Windparks mit ein, um die ursprüngliche Folgetagsprognose zu verbessern und eine sehr genaue Kurzzeitprognose für die nächsten drei bis sechs Stunden zu berechnen. Mit den Ergebnissen der Prognosemodule für die repräsentativen Standorte wird dann über ein Transformationsmodell, dem so genannten Online-Modell, die Gesamteinspeisung in einem größeren Gebiet berechnet. Das Prognoseverfahren hat seine besonderen Vorzüge in der Genauigkeit, den geringen Rechenzeiten und den niedrigen Betriebskosten, da durch die Verwendung des bereits implementierten Online-Modells nur eine geringe Anzahl von Vorhersage- und Messstandorten benötigt wird. Das hier vorgestellte Prognosemodell wurde ursprünglich für die E.ON-Netz GmbH entwickelt und optimiert und ist dort seit Juli 2001 im Einsatz. Es lässt sich jedoch auch leicht an andere Gebiete anpassen. Benötigt werden dazu nur die Messdaten der Leistung ausgewählter repräsentativer Windparks sowie die dazu gehörenden Wettervorhersagen, um die KNN entsprechend zu trainieren.
Resumo:
Die stereoskopische 3-D-Darstellung beruht auf der naturgetreuen Präsentation verschiedener Perspektiven für das rechte und linke Auge. Sie erlangt in der Medizin, der Architektur, im Design sowie bei Computerspielen und im Kino, zukünftig möglicherweise auch im Fernsehen, eine immer größere Bedeutung. 3-D-Displays dienen der zusätzlichen Wiedergabe der räumlichen Tiefe und lassen sich grob in die vier Gruppen Stereoskope und Head-mounted-Displays, Brillensysteme, autostereoskopische Displays sowie echte 3-D-Displays einteilen. Darunter besitzt der autostereoskopische Ansatz ohne Brillen, bei dem N≥2 Perspektiven genutzt werden, ein hohes Potenzial. Die beste Qualität in dieser Gruppe kann mit der Methode der Integral Photography, die sowohl horizontale als auch vertikale Parallaxe kodiert, erreicht werden. Allerdings ist das Verfahren sehr aufwendig und wird deshalb wenig genutzt. Den besten Kompromiss zwischen Leistung und Preis bieten präzise gefertigte Linsenrasterscheiben (LRS), die hinsichtlich Lichtausbeute und optischen Eigenschaften den bereits früher bekannten Barrieremasken überlegen sind. Insbesondere für die ergonomisch günstige Multiperspektiven-3-D-Darstellung wird eine hohe physikalische Monitorauflösung benötigt. Diese ist bei modernen TFT-Displays schon recht hoch. Eine weitere Verbesserung mit dem theoretischen Faktor drei erreicht man durch gezielte Ansteuerung der einzelnen, nebeneinander angeordneten Subpixel in den Farben Rot, Grün und Blau. Ermöglicht wird dies durch die um etwa eine Größenordnung geringere Farbauflösung des menschlichen visuellen Systems im Vergleich zur Helligkeitsauflösung. Somit gelingt die Implementierung einer Subpixel-Filterung, welche entsprechend den physiologischen Gegebenheiten mit dem in Luminanz und Chrominanz trennenden YUV-Farbmodell arbeitet. Weiterhin erweist sich eine Schrägstellung der Linsen im Verhältnis von 1:6 als günstig. Farbstörungen werden minimiert, und die Schärfe der Bilder wird durch eine weniger systematische Vergrößerung der technologisch unvermeidbaren Trennelemente zwischen den Subpixeln erhöht. Der Grad der Schrägstellung ist frei wählbar. In diesem Sinne ist die Filterung als adaptiv an den Neigungswinkel zu verstehen, obwohl dieser Wert für einen konkreten 3-D-Monitor eine Invariante darstellt. Die zu maximierende Zielgröße ist der Parameter Perspektiven-Pixel als Produkt aus Anzahl der Perspektiven N und der effektiven Auflösung pro Perspektive. Der Idealfall einer Verdreifachung wird praktisch nicht erreicht. Messungen mit Hilfe von Testbildern sowie Schrifterkennungstests lieferten einen Wert von knapp über 2. Dies ist trotzdem als eine signifikante Verbesserung der Qualität der 3-D-Darstellung anzusehen. In der Zukunft sind weitere Verbesserungen hinsichtlich der Zielgröße durch Nutzung neuer, feiner als TFT auflösender Technologien wie LCoS oder OLED zu erwarten. Eine Kombination mit der vorgeschlagenen Filtermethode wird natürlich weiterhin möglich und ggf. auch sinnvoll sein.
Resumo:
Die Summation ueber des vollstaendige Spektrum des Atoms, die in der Stoehrungstheorie zweiter Ordnung vorkommt, wurde mit Hilfe der Greenschen Funktion Methode berechnet. Die Methode der Greenschen Funktion verlangt die Berechnung der unterschiedlichen Greenschen Funktionen: eine Coulomb-Greensche-Funktion im Fall von wasserstoffaehnlichen Ionen und eine Zentral-feld-Greensche-Funktion im Fall des Vielelektronen-Atoms. Die entwickelte Greensche Funktion erlaubte uns die folgenden atomaren Systeme in die Zweiphotonenionisierung der folgenden atomaren Systeme zu untersuchen: - wasserstoffaehnliche Ionen, um relativistische und Multipol-Effekte aufzudecken, - die aeussere Schale des Lithium; Helium und Helium-aehnliches Neon im Grundzustand, um taugliche Modelle des atomaren Feldes zu erhalten, - K- und L-Schalen des Argon, um die Vielelektronen-Effekte abzuschaetzen. Zusammenfassend, die relativistische Effekte ergeben sich in einer allgemeinen Reduzierung der Zweiphotonen Wirkungsquerschnitte. Zum Beispiel, betraegt das Verhaeltnis zwischen den nichtrelativistischen und relativistischen Wirkungsquerschnitten einen Faktor zwei fuer wasserstoffaehnliches Uran. Ausser dieser relativistischen Kontraktion, ist auch die relativistische Aufspaltung der Zwischenzustaende fuer mittelschwere Ionen sichtbar. Im Gegensatz zu den relativistischen Effekten, beeinflussen die Multipol-Effekte die totalen Wirkungsquerschnitte sehr wenig, so dass die Langwellennaeherung mit der exakten Naeherung fuer schwere Ionen sogar innerhalb von 5 Prozent uebereinstimmt. Die winkelaufgeloesten Wirkungsquerschnitte werden durch die relativistischen Effekte auf eine beeindruckende Weise beeinflusst: die Form der differentiellen Wirkungsquerschnitte aendert sich (qualitativ) abhaengig von der Photonenenergie. Ausserdem kann die Beruecksichtigung der hoeheren Multipole die elektronische Ausbeute um einen Faktor drei aendern. Die Vielelektronen-Effekte in der Zweiphotonenionisierung wurden am Beispiel der K- und L-Schalen des Argon analysiert. Hiermit wurden die totalen Wirkungsquerschnitte in einer Ein-aktives-Elektron-Naeherung (single-active-electron approximation) berechnet. Es hat sich herausgestellt, dass die Elektron--Elektron-Wechselwirkung sehr wichtig fuer die L-Schale und vernachlaessigbar fuer die K-Schale ist. Das bedeutet, dass man die totalen Wirkungsquerschnitte mit wasserstoffaehnlichen Modellen im Fall der K-Schale beschreiben kann, aber fuer die L-Schale fortgeschrittene Modelle erforderlich sind. Die Ergebnisse fuer Vielelektronen-Atome wurden mittels einer Dirac-Zentral-feld-Greenschen Funktion erlangt. Ein numerischer Algorithmus wurde urspruenglich von McGuire (1981) fuer der Schroedinger-Zentral-feld-Greensche Funktion eingefuehrt. Der Algorithmus wurde in dieser Arbeit zum ersten Mal fuer die Dirac-Gleichung angewandt. Unser Algorithmus benutzt die Kummer- und Tricomi-Funktionen, die mit Hilfe eines zuverlaessigen, aber noch immer langsamen Programmes berechnet wurden. Die Langsamkeit des Programms begrenzt den Bereich der Aufgaben, die effizient geloest werden koennen. Die Zentral-feld-Greensche Funktion konnte bei den folgenden Problemen benutzt werden: - Berechnung der Zweiphotonen-Zerfallsraten, - Berechnung der Zweiphotonenanregung und -ionisierungs-Wirkungsquerschnitte, - Berechnung die Multiphotonenanregung und -ionisierungs-Wirkungsquerschnitte, - Berechnung einer atomaren Vielelektronen-Green-Funktion. Von diesen Aufgaben koennen nur die ersten beiden in angemessener Zeit geloest werden. Fuer die letzten beiden Aufgaben ist unsere Implementierung zu langsam und muss weiter verbessert werden.
Resumo:
Der Vielelektronen Aspekt wird in einteilchenartigen Formulierungen berücksichtigt, entweder in Hartree-Fock Näherung oder unter dem Einschluß der Elektron-Elektron Korrelationen durch die Dichtefunktional Theorie. Da die Physik elektronischer Systeme (Atome, Moleküle, Cluster, Kondensierte Materie, Plasmen) relativistisch ist, habe ich von Anfang an die relativistische 4 Spinor Dirac Theorie eingesetzt, in jüngster Zeit aber, und das wird der hauptfortschritt in den relativistischen Beschreibung durch meine Promotionsarbeit werden, eine ebenfalls voll relativistische, auf dem sogenannten Minimax Prinzip beruhende 2-Spinor Theorie umgesetzt. Im folgenden ist eine kurze Beschreibung meiner Dissertation: Ein wesentlicher Effizienzgewinn in der relativistischen 4-Spinor Dirac Rechnungen konnte durch neuartige singuläre Koordinatentransformationen erreicht werden, so daß sich auch noch für das superschwere Th2 179+ hächste Lösungsgenauigkeiten mit moderatem Computer Aufwand ergaben, und zu zwei weiteren interessanten Veröffentlichungen führten (Publikationsliste). Trotz der damit bereits ermöglichten sehr viel effizienteren relativistischen Berechnung von Molekülen und Clustern blieben diese Rechnungen Größenordnungen aufwendiger als entsprechende nicht-relativistische. Diese behandeln das tatsächliche (relativitische) Verhalten elektronischer Systeme nur näherungsweise richtig, um so besser jedoch, je leichter die beteiligten Atome sind (kleine Kernladungszahl Z). Deshalb habe ich nach einem neuen Formalismus gesucht, der dem möglichst gut Rechnung trägt und trotzdem die Physik richtig relativistisch beschreibt. Dies gelingt durch ein 2-Spinor basierendes Minimax Prinzip: Systeme mit leichten Atomen sind voll relativistisch nunmehr nahezu ähnlich effizient beschrieben wie nicht-relativistisch, was natürlich große Hoffnungen für genaue (d.h. relativistische) Berechnungen weckt. Es ergab sich eine erste grundlegende Veröffentlichung (Publikationsliste). Die Genauigkeit in stark relativistischen Systemen wie Th2 179+ ist ähnlich oder leicht besser als in 4-Spinor Dirac-Formulierung. Die Vorteile der neuen Formulierung gehen aber entscheidend weiter: A. Die neue Minimax Formulierung der Dirac-Gl. ist frei von spuriosen Zuständen und hat keine positronischen Kontaminationen. B. Der Aufwand ist weit reduziert, da nur ein 1/3 der Matrix Elemente gegenüber 4-Spinor noch zu berechnen ist, und alle Matrixdimensionen Faktor 2 kleiner sind. C. Numerisch verhält sich die neue Formulierung ähnlilch gut wie die nichtrelativistische Schrödinger Gleichung (Obwohl es eine exakte Formulierung und keine Näherung der Dirac-Gl. ist), und hat damit bessere Konvergenzeigenschaften als 4-Spinor. Insbesondere die Fehlerwichtung (singulärer und glatter Anteil) ist in 2-Spinor anders, und diese zeigt die guten Extrapolationseigenschaften wie bei der nichtrelativistischen Schrödinger Gleichung. Die Ausweitung des Anwendungsbereichs von (relativistischen) 2-Spinor ist bereits in FEM Dirac-Fock-Slater, mit zwei Beispielen CO und N2, erfolgreich gemacht. Weitere Erweiterungen sind nahezu möglich. Siehe Minmax LCAO Nährung.
Resumo:
Die Dissertation beschäftigt sich mit der komparativen Analyse der deutschen und französischen Innovationssysteme. Ausgehend von der evolutorisch-orientierten Innovationsforschung und der Institutionenökonomik werden die Akteure und deren Interaktionen in den jeweiligen institutionellen Rahmenbedingungen in beiden Innovationssystemen untersucht. Die Arbeit beleuchtet dieses Thema aus verschiedenen Perspektiven und zeichnet sich durch ein breites Methodenspektrum aus. Die Grenzen und Defizite des linearen Innovationsmodells werden aufgezeigt und für ein systemisches, interaktives Verständnis der Entstehung von Innovationen plädiert. Dieses interaktive Modell wird auf die Ebene des nationalen Innovationssystems transponiert, und damit wird der konzeptionelle Rahmen für die weitere Analyse geschaffen. Für die Gestaltung der Innovationssysteme wird die Bedeutung der institutionellen Konfigurationen betont, die von den Innovationsakteuren gewählt werden. Hierfür werden jeweils die Fallbeispiele Frankreich und Deutschland ausführlich untersucht und nach der gleichen Systematik empirisch betrachtet und schließlich werden beide Innovationssysteme systematisch verglichen. Dabei wird auch auf die Pfadabhängigkeiten in beiden Innovationssystemen eingegangen, sowie auf die Notwendigkeit der Berücksichtigung kultureller und historischer Eigenarten der verglichenen Länder. Expertengespräche mit deutschen und französischen Experten, ergänzen die zuvor erzielten Ergebnisse der Arbeit: Durch eine interdisziplinäre Herangehensweise werden politikwissenschaftliche und ökonomische Ansätze miteinander verknüpft, sowie kulturelle Eigenarten berücksichtigt, die Innovationssysteme beeinflussen können. In seinen Schlussfolgerungen kommt der Verfasser zu dem Ergebnis, dass „lernende Politik“ über institutionellen Wandel und Wissenstransfer ein wichtiger Faktor bei der Gestaltung hybrider Institutionen und der staatlichen Innovationspolitik von der „Missions- zur Diffusionsorientierung“ hin ist. Die Betrachtung zweier nationaler Systeme sowie deren Einbindung in internationale Kontexte führt zum Ergebnis, dass die Steuerung der Schnittstelle „Forschung-Industrie“, insbesondere die Rolle der Universitäten und Forschungseinrichtungen in heterogenen Kooperationspartnerschaften, über neue forschungs-und technologiepolitische Instrumente über transnationales Lernen von Institutionen geschehen kann. Dieser institutionelle Wandel wird als Lernprozess betrachtet, der im Übergang zur wissensbasierten Wirtschaft als “comparative institutional advantage“ ein wichtiger Faktor bei der Gestaltung der Institutionen und der staatlichen Technologiepolitik ist.
Resumo:
In den vorliegenden Untersuchungen wurde der Gehalt von Carotinoiden in Weizen, Mais und Möhren sowie der Polyphenolgehalt in Möhren mit analytischen Methoden zum Nachweis dieser Substanzen gemessen. Der Gehalt der Carotinoide in Mais und der Gehalt der phenolischen Bestandteile in Möhren wurde mit Messungen mittels HPLC-Analytik gemessen. Die Methoden wurden aus literaturbekannten Verfahren abgeleitet und an die Anforderungen der untersuchten Probenmatrices angepasst und validiert. Dem Verfahren lag die Frage zugrunde, ob es möglich ist, Kulturpflanzen aus verschiedenen Anbausystemen auf der Basis des Gehaltes bestimmter sekundärer Pflanzeninhaltsstoffe zu differenzieren und aufgrund von Unterschieden im Gehalt der sekundären Pflanzeninhaltsstoffe zu klassifizieren. Die Gesamtverfahren wurden dabei gemäß der ISO 17025 validiert. Für die Messungen standen Proben aus definierten Langzeitversuchen und Erzeugerproben ausgesuchter ökologisch bzw. konventionell arbeitender Anbaubetriebe zur Verfügung. Als Grundlage für eine valide Methodeneinschätzung wurden die Messungen an codierten Proben vorgenommen. Eine Decodierung der Proben erfolgte erst nach der Vorlage der Messergebnisse in den genannten Projekten. Die Messung und Auswertung des Carotinoidgehaltes in Weizen, Mais und Möhren vor dem Hintergrund der Differenzierung und Klassifizierung erfolgte in Proben eines Erntejahres. Die Messung des Gehaltes phenolischer Substanzen in Möhren erfolgte in Möhren aus 3 Erntejahren. Die verwendeten HPLC-Verfahren konnten in Bezug auf den analytischen Teil der Messungen in den einzelnen Verfahrensschritten Linearität, Spezifität, Präzision und Robustheit erfolgreich überprüft werden. Darüber hinaus wurden wichtige Einflussgrößen auf die Messungen bestimmt. Für die Verfahren zur photometrischen Bestimmung der Gesamtcarotinoide konnte eine Grundkalibrierung der Parameter Präzision und Linearität des Verfahrens erfolgreich durchgeführt werden. Während der Anwendung der HPLC-Methoden an codierten Proben konnten in allen untersuchten Probenmatrices quantitativ bedeutende Inhaltsstoffe nachgewiesen und identifiziert werden. Eine vollständige Identifizierung aller dargestellten Peaks konnte in den Untersuchungen der Polyphenole in Möhren und der Carotinoide in Mais nicht erfolgen. Im Hinblick auf die Frage nach der Differenzierung und Klassifizierung ergab sich in den verschiedenen Proben ein unterschiedliches Bild. Sowohl durch den Carotinoid- als auch den Polyphenolgehalt konnten einzelne Proben statistisch signifikant differenziert werden. Die Trennleistung hing dabei sowohl von den jeweiligen Komponenten als auch von der untersuchten Probenmatrix ab. Ein durchgängig höherer Gehalt sekundärer Pflanzeninhaltsstoffe in Proben aus ökologischem Anbau konnte nicht bestätigt werden. Für die Klassifizierung der Proben verschiedener Anbauvarianten und konnten multivariate statistische Methoden, wie lineare Diskriminantenanalyse (LDA) und Classification and Regression Tree (CART), erfolgreich angewandt werden. Eine Klassifizierung mit unterschiedlichen statistischen Verfahren erbrachte dabei unterschiedliche Ergebnisse. In der Klassifizierung der decodierten Proben mittels LDA wirkten sich die Faktoren Sorte und Standort stärker auf das Klassifizierungsergebnis aus als der Faktor Anbausystem. Eine Klassifizierung der decodierten Proben nach dem Anbausystem wurde mit dem CART-Verfahren durchgeführt. Auf dieser Basis wurden für die Polyphenole in Möhren 97 % der Proben richtig klassifiziert. Durch die Messwerte des Carotinoidgehaltes und des Luteingehaltes in Weizen konnte der größere Teil der Proben (90 %) korrekt klassifiziert werden. Auf der Basis des Carotinoidgehaltes in Mais wurde der Großteil der Proben (95 %) korrekt nach dem Anbausystem klassifiziert. Auf der Basis des mittels HPLC gemessenen Carotinoidgehaltes in Möhren konnten die Proben 97 % korrekt klassifiziert werden (97 %). Insgesamt erscheint der Grundgedanke der Klassifizierung durch den Gehalt sekundärer Pflanzeninhaltsstoffe vielversprechend. Durch die vielfältigen Einflussgrößen auf den Sekundärstoffwechsel von Pflanzen müssten Veränderungen, die durch Sorte und Standort auftreten, über mehrere Jahre erhoben und systematisiert werden.
Resumo:
Die vielfältigen Funktionen der sekundären Pflanzenstoffe sowohl im Organismus der Pflanze, als auch im Körper des Menschen bieten der Wissenschaft ein weites Betätigungsfeld. Die Carotinoide findet man in fast allen Plastiden der Pflanze und sie erfüllen dort Aufgaben in Form von Pigmenten, Antioxidantien, Hormonen und zählen außerdem zu den wichtigsten Bestandteilen des Photosyntheseapparates. Im menschlichen Organismus hingegen wirken sie als Provitamin A und in den Endverästelungen der Blutgefäße bei niedrigem Sauerstoffpartialdruck. Des Weiteren besitzen sie die Fähigkeiten freie Radikale unschädlich zu machen und wirken in vitro als Fänger von energiereichem Singulettsauerstoff. Die Polyphenole, die man zu der Stoffgruppe der Phenole zählt, befinden sich in den Randschichten von Obst, Gemüse, Getreide und anderen Samen. Ihnen obliegt die Aufgabe die darunter befindlichen Gewebe vor antioxidativem Verderb zu schützen. Im Körper des Menschen dagegen besitzen sie eine gerinnungshemmende Wirkung, schützen die Zellen vor Oxidation und üben Fähigkeiten aus, die Krebs vorbeugen können. Im Zuge dieser Literaturarbeit werden endogene und exogene Faktoren beschrieben, die auf Pflanzen allgemein und auf die Fokusprodukte Möhre (Daucus carota L.) und Weizen (Triticum aestivum L.) speziell einwirken. Die pflanzenphysiologische Herkunft und Bedeutung der sekundären Pflanzenstoffgruppen Carotinoide und Polyphenole wird dargestellt. Schließlich wird die vorhandene Literatur ausgewertet, die sich mit der Beeinflussung des Gehaltes der genannten sekundären Pflanzenstoffe in den gewählten Fokusprodukten durch exogene und endogene Faktoren beschäftigt. Die Beeinflussung des Polyphenolgehaltes in Möhre und des Carotinoid- und Polyphenolgehaltes in Weizen ist nur wenig untersucht. Dagegen ist die Beeinflussung des Carotinoidgehaltes in Möhren durch exogene und endogene Faktoren gut beschrieben. Der Faktor „Sorte“ spielt aufgrund der vorhandenen genetischen Anlagen (carotinoidreich / carotinoidarm) eine wesentliche Rolle bei der späteren Ausbildung des Carotinoidgehaltes in der Möhre. Die Reife der Möhre, die u.a. das Ergebnis des Einwirkens exogener Faktoren, wie Temperatur, Wuchsraum, verfügbare Wassermenge im Boden sowie der Niederschläge ist, beeinflusst maßgeblich den späteren Gehalt an Carotinoiden. Des Weiteren üben noch anbautechnische Maßnahmen (z.B. Düngung, Herbizidbehandlungen, Produktionstechnik) einen Einfluss auf den Carotinoidgehalt der Möhre aus. Der Phenolgehalt in Möhren wurde bisher ausschließlich auf Sortenebene verglichen. In einer Studie von Zhang & Hamauzu (2004) fand man heraus, dass der Phenol-Gehalt in den verschiedenen Geweben der Möhre von der Schale in Richtung Phloem und Xylem anstieg, während sich die antioxidantischen und radical scavening Aktivitäten auf gleiche Weise, wie der Phenol-Gehalt erhöhten und wiederum mit dem totalen Phenol-Gehalt korrelierten. Die phenolischen Extrakte verfügten über stärkere radical scavening Fähigkeiten, als die zum Vergleich herangezogenen Reinsubstanzen Chlorogensäure, Vitamin C und β-Carotin. Insgesamt wurde aufgrund dieser Studie vermutet, dass sich der höchste Gehalt an Phenolen in der Schale der Möhre befindet. Das geringe Vorliegen von Studien bezüglich des Carotinoid- und Phenolgehaltes in Weizen kann man darauf zurückführen, dass die sekundären Pflanzenstoffe im Vergleich zum Proteingehalt keine wesentliche Rolle als Qualitätsmerkmal beim Fokusprodukt Weizen spielen. Der Gehalt an Phenolen und Carotinoiden wurde bisher ausschließlich auf Sortenebene untersucht. Die Untersuchungen ergaben, dass der Gehalt an sekundären Pflanzenstoffen (Phenole, Tocopherole, Carotinoide) stark durch die Sorte beeinflusst wird.
Resumo:
Five laboratory incubation experiments were carried out to assess the salinity-induced changes in the microbial use of sugarcane filter cake added to soil. The first laboratory experiment was carried out to prove the hypothesis that the lower content of fungal biomass in a saline soil reduces the decomposition of a complex organic substrate in comparison to a non-saline soil under acidic conditions. Three different rates (0.5, 1.0, and 2.0%) of sugarcane filter cake were added to both soils and incubated for 63 days at 30°C. In the saline control soil without amendment, cumulative CO2 production was 70% greater than in the corresponding non-saline control soil, but the formation of inorganic N did not differ between these two soils. However, nitrification was inhibited in the saline soil. The increase in cumulative CO2 production by adding filter cake was similar in both soils, corresponding to 29% of the filter cake C at all three addition rates. Also the increases in microbial biomass C and biomass N were linearly related to the amount of filter cake added, but this increase was slightly higher for both properties in the saline soil. In contrast to microbial biomass, the absolute increase in ergosterol content in the saline soil was on average only half that in the non-saline soil and it showed also strong temporal changes during the incubation: A strong initial increase after adding the filter cake was followed by a rapid decline. The addition of filter cake led to immobilisation of inorganic N in both soils. This immobilisation was not expected, because the total C-to-total N ratio of the filter cake was below 13 and the organic C-to-organic N ratio in the 0.5 M K2SO4 extract of this material was even lower at 9.2. The immobilisation was considerably higher in the saline soil than in the non-saline soil. The N immobilisation capacity of sugarcane filter cake should be considered when this material is applied to arable sites at high rations. The second incubation experiment was carried out to examine the N immobilizing effect of sugarcane filter cake (C/N ratio of 12.4) and to investigate whether mixing it with compost (C/N ratio of 10.5) has any synergistic effects on C and N mineralization after incorporation into the soil. Approximately 19% of the compost C added and 37% of the filter cake C were evolved as CO2, assuming that the amendments had no effects on the decomposition of soil organic C. However, only 28% of the added filter cake was lost according to the total C and d13C values. Filter cake and compost contained initially significant concentrations of inorganic N, which was nearly completely immobilized between day 7 and 14 of the incubation in most cases. After day 14, N re-mineralization occurred at an average rate of 0.73 µg N g-1 soil d-1 in most amendment treatments, paralleling the N mineralization rate of the non-amended control without significant difference. No significant net N mineralization from the amendment N occurred in any of the amendment treatments in comparison to the control. The addition of compost and filter cake resulted in a linear increase in microbial biomass C with increasing amounts of C added. This increase was not affected by differences in substrate quality, especially the three times larger content of K2SO4 extractable organic C in the sugarcane filter cake. In most amendment treatments, microbial biomass C and biomass N increased until the end of the incubation. No synergistic effects could be observed in the mixture treatments of compost and sugarcane filter cake. The third 42-day incubation experiment was conducted to answer the questions whether the decomposition of sugarcane filter cake also result in immobilization of nitrogen in a saline alkaline soil and whether the mixing of sugarcane filter cake with glucose (adjusted to a C/N ratio of 12.5 with (NH4)2SO4) change its decomposition. The relative percentage CO2 evolved increased from 35% of the added C in the pure 0.5% filter cake treatment to 41% in the 0.5% filter cake +0.25% glucose treatment to 48% in the 0.5% filter cake +0.5% glucose treatment. The three different amendment treatments led to immediate increases in microbial biomass C and biomass N within 6 h that persisted only in the pure filter cake treatment until the end of the incubation. The fungal cell-membrane component ergosterol showed initially an over-proportionate increase in relation to microbial biomass C that fully disappeared at the end of the incubation. The cellulase activity showed a 5-fold increase after filter cake addition, which was not further increased by the additional glucose amendment. The cellulase activity showed an exponential decline to values around 4% of the initial value in all treatments. The amount of inorganic N immobilized from day 0 to day 14 increased with increasing amount of C added in comparison to the control treatment. Since day 14, the immobilized N was re-mineralized at rates between 1.31 and 1.51 µg N g-1 soil d-1 in the amendment treatments and was thus more than doubled in comparison with the control treatment. This means that the re-mineralization rate is independent from the actual size of the microbial residues pool and also independent from the size of the soil microbial biomass. Other unknown soil properties seem to form a soil-specific gate for the release of inorganic N. The fourth incubation experiment was carried out with the objective of assessing the effects of salt additions containing different anions (Cl-, SO42-, HCO3-) on the microbial use of sugarcane filter cake and dhancha leaves amended to inoculated sterile quartz sand. In the subsequent fifth experiment, the objective was to assess the effects of inoculum and temperature on the decomposition of sugar cane filter cake. In the fourth experiment, sugarcane filter cake led to significantly lower respiration rates, lower contents of extractable C and N, and lower contents of microbial biomass C and N than dhancha leaves, but to a higher respiratory quotient RQ and to a higher content of the fungal biomarker ergosterol. The RQ was significantly increased after salt addition, when comparing the average of all salinity treatments with the control. Differences in anion composition had no clear effects on the RQ values. In experiment 2, the rise in temperature from 20 to 40°C increased the CO2 production rate by a factor of 1.6, the O2 consumption rate by a factor of 1.9 and the ergosterol content by 60%. In contrast, the contents of microbial biomass N decreased by 60% and the RQ by 13%. The effects of the inoculation with a saline soil were in most cases negative and did not indicate a better adaptation of these organisms to salinity. The general effects of anion composition on microbial biomass and activity indices were small and inconsistent. Only the fraction of 0.5 M K2SO4 extractable C and N in non-fumigated soil was consistently increased in the 1.2 M NaHCO3 treatment of both experiments. In contrast to the small salinity effects, the quality of the substrate has overwhelming effects on microbial biomass and activity indices, especially on the fungal part of the microbial community.
Resumo:
Bei Dämmen auf wenig tragfähigem Untergrund ist es zwischenzeitlich Stand der Technik, an der Dammbasis eine Bewehrung aus hochzugfesten Geokunststoffen (Gewebe oder Geogitter) einzulegen. Dabei können die Bewehrungslagen direkt auf den weichen Boden oder über Pfahlelementen angeordnet werden, die die Dammlasten in tiefere, tragfähigere Schichten abtragen. Die horizontale Bewehrung an der Dammbasis hat die Aufgabe, die vertikalen Dammlasten und die nach außen wirkenden Spreizkräfte aufzunehmen. Dies ist besonders für bewehrte Tragschichten über Pfählen von großer Bedeutung, da sonst die Pfähle/Säulen eine Biegebeanspruchung erhalten, die sie aufgrund des geringen Durchmessers (oftmals unbewehrt) nicht aufnehmen können. Abgesicherte wissenschaftliche Erkenntnisse über Größe und Verteilung der Spreizspannung in Höhe ober- und unterhalb der Bewehrungslagen liegen derzeit noch nicht vor, aus denen dann auch die Beanspruchung abzuleiten ist, die aus der Spreizwirkung bei der Geokunststoffbemessung zu berücksichtigen ist. Herr Dr.-Ing. Gourge Fahmi hat dafür zunächst den Kenntnisstand zur Spreizbeanspruchung ohne und mit Bewehrung sowie ohne und mit Pfahlelementen zusammengefasst. Ein wesentlicher Teil einer wissenschaftlichen Untersuchungen stellt die Modellversuche in einem relativ großen Maßstab dar, die u. a. auch zur Validierung von numerischen Berechnungen zur Fragestellung vorgesehen waren. Dabei konnte nach gewissen Parameteranpassungen überwiegend eine gute Übereinstimmung zwischen Modellversuchen und FEM-Berechnungen erreicht werden. Lediglich bei den Dehnungen bzw. Zugkräften in den Geogittern über Pfahlelementen ergab die FEM bei dem verwendeten Programmsystem viel zu niedrige Werte. Es wurde dazu in der Arbeit anhand eigener Untersuchungen und Vergleichsergebnissen aus der Literatur eine Hypothese formuliert und zunächst die Berechnungsergebnisse mit einem Faktor angepasst. Mit den durchgeführten Verifikationen stand damit dann ein weitestgehend abgesichertes numerisches Berechnungsmodell zur Verfügung. Aufbauend auf diesen Vorarbeiten konnten Parameterstudien mit numerischen und analytischen Methoden zur Spreizproblematik durchgeführt werden. Dabei wurden die Randbedingungen und Parametervariationen sinnvoll und für die Fragestellung zutreffend gewählt. Die numerischen Verfahren ergaben vertiefte Erkenntnisse zur Mechanik und zum Verhalten der Konstruktion. Die analytischen Vergleichsberechnungen validierten primär die Güte dieser vereinfachten Ansätze für praktische Berechnungen. Zusammenfassend wurde festgestellt, dass erwartungsgemäß die Spreizkräfte im Geogitter nahezu linear mit der Dammhöhe anwachsen. Von besonderer Bedeutung für die Größe der Spreizkräfte ist die Steifigkeit der Weichschichten. Dieser Parameter wird bei den bisher bekannten analytischen Berechnungsverfahren nicht berücksichtigt. Je weicher der Untergrund, je größer wird das Verhältnis zwischen Spreiz- und Membranbeanspruchung. Eine steilere Dammböschung hat erwartungsgemäß ebenfalls eine höhere Spreizwirkung zur Folge. Des Weiteren ergeben sich bei mehrlagigen Geogittern die höheren Beanspruchungen in der unteren Lage aus dem Membraneffekt und in der oberen Lage aus dem Spreizeffekt. Zu diesen Erkenntnissen wurden in der Arbeit erste Vorschläge für die praktischen Bemessungen gemacht, die aber noch weiter zu optimieren sind. Schließlich erfolgt von Herrn Fahmi eine Betrachtung der Pfahlelementbeanspruchung aus Pfahlkopfverschiebung und Biegemomenten. Dabei wurde ersichtlich, dass die Pfahlelemente bei hohen Dämmen erhebliche Beanspruchungen erhalten können, wenn relativ weicher Untergrund vorhanden ist, und es zeigt die Notwendigkeit entsprechend abgesicherter Bemessungsverfahren auf.
Resumo:
Der vorliegende Bericht soll die Ergebnisse einer Untersuchung der wirtschaftsgeschichtlichen Entwicklung der Regionen Kassel/Nordhessen und Jena/Thüringen zusammenfassen. Als leitende Frage hinter der Untersuchung steht das Problem, inwieweit das gegenwärtige Innovationspotential der beiden Regionen von den Gegebenheiten ihrer Geschichte bestimmt wird. Dabei sollen mögliche Hinweise auf die geschichtlichen Grundlagen heutiger Unterschiede in den Untersuchungsregionen in den Blick gerückt werden. Von besonderem Interesse ist in diesem Zusammenhang, dass es sich sowohl in Bezug auf Kassel als auch auf Jena um klassische Industriestädte handelt, die darüber hinaus entscheidend durch das Vorhandensein eines Großunternehmens geprägt worden sind. Ziel der Untersuchung war es, in der Geschichte vor allem diejenigen Momente auszumachen, die für die Entstehung von regionalen Innovationssystemen förderlich oder hemmend wirksam geworden sind. Der Untersuchung liegt ein kulturgeschichtlicher Ansatz zugrunde, der die Wirtschaftsgeschichte zwar in den Vordergrund stellt, diese aber als einen Faktor unter anderen begreift. So werden politische und kulturelle sowie alltags- und mentalitätsgeschichtliche Aspekte einbezogen. Der zeitliche Untersuchungsrahmen im engeren Sinne liegt zwischen dem ausgehenden 19. Jahrhundert und der Wiedervereinigung der beiden deutschen Staaten im 20. Jahrhundert. Zwar war es notwendig, auch den Zeitraum vor der Epochenzäsur der „Zweiten Wirtschaftlichen Revolution“ einzubeziehen, doch ist mit dieser ein sinnvoller Ansatzpunkt für eine ausführlichere Untersuchung gegeben. Der Bericht gliedert sich in einen ersten Abschnitt, der sich mit der Region Kassel/Nordhessen befasst, und einen zweiten Abschnitt zur Region Jena/Thüringen. Zuerst werden jeweils die politisch-historischen Rahmenbedingung und die industrielle Entwicklung der Region erörtert. Es folgt die Betrachtung der Unternehmensentwicklung der jeweiligen Großbetriebe vor dem geschichtlichen Hintergrund. Deren Wechselwirkung mit Politik und Kultur wird nachgegangen, bevor dann die Frage nach den Folgen für das regionale Innovationspotential gestellt wird. Hier können nur einige Mutmaßungen angestellt werden, ein sicheres Urteil ist mit den vorliegenden Kenntnissen nicht möglich. Abschließend folgt ein Vergleich der Regionen.
Resumo:
Zusammenfassung: Ziel der Arbeit war ein Methodenvergleich zur Beurteilung der Milchqualität unterschiedlicher Herkünfte. Am Beispiel von Milchproben aus unterschiedlicher Fütterung sowie an Milchproben von enthornten bzw. horntragenden Kühen wurde geprüft, welche der angewendeten Methoden geeignet ist, die Vergleichsproben zu unterscheiden (Differenzierungsfähigkeit der Methoden) und inwieweit eine Qualitätsbeurteilung möglich ist (hinsichtlich Milchleistung, Fett-, Eiweiß-, Lactose- (=F,E,L), Harnstoff-gehalt und Zellzahl (=SCC), Säuerungseigenschaften (=SE), Fettsäuremuster (=FS-Muster), Protein- und Metabolit-Zusammensetzung (=Pr&M), Fluoreszenz-Anregungs-Spektroskopie-Eigenschaften (=FAS) und Steigbild-Merkmalen). Zusätzlich wurde vorab die Steigbildmethode (=SB-M) für das Produkt Rohmilch standardisiert und charakterisiert, um die Reproduzierbarkei der Ergebnisse sicherzustellen. Die Untersuchungen zur SB-M zeigten, dass es Faktoren gibt, die einen deutlichen Einfluß auf die Bildmerkmals-Ausprägung aufweisen. Dazu gehören laborseitig die Klimabedingungen in der Kammer, die Verdünnungsstufe der Probe, die Standzeiten der Vorverdünnung (Reaktionen mit der Luft, Alterung usw.), und tagesspezifisch auftretende Effekte, deren Ursache unbekannt ist. Probenseitig sind sehr starke tierindividuelle Effekte auf die Bildmerkmals-Ausprägung festzustellen, die unabhängig von Fütterung, Alter, Laktationsstadium und Genetik auftreten, aber auch Fütterungsbedingungen der Kühe lassen sich in der Bildmerkmals-Ausprägung wiederfinden. Die Art der Bildauswertung und die dabei berücksichtigten Bildmerkmale ist von großer Bedeutung für das Ergebnis. Die im Rahmen dieser Arbeit untersuchten 46 Probenpaare (aus den Fütterungsvergleichen (=FV) und zur Thematik der Hörner) konnten in 91% der Fälle korrekt gruppiert werden. Die Unterschiede konnten benannt werden. Drei FV wurden auf drei biologisch-dynamischen Höfen unter Praxis-Bedingungen durchgeführt (on-farm-Experimente). Es wurden jeweils zwei vergleichbare Gruppen à mindestens 11 Kühen gebildet, die im Cross-Over-Design gefüttert wurden, mit Probennahme am 14. und 21. Tag je Periode. Es wurden folgende FV untersucht: A: Wiesenheu vs. Kleegrasheu (=KG-Heu), B: Futterrüben (=FuR) vs. Weizen (Ergänzung zu Luzernegrasheu ad lib.), C: Grassilage vs. Grasheu. Bei Versuch A sind die Futtereffekte am deutlichsten, Gruppeneffekte sind gering. Die Milch der Wiesenheu-Variante hat weniger CLA’s und n3- FS und mehr mittellangkettige FS (MCT-FS), das Pr&M-Muster weist auf „Gewebereifung und Ausdifferenzierung“ vs. bei KG-Heu „Nährstoff-fülle, Wachstum und Substanz-Einlagerung und die SB zeigen fein ausdifferenzierte Bildmerkmale. Bei Versuch B sind die Futtereffekte ähnlich groß wie die Gruppeneffekte. Bei vergleichbarer Milchleistung weist die Milch der FuR-Variante höhere F- und E-Gehalte auf, sie säuert schneller und mehr, das FS-Muster weist auf eine „intensive“ Fütterung mit vermehrt MCT- FS, und die Pr&M-Untersuchungen charakterisieren sie mit „Eisentransport und Fetttröpfchenbildung“ vs. bei Weizen „mehr Abwehr-, Regulations- und Transportfunktion“ /. „mehr Lipidsynthese“. Die SB charakterisieren mit „große, kräftige Formen, verwaschen“ vs. „kleine, ausdifferenzierte Bildmerkmal“ für FuR vs. Weizen. Die FAS charakterisiert sie mit „Saftfutter-typisch“ vs. „Samentypisch“. Versuch C weist die geringsten Futtereffekt auf, und deutliche Gruppen- und Zeiteffekte. Milchleistung und F,E,L-Gehalte zeigen keinen Futtereffekt. Die Milch der Heu-Variante säuert schneller, und sie weist mehr SCT und MCT- FS auf. Pr&M-Untersuchungen wurden nicht durchgeführt. Die SB charakterisieren bei Heumilch mit „fein, zart, durchgestaltet, hell“, bei Silagemilch mit „kräftig, wäßrig-verwaschen, dunkler“. Die FAS kann keine konsistenten Unterschiede ermitteln. Der Horn-Einfluß auf die Milchprobe wurde an 34 Probenpaaren untersucht. Von 11 Höfen wurden je zwei möglichst vergleichbare Gruppen zusammengestellt, die sich nur im Faktor „Horn“ unterscheiden, und im wöchentlichen Abstand drei mal beprobt. F,E,L, SCC und SE der Proben sowie die FAS-Messungen weisen keine konsistenten signifikanten Unterschiede zwischen den Horn-Varianten auf. Pr&M weisen bei den untersuchten Proben (von zwei Höfen) auf Horneffekte hin: bei Eh eine Erhöhung von Immun-Abwehr-Funktionen, sowie einer Abnahme phosphorylierter C3- und C6-Metabolite und Beta-Lactoglobulin. Mit den SB ließen sich für die gewählten Merkmale (S-Größe und g.B.-Intensität) keine Horneffekte feststellen. FS, Pr&M-Muster sowie Harnstoffgehalt und SB (und z.T. Milchleistung) zeigten je FV ähnliche Effekt-Intensitäten für Futter-, Gruppen- und Zeiteffekte, und konnten die Cross-Over-Effekte gut wiedergeben. F- und E-Gehalte konnten neben tierindividuellen Effekten nur in FV B auch Futtereffekte aufzeigen. In FV C zeigten die SE der Proben den deutlichsten Futtereffekt, die anderen Methoden zeigten hier vorrangig Gruppen-Effekte, gefolgt von Futter- und Zeiteffekten. Die FAS zeigte den SB vergleichbare Ergebnisse, jedoch weniger sensibel reagierend. Die Interpretation von Qualitätsaspekten war bei konsistent differenzierbaren Proben (FV A, B, C) am fundiertesten mit Hilfe der FS möglich, da über die Synthese von FS und beeinflussende Faktoren schon vielfältige Erkenntnisse vorliegen. Das Pr&M-Muster war nach einer weiteren Methodenentwicklung bei der Deutung von Stoffwechselprozessen sehr hilfreich. Die FAS konnte z.T. eine zu der Fütterungsvariante passende Charakterisierung liefern. Für die SB-M fehlt es noch an Referenzmaterial, um Angaben zu Qualitätsaspekten zu machen, wenngleich Probenunterschiede aufgezeigt und Proben-Eigenschaften charakterisiert werden konnten.
Resumo:
Die ektopische Lokalisation des Aktin-bündelnden Proteins VASP an die späten Endosomen mittels VacuolinA-Myc (VAM) führt zur Ausbildung von Aktin-haltigen Aggregaten, die Ähnlichkeiten mit Hirano Bodies haben, welche neurodegenerativen Krankheiten in verschiedenen Organen entstehen. VAM-VASP-Aggregate haben neben Aktin noch einige Aktin-interagierende Proteine sequestriert und nehmen Einfluss auf unterschiedliche physiologische Prozesse der Zelle, wie z. B. das Wachstum, die Zytokinese oder den endozytotischen Transit. Mit dem Ziel, Ursachen für die Aggregatentstehung zu finden, wurden im Rahmen dieser Arbeit andere Aktin-interagierende Proteine an späte Endosomen lokalisiert. So führt VAM-Abp34 ebenfalls zur Ausbildung Aktin-haltiger Aggregate während VAM-α-Actinin und VAM-Filamin die Bildung Aktin-freier Aggregate zur Folge haben. Letztere sind hauptsächlich aus den Proteinhybriden und den jeweiligen endogenen Bindungspartnern aufgebaut und ähneln sogenannten Aggresomen. Dennoch führen die Aktin-freien VAM-α-Actinin- und VAM-Filamin-Aggregate zu vergleichbaren physiologischen Defekten in der Zelle wie die Aktin-haltigen VAM-VASP-Aggregate. Der Aktin-Gehalt der VAM-VASP-Aggregate ist auf das VASP-Protein zurückzuführen. Dieses Protein ist fähig, die Elongation von Aktin-Filamenten voranzutreiben und erreicht, ektopisch lokalisiert an Endosomen, Peroxisomen und Lipid Droplets eine Anreicherung von F-Aktin an diesen Organellen. Ein Vergleich der Proteine VASP, Abp34, α-Actinin und Filamin führt zu dem Schluss, dass die Fähigkeit der Proteine, Oligomere bilden zu können, einen relevanten Faktor in der Ausbildung der VAM-Aggregate spielt. Die VAM-Aggregate sind sehr kompakt und stabil. Die Untersuchungen in dieser Arbeit führen zu der Annahme, dass die Aggregate durch die Überlastung der zellulären Proteindegradationsmaschinerie entstehen.
Resumo:
Selbstbestimmung und -gestaltung des eigenen Alltages gewinnen immer mehr an Bedeutung, insbesondere für ältere Mitmenschen in ländlichen Regionen, die auf ärztliche Versorgung angewiesen sind. Die Schaffung sogenannter smart personal environments mittels einer Vielzahl von, nahezu unsichtbar installierten Sensoren im gewohnten Lebensraum liefert dem Anwender (lebens-) notwendige Informationen über seine Umgebung oder seinen eigenen Körper. Dabei gilt es nicht den Anwender mit technischen Daten, wie Spektren, zu überfordern. Vielmehr sollte die Handhabung so einfach wie möglich gestaltet werden und die ausgewertete Information als Indikationsmittel zum weiteren Handeln dienen. Die Anforderungen an moderne Technologien sind folglich eine starke Miniaturisierung, zur optimalen Integration und Mobilität, bei gleichzeitig hoher Auflösung und Stabilität. Die Zielsetzung der vorliegenden Arbeit ist die Miniaturisierung eines spektroskopischen Systems bei gleichzeitig hohem Auflösungsvermögen für die Detektion im sichtbaren Spektralbereich. Eine Möglichkeit für die Herstellung eines konkurrenzfähigen „Mini-„ oder „Mikrospektrometers“ basiert auf Fabry-Pérot (FP) Filtersystemen, da hierbei die Miniaturisierung nicht wie üblich auf Gittersysteme limitiert ist. Der maßgebliche Faktor für das spektrale Auflösungsvermögen des Spektrometers ist die vertikale Präzision und Homogenität der einzelnen 3D Filterkavitäten, die die unterschiedlichen Transmissionswellenlängen der einzelnen Filter festlegen. Die wirtschaftliche Konkurrenzfähigkeit des am INA entwickelten Nanospektremeters wurde durch die maximale Reduzierung der Prozessschritte, nämlich auf einen einzigen Schritt, erreicht. Erstmalig wird eine neuartige Nanoimprint Technologie, die sog. Substrate Conformal Imprint Lithography, für die Herstellung von wellenlängen-selektierenden Filterkavitäten von stark miniaturisierten Spektrometern eingesetzt. Im Zuge dieser Arbeit wird das Design des FP Filtersystems entwickelt und technologisch mittels Dünnschichtdeposition und der Nanoimprinttechnologie realisiert. Ein besonderer Schwerpunkt liegt hierbei in der Untersuchung des Prägematerials, dessen optische Eigenschaften maßgeblich über die Performance des Filtersystems entscheiden. Mit Hilfe eines speziell gefertigten Mikroskopspektrometers werden die gefertigten Filterfelder hinsichtlich ihrer Transmissionseigenschaften und ihres Auflösungsvermögens hin untersucht. Im Hinblick auf publizierte Arbeiten konkurrierender Arbeitsgruppen konnte eine deutliche Verbesserung des miniaturisierten Spektrometers erreicht werden. Die Minimierung der Prozessschritte auf einen einzigen Prägeschritt sorgt gleichzeitig für eine schnelle und zuverlässige Replikation der wellenlängenselektierenden Filterkavitäten. Im Rahmen dieser Arbeit wurde aufgezeigt, dass das angestrebte Nanospektrometer, trotz der sehr geringen Größe, eine hohe Auflösung liefern kann und gerade wegen der starken Miniaturisierung mit kommerziellen Mini- und Mikro-spektrometern konkurrenzfähig ist.