996 resultados para Schlacht bei Lobositz
Resumo:
Die vorliegende Arbeit ist Teil eines Verbund-Forschungsprojektes mit dem Ziel, eine Präzisions-Bodenbearbeitung in Abhängigkeit von verschiedenen Bodenparametern sowie dem Bodenbedeckungsgrad zu realisieren. Ziel dieses Teilprojektes war die Bereitstellung einer Online-Messung des Bedeckungsgrades, um die Bearbeitungsintensität während der Feldüberfahrt regeln zu können: Ein Kamerasensor vorne am Schlepper ermittelt die Bodenbedeckung und ein Tiefen-Sollwert wird an das Regelsystem eines Gerätes zur teilfächenspezifischen Bodenbearbeitung ausgegeben. Da unter Feldbedingungen Methoden zur Bedeckungsgradmessung nur relativ zueinander verglichen werden können, wurde zunächst ein Laborvergleich mit wohldefinierten Bodenbedeckungen durchgeführt, um die prinzipiellen Stärken und Schwächen von Bildanalyse sowie zwei visuellen Methoden (Gitterraster-Methode und „Meterstick-Methode“) zu ermitteln: • Eine visuelle Methode, die auf einer begrenzten Anzahl von einfachen Stichprobenbeobachtungen beruht (Gitter), überschätzte den Bedeckungsgrad systematisch, wobei dieser Effekt unter Feldbedingungen vermutlich klein gegenüber der bekannten Schwankungsbreite zwischen Messungen verschiedener Beobachter ist. • Eine visuelle Methode, die auch Größe und Orientierung des Strohs berücksichtigt (Meterstick), lieferte präzise mittlere Messwerte. Diese Methode war die mit Abstand arbeitsaufwändigste. • Nach einer einfachen Korrektur des Abbildungsfehlers des Kameraobjektivs war auch die Bildverarbeitungs-Methode in der Lage, die bekannten tatsächlichen Bedeckungsgrade exakt darzustellen, bei gleichzeitig der geringsten Schwankungsbreite der Messwerte. Die Online-Messung der Bodenbedeckung durch Ernterückstände ist bisher jedoch ungelöst. Obwohl in früheren Untersuchungen Texturmerkmale oder Farbunterschiede erfolgreich genutzt wurden, um den Bedeckungsgrad zu bestimmen, wird eine Bedienperson zur interaktiven Festlegung bestimmter Parameter benötigt. Um den Prototypen eines onlinefähigen Kamerasensors zu entwickeln, wurden geeignete Ausrüstung und Bedingungen zur Bildaufnahme untersucht und verschiedene Auswertealgorithmen mit Hilfe einer wissenschaftlichen Bildanalysesoftware geschrieben und getestet: • Da im Nahinfraroten zwischen ca. 800 und 1400 nm der größte Intensitäts-Kontrast zwischen Stroh und Boden besteht wurde zur Bildaufnahme eine Schwarz-Weiss-CCD-Kamera mit aufgesetztem Infrarotfilter gewählt. Eine Diffusor-Box sorgte für homogene Beleuchtungsbedingungen. • Zwei auf Kantendetektion und automatischer Schwellwertsetzung basierende Versionen („A“ und „B“) eines „klassischen“ Segmentierungsalgorithmus wurden geschrieben. Durch einen iterativen Ansatz konnten geeignete Thresholding-Verfahren abhängig von der Größenordnung der Bodenbedeckung verwendet werden. Die zur Online-Regelung der Bearbeitungstiefe nötige Beschränkung der Prozesslaufzeit auf ca. 1000 ms/Bild konnte eingehalten werden. • Eine alternative automatisierbare Kontrollmethode wurde entwickelt, welche Merkmale der Grauwerthistogramme der Stroh/Boden-Bilder auswertet (Algorithmus „C“). Dieser Ansatz ist nochmals deutlich schneller als eine Bildsegmentierung (ca. 5 – 10 Bilder/s). • Der Sensor wurde an einem Quad montiert und die Bodenbedeckung auf drei Testfeldern untersucht. Zwischen den Messergebnissen eines Algorithmus vom Typ A/B und dem Ansatz C wurde eine Pearson-Korrelation von 0,967 für die Messwertegesamtheit gefunden. • Auf Versuchsparzellen mit definiert aufgebrachten Strohmengen (ein weiteres Teil-projekt) wurden an GPS-referenzierten Punkten Bilder mit dem Sensor aufgenommen und Referenzmessungen mit der visuellen Gitterraster-Methode durchgeführt. Zwischen der Bildverarbeitung (A, B) und dem Gitter ergaben sich befriedigende Pearson-Korrelationen im Bereich von 0,7 – 0,8. Allerdings waren für hohe Bedeckungen die Ergebnisse des Sensors meist signifikant niedrigere als der Mittelwert von drei das Gitter auszählenden Personen. Eine Kontrolle mit Ansatz C ergab, dass die Histogramm-Merkmale der einzelnen Bilder deutlich besser mit den per Bildverarbeitung ermittelten Bedeckungsgraden korrelierten als mit den Gittermessungen. – Insgesamt erwies sich die schnelle Bildverarbeitung als geeignet für den Einsatz als neue Referenzmethode zur Messung der Bodenbedeckung durch Ernterückstände. • Da der Aufbau des Sensors ohne die Diffusor-Box praxisgerechter ist, besteht weiterer Forschungsbedarf in Bezug auf die dann auftretenden Probleme durch stark wechselnde Beleuchtung und Schattenwurf. • In einem letzten Schritt wurde der Kamerasensor erfolgreich in ein bereits entwickeltes System zur teilflächenspezifischen Bodenbearbeitung an der Universität Kiel integriert. Eine Regelung der Arbeitstiefe durch den Kamerasensor war problemlos möglich, allerdings gilt es noch belastbare Kriterien für die Vorgabe von Tiefen-Sollwerten in Abhängigkeit vom Bedeckungsgrad zu entwickeln.
Resumo:
Nachhaltige Konversion bei der Herrichtung frei gewordener militärischer Liegenschaften, insbesondere zu Hochschuleinrichtungen, ist mit großen Herausforderungen verbunden. Abgestimmte Raumbedarfe, nutzungsgerecht und wirtschaftlich vertretbar, in der Struktur einer ehemaligen Kaserne umzusetzen, erfordert ein kompetentes Projektmanagement mit allen erforderlichen Fachplanern. Maximale Ausnutzung der vorhandenen Raumstrukturen und weitestgehende Weiterverwendung der bestehenden Bausubstanz der Kasernengebäude haben Priorität und erhöhen u. a. den Wert der Nachhaltigkeit. Bei erforderlichen Neubauten auf ehemals militärisch genutzten Arealen sind unter Beachtung der wirtschaftlichen Vertretbarkeit das Erzielen der höchsten Energieeffizienz, die intelligente Umsetzung der Nutzerbelange und die weitreichende Schonung der Ressourcen unerlässlich. Das Buch mit seinen Nachhaltigkeitsanalysen dient als Arbeitshilfe für Baufachleute zur Umsetzung von Nachhaltigkeitszielen bei der Planung und der Realisierung ihrer Konversions-Bauvorhaben.
Resumo:
Der Beitrag entstand im Rahmen des Forschungsprojekts „Mobiler Tiefbau-Assistent mit rechtsverbindlicher und sicherer Daten-Aggregation für den Fernzugriff auf ad-hoc integrierbare leitungsnetzbezogene GeoGovernment-Services (TRUFFLE)“ und beleuchtet am Beispiel der Leitungsnetzauskunft des Zweckverbands Grevesmühlen zentrale Rechtsfragen, die sich bei der Errichtung eines Portals für den Abruf von digitalen Geoinformationen stellen.
Resumo:
In genannter Schrift soll versucht werden, einen aus der Kantschen und Fichteschen Erkenntnistheorie erfolgenden allgemeinen Zusammenhang herzustellen zwischen dem kategorialen Denken hinsichtlich Denken und Anschauen und dem Problem von Raum und Zeit, wie es sich mit der Entwicklung der modernen Physik durch die Relativitäts- und Quantentheorie deutlich aufdrängt. Es wird gezeigt, dass F.W.J. Schelling grundlegende Lösungsansätze hierzu bereitstellt, welche auf dem Gebiet der Logik, der Epistomologie und Naturphilosophie in der Nachfolge von Kant, Fichte und Spinoza stattfinden, jedoch weit über seine Zeit hinausreichen. Diese Ansätze werden von Schelling selbst unter den Begriff einer „Identität der Identität und Differenz“ gesetzt. In der genannten Dissertation sollen Denkbewegungen dargestellt werden, die eine Anbindung der Schellingschen Naturphilosophie an die sich mit den genannten unterschiedlichen Theorien bzw. deren problematischer Vereinheitlichung beschäftigende Physik zu erreichen versuchen. Der formelle Aufbau der Arbeit gehorcht der inhaltlichen Struktur dieser Anbindungsbemühung, insofern unterstellt wird, dass diese rein nur aus einem dialektischen Denken (sowohl in der Erkenntnistheorie, als auch Naturphilosophie) heraus überhaupt erreicht werden kann. So werden sowohl die Tätigkeiten des Verstandes als die des Anschauens in ihrem Zusammenspiel, wie aber auch die Verstandes- und Anschauungstätigkeiten an sich selbst betrachtet, dialektisch vermittelt dargestellt, was innerhalb der formellen Deduktion der Kantschen Kategorien und der korrespondierenden Anschauungsformen selbst durchgeführt wird. Schellings Intention seines späteren Denkens, die philosophischen Probleme auf die Geschichtlichkeit, die Freiheit und den Erfahrungsbezug des Menschen zu beziehen, wird nicht als Gegenposition zu den frühen Ansätze der Logik und Transzendentalphilosophie gedeutet, sondern selbst als Endpunkt einer dialektischen Entwicklung des Schellingschen Denkens gefasst. Dies ergibt folgenden formellen Aufbau der Arbeit: Zunächst wird in einem einleitenden Abschnitt über die Aufgabe der Philosophie selbst und ihrer Darstellbarkeit im Zusammenhang mit der Hegel-Schelling-Kontroverse gearbeitet, um Schelling als adäquaten Bezugspunkt für unsere moderne Diskussion auf der methodischen und sprachlichen Ebene einzuführen. Im Hauptteil werden die wesentlichen Momente der für Schelling wichtigen Transzendentalphilosophie der Jahrhundertwende dargestellt, um diese dann an den späteren phänomenologisch-epistemologischen Ansätzen zu spiegeln. Von der theoretischen Seite kommend werden die Hauptmomente der praktischen Philosophie Schellings aufgezeigt, um dann den Menschen in einem dritten Schritt Symbol der Ununterschiedenheit von logischen und freien Tätigkeiten bzw. von Leib und Seele zu deuten. Diese Resultate bleiben zunächst einmal liegen, um in dem zweiten Hauptabschnitt auf grundlegende naturphilosophische Voraussetzungen und Resultate derjenigen Physik einzugehen, welche die prinzipiellen Verständnisschwierigkeiten der Physik des frühen 20. Jahrhundert in die heutige kosmologische und atomistische Diskussion mitbringt. Der dritte Hauptabschnitt stellt den Versuch dar, Schellings Naturphilosophie an symptomatische Anschauungen der Physik heranzuführen, um ihn als zeitgenössischen Kritiker einzuführen, wie aber auch als einen, der bestimmte moderne naturwissenschaftliche bzw. physikalische Resultate im Besonderen vorwegzunehmen vermochte. Die Einführung seiner Philosophie in aktuelle naturphilosophische Diskussion wird als unabdingbare Voraussetzung zu einem zukünftigen Verständnis des Natur, des Kosmos´ und des Menschen gefordert.
Resumo:
In der vorliegenden Arbeit wird nach Wegen zur Steigerung der Effektivität von Implementationsprozessen umfassender IT-Anwendungen in großen Kommunalverwaltungen gesucht, da nach vorliegenden Schätzungen allenfalls 10 % der großen IT-Projekte der öffentlichen Verwaltungen zielkonform und erfolgreich umgesetzt werden. Analysen zeigen, dass die in solchen Prozessen auftretenden Interdependenzen von Technologie, Organisation und Mensch oft nicht angemessen berücksichtigt wurden. Die zentrale Fragestellung der vorliegenden Untersuchung lautet daher, ob ein IT-Labor mit einer vorgelagerten ablauforganisatorischen Prozessoptimierung im Sinne eines funktionalen Wirksamkeitstests mit einer ganzheitlichen Betrachtung von technologischen, organisatorischen und sozial-humanen Wirkungsfaktoren bei intensiver Einbeziehung von eigenem Personal der Anwendungsorganisation den Implementierungserfolg größerer IT-Vorhaben erhöhen kann. Als methodischer Ansatz wurde eine Fallstudie gewählt (Implementierung von eAkten und SOA). Der Implementierungsverlauf ist methodisch in eine vorgelagerte ablauforganisatorische Prozessoptimierung und in eine nachgelagerte informationstechnologische Umsetzungsphase (sog. IT-Labor) gegliedert. Die Fallstudie legt den Schluss nahe, dass ein IT-Labor mit einer vorgelagerten ablauforganisatorischen Prozessanalyse zum Erfolg der Implementation wesentlich beitragen kann. Zudem zeigte sich, dass eine serviceorientierte Architektur zur prozessorientierten ganzheitlichen technologischen Systemgestaltung die Integration vorhandener IT-Anwendungen fördern kann. Die beschriebene IT-Laborstrategie kann im Ergebnis als ein erprobter Weg zur erfolgreichen Implementierung komplexer IT-Vorhaben empfohlen werden. Aufgrund der Analyse können einige kritische Erfolgsfaktoren für einen späteren Produktivbetrieb identifiziert werden: - Eigene Personalressourcen mit den zugehörigen Lernprozessen sind unverzichtbar, - In diesem Kontext sind auch die zugehörigen organisatorischen und technologischen Voraussetzungen zu schaffen, - Eventuell auftretende Qualifikationsdefizite der Anwender können in Zusammenarbeit mit externen Unternehmen und IT-Dienstleistern im Verbund mit den eigenen Projektmitgliedern zeitnah kompensiert werden. Die angewandte Implementierungs-Methodik ist auf solche Fälle übertragbar, in denen eine Gebietskörperschaft ab der Aufgabenstruktur einer großen kreisfreien Stadt mit heterogenen und dezentralen IT- und Organisationsstrukturen unterschiedliche Fachverfahren in einem komplexen Verwaltungssystem ganzheitlich und prozessorientiert zusammenführen möchte. Grenzen können sich somit aus der Größe einer Gebietskörperschaft, dem konkreten Aufgabenprofil sowie der finanziellen Leistungsfähigkeit ergeben. Eine Transferfähigkeit unter sozialen Gesichtspunkten setzt voraus, dass neben externem Personal qualifiziertes internes Personal mit Fachwissen und Querschnitts-Know-How bereitgestellt wird. Räumlich und zeitlich setzt die Verallgemeinerungsfähigkeit eine analoge politische und administrative Struktur mit einem entsprechenden Entwicklungsstand voraus. Mit den Ergebnissen der vorliegenden Untersuchung können Behördenleiter, IT-Verantwortliche und Beratungsunternehmen künftig in vergleichbaren Fällen eine effektivere Implementierungsmethode wählen. In der weiteren verwaltungswissenschaftlichen Forschung auf diesem Gebiet können auf der Basis der vorgenommenen Untersuchung konkrete Erfahrungen zur IT-Implementierung erhoben und bewertet werden, um weitere Effektivitätsreserven zu identifizieren.
Resumo:
In dieser Dissertation werden mithilfe von Ansätzen, die aus der Mustererekennung abgeleiteten sind, zwei typische Aufgabenstellungen aus dem Bereich der geodätischen Überwachungsmessungen bearbeitet. Die hier benutzten Ansätze bedienen sich automatisch arbeitender Clusterverfahren, die unter Nutzung formaler Kriterien Daten in homogene Gruppen einordnen. Die Besonderheit sind hier die verwendeten Fuzzy-Clusterverfahren, bei denen die Daten nicht genau einer Gruppe zugeordnet werden, sondern jeder Gruppe mit einem graduell variierenden Zugehörigkeitswert. In dem ersten Beispiel geht es um das Auffinden von Punktgruppen mit einem gleichförmigen Bewegungsverhalten in einem zweidimensionalen Überwachungsnetz und in dem zweiten Beispiel um die automatische Klassifizierung von Setzungszeitreihen. In beiden Beispielen wird gezeigt, dass die bisher in der Praxis überwiegend durch einen erfahrenen Auswerter, durch manuelle Beurteilung von graphischen Darstellungen, erfolgte Vorgehensweise weitestgehend automatisiert werden kann.
Resumo:
In regelmäßigen Abständen erregt Gewalt unter Jugendlichen das öffentliche Interesse. Insbesondere liegt hierbei der Fokus auf Formen von offensichtlicher Gewalt wie beispielsweise physische Attacken oder lautstarke, verletzende Kraftausdrücke. Eine besondere Form der psychischen und physischen Gewalt, die vorwiegend in Organisationen zu beobachten ist, stellt das sogenannte Mobbing dar. Das Besondere am Mobbing ist, dass keinerlei Anzeichen für einen auslösenden Konflikt vorhanden sind. Nicht nur in der Arbeitswelt der Erwachsenen, auch unter Schülern findet Mobbing als eine Form von Ausgrenzung, Verletzung und Gewalt statt. Mobbing geht über die alltägliche Konfliktbewältigung hinaus und kann psychische und körperliche Krankheiten verursachen. Die Schule als wichtige Sozialisationsinstanz ist nicht selten Austragungsort dieser speziellen Form von Gewalt. Die zunehmende Mobbing-Problematik an den Schulen signalisiert auffällig das Fehlen sozialer Kompetenzen der Schülerinnen und Schüler und Geschlechterunterschiede in der Sensibilität bei Mobbingprozessen die Hilflosigkeit vieler Bildungseinrichtungen, die komplexe gruppendynamischen Prozesse in den Lerngruppen zu durchschauen und angemessen darauf zu reagieren. Im Rahmen dieser Arbeit steht das Thema Mobbing im Mittelpunkt aller Betrachtungen. Im theoretischen Teil soll zunächst der weite Begriff „Gewalt an Schulen“ dargestellt werden. Des Weiteren soll Kapitel 2 das Phänomen sowie die Problematik des Mobbings veranschaulichen. Sensibilität für Ungerechtigkeit und soziale Kompetenz wird im anschließenden Kapitel 3 als Schlüsselqualifikationen für ein soziales, das heißt gewaltfreies, Miteinander behandelt. In Kapitel 4 des theoretischen Hintergrunds werden das Phänomen der Geschlechterunterschiede, Jungen sind häufiger an Mobbing beteiligt als Mädchen, sowie mögliche Erklärungsansätze für dieses Phänomen dargestellt. Abgeschlossen wird der theoretische Hintergrund mit der Aufstellung der Hypothese. Ausgehend von der Erarbeitung, dass es Unterschiede in der Ausübung gibt, soll die zentrale Fragestellung „Gibt es einen Geschlechterunterschied in der Sensibilität bei Mobbingprozessen“ im Rahmen der Schulstudie herausgearbeitet werden. Im Methodenteil wird zunächst die Untersuchung (Kapitel 6) beschrieben, um anschließend die Ergebnisse (Kapitel 7) aufzuführen. Die Diskussion der Ergebnisse (Kapitel 8) schließt sich an. Abgerundet wird der Methodenteil mit einer Zusammenfassung (Kapitel 9).
Resumo:
Diese Arbeit befasst sich mit der Modellbildung mechatronischer Systeme mit Reibung. Geeignete dynamische Modelle sind die Grundlage für verschiedenste Aufgabenstellungen. Sind dynamische Prozessmodelle verfügbar, so können leistungsfähige modellbasierte Entwurfsmethoden angewendet werden sowie modellbasierte Anwendungen entwickelt werden. Allerdings ist der Aufwand für die Modellbildung ein beschränkender Faktor für eine weite Verbreitung modellbasierter Applikationen in der Praxis. Eine Automatisierung des Modellbildungsprozesses ist deshalb von großem Interesse. Die vorliegende Arbeit stellt für die Klasse „mechatronischer Systeme mit Reibung“ drei Modellierungsmethoden vor: semi-physikalische Modellierung, Sliding-Mode-Beobachter-basierte Modellierung und empirische Modellierung mit einem stückweise affinen (PWA) Modellansatz. Zum Ersten wird die semi-physikalische Modellierung behandelt. Gegenüber anderen Verfahren, die häufig umfangreiche Vorkenntnisse und aufwändige Experimente erfordern, haben diese neuen Verfahren den Vorteil, dass die Modellierung von Systemen mit Reibung selbst bei begrenzten Vorkenntnissen und minimalem Experimentaufwand automatisiert werden kann. Zum Zweiten wird ein neuer Ansatz zur Reibkraftrekonstruktion und Reibmodellierung mittels Sliding-Mode-Beobachter präsentiert. Durch Verwendung des vorgestellten Sliding-Mode- Beobachters, der basierend auf einem einfachen linearen Zustandsraummodell entworfen wird, lässt sich die Reibung datengetrieben aus den Ein-/Ausgangsmessdaten (im offenen Regelkreis) rekonstruieren und modellieren. Im Vergleich zu anderen Reibmodellierungsmethoden, die häufig umfangreiche Vorkenntnisse und aufwändige Messungen im geschlossenen Regelkreis erfordern, haben diese neuen Verfahren den Vorteil, dass die Modellierung von Systemen mit Reibung selbst bei begrenzten Vorkenntnissen und minimalem Experimentaufwand weitgehend automatisiert werden kann. Zum Dritten wird ein PWA-Modellierungsansatz mit einer clusterungsbasierten Identifikationsmethode für Systeme mit Reibung vorgestellt. In dieser Methode werden die Merkmale in Hinblick auf Reibeffekte ausgewählt. Und zwar wird der klassische c-Means-Algorithmus verwendet, welcher bedienfreundlich, effizient und geeignet für große und reale Datensätze ist. Im Gegensatz zu anderen Methoden sind bei dieser Methode nur wenige Entwurfsparameter einzustellen und sie ist für reale Systeme mit Reibung einfach anwendbar. Eine weitere Neuheit der vorgestellten PWA-Methode liegt darin, dass die Kombination der Clustervaliditätsmaße und Modellprädiktionsfehler zur Festlegung der Anzahl der Teilmodelle benutzt wird. Weiterhin optimiert die vorgestellte Methode die Parameter der lokalen Teilmodelle mit der OE (Output-Fehler)-Schätzmethode. Als Anwendungsbeispiele werden Drosselklappen, Drallklappen und AGR-Ventile (Abgasrückführventil) im Dieselfahrzeug betrachtet und die erzeugten Modelle werden in der industriellen HiL-Simulation eingesetzt. Aufgrund der Effizienz und Effektivität der Modellierungsmethoden sind die vorgestellten Methoden direkt in der automobilen Praxis einsetzbar.
Resumo:
Endogene Gefahrensignale, die das Immunsystem aktivieren, sind ein neues Konzept der Immunbiologie. Sie spielen eine Rolle für eine Vielzahl von viralen und bakteriellen Erkrankungen und werden als massgebliche Ursache für eine Reihe von Autoimmunerkrankungen diskutiert. Diese Arbeit testet die Hypothese, dass fragmentierte mitochondriale DNA (mtDNA) immunstimulatorische DNA-Motive beinhaltet, die in der Lage sind, eine Immunantwort durch plasmazytoide dendritische Zellen (PDC, engl. plasmacytoid dendritic cells) zu vermitteln. Daher wurden mtDNA und genomische DNA aus mononukleären Zellen des peripheren Bluts (PBMC, engl. peripheral blood mononuclear cells) und Thrombozyten isoliert. Diese DNA-Spezies wurde mithilfe des liposomalen Transfektionsreagenzes DOTAP in PBMC transfiziert und die Immunaktivierung anhand des Interferon-alpha Spiegels im Zellkulturüberstand gemessen. Beide DNA-Spezies induzierten eine vergleichbare Interferon-Produktion. Eine Verkürzung der mtDNA zu CpG-Inseln verstärkte die immunstimulatorische Kapazität, abhängig vom Vorhandensein unmethylierter CpG-Motive. Die Komplexierung der CpG-Inseln mit dem humanem Cathelicidin LL-37 führte auch ohne DOTAP Transfektion zu einer Interferon-Antwort. Ein weiteres Verkürzen der mtDNA zu mitochondrialen Oligodeoxynukleotiden (mtODN) mit Sequenz- und Strukturähnlichkeiten zu kommerziellen CpG-ODN, lieferte Sequenzen mit starker Interferon-Induktion und der Fähigkeit, PDC zu maturieren und migrieren. Insbesondere waren zwei mtODN mit Doppelpalindromstruktur in der Lage, PDC spontan ohne Transfektion oder als Immunkomplex zu aktivieren. Durchflusszytometrie, Lebendzell- und konfokale Laserscanningmikroskopie zeigte die Anheftung und Aufnahme eines der mtODN in endosomale Kompartimente und Kolokalisation mit TLR9. Auch konnte eine schwache aber signifikante PDC-, B-Zell- und NK-Zell-Aktivierung durch dieses ODN gezeigt werden. Zusammengefaßt deuten unsere Daten darauf hin, dass fragmentierte mitochondriale DNA aus apoptotischen oder nekrotischen Zellen als Gefahrensignal für das Immunsystem fungieren kann und so über Stimulation von PDC zur akuten oder chronischen Immunaktivierung und damit zur Immunpathogenese von HIV-Infektionen beitragen kann.
Resumo:
In dieser Arbeit ist die zentrale Frage, warum dicistronische mRNAs, eine für Eukaryoten untypische Organisation, existieren und wie die Translation des zweiten offenen Leserasters initiiert wird. In sieben von neun anfänglich ausgewählten Genkassetten werden tatsächlich nur dicistronische und keine monocistronischen Transkripte gebildet. Im Laufe der Evolution scheint diese Organisation nicht immer erhalten zu bleiben - es finden sich Hinweise für einen operonartigen Aufbau. Nach Transformation mit einem dicistronischen Reporterkonstrukt und in in vitro Translations-Assays weisen die beiden Genkassetten CG31311 und CG33009 eine interne ribosomale Eintrittstelle (IRES) auf, welche die Translation des zweiten Cistrons einleiten kann. Diese beiden IRESs lassen sich in einen Bereich von unter 100 nt eingrenzen. Die Funktionalität der beiden nachgewiesenen IRESs konnte in vivo in der männlichen Keimbahn von Drosophila bestätigt werden, nachdem das Vorhandensein von kryptischen Promotoren in diesen Bereichen ausgeschlossen wurde. Die anderen fünf Genkassetten hingegen zeigen keine IRES-Aktivität und nutzen wahrscheinlich alternative Methoden wie das leaky scanning oder ribosomal shunting zur Translation des zweiten Cistrons. In weiterführenden Analysen wurden sehr komplexe Expressionsmuster beobachtet, die nicht offensichtlich mit der beschriebenen mRNA Organisation in Einklang zu bringen sind. Bei der Genkassette CG33009 zum Beispiel wird das erste Protein während der gesamten Spermatogenese in den Keimzellen synthetisiert, wohingegen das zweite IRES-abhängig translatierte Protein in den die Keimzellen umschließenden Cystenzellen und zusätzlich in den elongierten Spermatiden auftritt. Diese zusätzliche Expression könnte auf Transportprozessen oder Neusynthese beruhen. Die Cystenzell-spezische Expression eines Fusionskonstruktes führte jedoch nicht zum Nachweis des Fusionsproteins in den Keimzellen. Somit ist eine durch die IRES-vermittelte Neusynthese in den elongierten Spermatiden wahrscheinlicher. Ein Verlust dieses IRES-abhängig translatierten Proteins in den Cystenzellen bringt die Spermatogenese zum Erliegen und belegt somit dessen essentielle Funktion. Bei der Genkassette CG31311 kommt es auch zu einer bemerkenswerten Auffälligkeit in der Expression. Während im Hodengewebe große Mengen an Transkript vorhanden sind, die aber nicht zu nachweisbaren Mengen an Protein führen, lässt sich in den Ommatidien ein differenziertes Expressionsmuster für beide Proteine dokumentieren, obwohl die Transkriptmenge hier unterhalb der Nachweisgrenze liegt. Diese Beobachtung suggeriert eine drastische Kontrolle auf Translationsebene, die für das Hodengewebe zum Beispiel in einer Verzögerung der Translation bis nach der Befruchtung bestehen könnte (paternale mRNA). Erste Ansätze zeigen die Interaktion der IRES von CG33009 mit RNA-bindenden Proteinen, potentiellen ITAFs (IRES trans-acting factors), deren Bindung sequenzspezisch erfolgt. In weiteren Experimenten wäre zu testen, ob die hier identifizierten IRESs mit den gleichen oder mit unterschiedlichen Proteinen interagieren.
Resumo:
In der vorliegenden Arbeit wurde die Biofilmbildung bei einem klinischen Isolat von Enterococcus faecalis untersucht. Der Prozess der Biofilmbildung ist in mehrere Abschnitte unterteilt und beinhaltet zu Beginn eine Anhaftung von Zellen an Oberflächen. Dieser adhäsive Schritt wird unter anderem durch Pili vermittelt. Pili bei Grampositiven Mikroorganismen sind kovalent mit der Zellwand verknüpfte Proteinstrukturen, die eine Anheftung an biotische und abiotische Oberflächen sowie den Zell-Zell-Kontakt vermitteln. Bei den Analysen dieser Doktorarbeit lag ein besonderes Interesse bei eben diesen Pili, die für Enterococcus faecalis die Namen Ebp (endocarditis and biofilm associated pili) und Bee (biofilm enhancer in enterococci) tragen. Codiert werden sie durch die entsprechenden ebp-/bee-Loci, deren Aufbau unter den Grampositiven Mikroorganismen hochkonserviert ist. Die Loci bestehen aus Pilusuntereinheiten-codierenden Genen und colokalisierten Pilus-spezifischen Sortase Genen. Während in der Regel drei verschiedene Pilusuntereinheiten vorliegen, kann die Anzahl der Sortasen zwischen einer und zwei variieren. Bei den Experimenten wurde neben einer Komplementationsstudie zu einer Bee-Pilus Defekt-Mutante (1.10.16) das Hauptaugenmerk auf die Analyse des zweiten Pilus (Ebp) gelegt, um die Pilisituation bei Isolat 1.10 im Detail darzustellen Zusätzlich sollten weitere Oberflächenassoziierte Proteinstrukturen bei Isolat 1.10 detektiert werden, die gegebenenfalls an der Biofilmbildung beteiligt sind. Weitere Versuche zur Charakterisierung des Bee-Pilus wurden im Laufe dieser Arbeit durchgeführt, blieben jedoch bisher erfolglos. Die Biofilm-/Pilus-Defekt-Mutante 1.10.16 zeigte aufgrund einer Punktmutation (Pm) in der Pilus-spezifischen Sortase 1 des bee-Locus eine geschwächte Fähigkeit zur Anheftung an abiotische Oberflächen, sowie das Fehlen der Bee2 Untereinheit im Pilus. Nach Komplementation der Mutante (1.10.16K) mit dem Wildtyp-srt1 Gen, wurde die starke Biofilmbildungsfähigkeit zurück erlangt. Die Experimente zeigten, dass der Pilus-Defekt auf die Pm im srt1 Gen zurückzuführen war und der Bee-Pilus in Stamm 1.10.16K wieder korrekt gebildet wurde. Zu sehen war dies in Rasterelektronenmikroskopischen Aufnahmen und ebenfalls im massenspektrometrischen Nachweis aller 3 Pilusuntereinheiten im Bee-Pilus charakteristischen High-Molecular-Weight Komplex (~ 250 kDa). Durch Sequenzierungen konnte gezeigt werden, dass zwei Gene des ebp-Locus (ebpR und ebpC) bei Isolat 1.10 durch die Insertion von IS-Elementen IS1062 und IS6770 inaktiviert wurden. Der proteinbiochemische Nachweis über Pilusspezifische Antikörper gegen die Untereinheiten des Ebp-Pilus verlief negativ. Zusätzlich konnte gezeigt werden, dass die mRNA der beiden inaktivierten Gene nicht gebildet wurde. Dies führte folglich zum vollständigen Verlust des Ebp-Pilus bei Isolat 1.10. Zusammen mit den Ergebnissen der Komplementation konnte somit der große Einfluss mindestens eines intakten Pilus auf die Biofilmbildung gezeigt werden. Sind beide Pili durch Insertionen bzw. Mutationen inaktiviert, kommt es zu einer deutlichen Abnahme der Biofilmbildungsstärke. Dass trotzdem noch ein Biofilm gebildet wurde, zeigt den multifaktoriellen Zusammenhang bzw. Einfluss im Biofilmbildungsprozess. Über das gezielte Markieren von Oberflächenproteinen intakter Zellen mittels der Oberflächenbiotinylierung, konnten in der SDS-PAGE Unterschiede im Bandenmuster im Vergleich zur unbehandelten Probe erkannt werden. Die massenspektrometrische Identifikation dieser Proteine erfolgte bisher nicht, jedoch sind diese vorläufigen Ergebnisse vielversprechender Natur für die Identifikation und Aufklärung der Oberflächenproteinsituation bei Isolat 1.10.
Resumo:
Arbeitsbedingte Gesundheitsrisiken und deren Folgen stellen eine volkswirtschaftliche Störung dar und führen zu erheblichen Kosten in der gesamten Volkswirtschaft. Arbeitsunfälle und Berufskrankheiten mindern sowohl das Wohlbefinden der Betroffenen als auch die Wohlfahrt der gesamten Volkswirtschaft. Um die Arbeitssicherheit zu gewährleisten ist es daher die Aufgabe des Staates, richtige Rahmenbedingungen der wirtschaftlichen Tätigkeit zu schaffen und effektive Präventions- und Kompensationsmaßnahmen gegen arbeitsbedingte Gesundheitsrisiken zu entwickeln. Hauptzweck eines staatlichen Absicherungssystems gegen Arbeitsunfälle und Berufskrankheiten sollte sowohl eine effektive Prävention von Unfällen sein als auch die Gewährleistung einer angemessenen Entschädigung für den verunfallten Arbeitnehmer. Hinsichtlich der Prävention ist zu prüfen, welche Wirkung von dem Absicherungssystem für die Unfallverhütung ausgeht und wie dessen Vor- und Nachteile zu bewerten sind. Bezüglich der Kompensation soll klargestellt werden, in welchem Umfang Entschädigungsleistungen innerhalb des Absicherungssystems gewährleistet werden sollen, um den entstandenen Schaden des Arbeitnehmers ausreichend zu kompensieren. Im Rahmen dieser Zweckbestimmung spielt die gesetzliche Unfallversicherung, die ein soziales Absicherungssystem gegen Arbeitsunfällen und Berufskrankheiten ist, eine wichtige Rolle. Diese Arbeit befasst sich mit einer rechtsvergleichenden Untersuchung des gegenwärtig geltenden Unfallversicherungsrechts in Deutschland und Korea. Sinn und Zweck der hier angestellten rechtsvergleichende Untersuchung ist es durch eine kritische Analyse und eine Gegenüberstellung mit dem deutschen Recht, Ansätze einer effizienteren Gestaltung und Reformoptionen für das in Korea bestehende gesetzliche Unfallversicherungssystem herauszuarbeiten. In diesem Zusammenhang wird das Recht der deutschen und koreanischen gesetzlichen Unfallversicherung mithilfe verschiedener Kategorien verglichen. Dabei werden Grundgedanken, die Rechtsnatur sowie Präventions-, Rehabilitations- und Kompensationsfunktionen des jeweiligen Unfallversicherungssystems untersucht.