35 resultados para Handhabung


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die personalintensive manuelle Durchführung notwendiger Handhabungsaufgaben im Materialfluss ist bedingt durch die oftmals vielfältig auftretenden charakteristischen Eigenschaften der zu behandelnden Stückgutobjekte. Typische Beispiele hierfür sind die Tätigkeiten des Kommissionierens und Sortierens, geprägt durch einen hohen Anteil manueller Tätigkeiten zur Handhabung wie: Vereinzeln, Greifen, Bewegen, Auf- und Abstapeln, Ordnen, Beladen und Ähnliche. Innovative Greifersysteme zur Stückguthandhabung eröffnen neue Möglichkeiten zur weiteren Automatisierung auch in diesem Bereich. Ein Lösungsansatz zur Entwicklung neuer Greifsysteme ist es, gezielt Friktionskräfte in Oberflächenbereiche des zu greifenden Objektes einzubringen und diese für den Handhabungsvorgang z.B. als Haltekräfte zu nutzen. Bei guten Reibwerten und entsprechender Anordnung der Wirkelemente können Objekte auch dann rein reibschlüssig gegriffen werden, wenn deren Oberfläche nur seitlich und von oben zugänglich ist, wie etwa Kartons im Packmusterverbund auf der Palette.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mode of access: Internet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die wissenschaftlich-technische Zusammenarbeit zwischen dem Institut für Fischereitechnik (IFH) und dem russischen Institut MariNPO in Kaliningrad war 1997/98 schwerpunktmäßig auf die Entwicklung flexibler Vorrichtungen zur Größenselektion von Fischen in Schleppnetzsteerten sowie deren gemeinsame Erprobung in der Ostsee-Dorschfischerei ausgerichtet. Die Vorteile solcher flexiblen Vorrichtungen aus textilem Material verglichen mit starren, meist aus Metall gefertigten bestehen darin, daß sie bei der Handhabung keine dauerhaften Verformungen bekommen, keine Erschwernisse oder Gefährdungen der Decksbesatzung, insbesondere bei schwerem Wetter, verursachen und problemlos mit dem Netz aufgetrommelt werden können. Außerdem sind sie wesentlich billiger in den Anschaffungskosten als Metallgitter aus nichtrostendem Stahl. Ihre Installation vor dem Hievteil ermöglicht zudem ein ungestörteres Selektieren als bei Fluchtfenstern im Bereich des Steertendes, wo die Fische stark verdichtet sind und mehr oder weniger gewaltsam an bzw. durch die Maschen gepreßt werden. Der Umlauftank in Kaliningrad sowie das geschleppte, steuerbare UW-Videosystem des IFH bieten gute Voraussetzungen für eine umfassende experimentelle Untersuchung der entwickelten Vorrichtungen, über die im folgenden berichtet wird.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hintergrund und Fragestellung: Die korrekte intraoperative Positionierung und Einstellung eines mobilen Bildverstärkers (auch C-Bogen) kann zurzeit theoretisch mit Hilfe von Lehrbüchern erlernt, am Gerät selbst aber nur ohne visuelle Rückmeldung, d.h. ohne ein zur Ausrichtung korrespondierendes Röntgenbild, trainiert werden. Hieraus ergibt sich die Fragestellung, inwiefern das Training der Handhabung und richtigen Einstellung des C-Bogens in verschiedenen Operationsszenarien durch ein C-Bogen Simulationssystem als Teil eines CBT-Systems (Computer Based Training) unterstützt werden kann. Methoden: In Kooperation mit Ärzten aus Unfallchirurgie und Radiologie wurde das computer-basierte Trainingssystem virtX entwickelt. virtX kann dem Nutzer verschiedene Aufgaben zur Einstellung eines C-Bogens stellen und die Ausführung und das Ergebnis bewerten. Die Aufgaben können mit Hilfe eines Autorensystems erstellt und vom Trainierenden in verschiedenen Modi erfüllt werden: im rein virtuellen Modus oder im kombinierten virtuell-realen Modus. Im rein virtuellen Modus steuert der Nutzer den virtuellen C-Bogen in einem virtuellen OP-Saal mittels einer grafisch-interaktiven Benutzungsoberfläche. Im virtuell-realen Modus hingegen wird die Ausrichtung eines realen C-Bogens erfasst und auf den virtuellen C-Bogen übertragen. Während der Aufgabenerfüllung kann der Benutzer zu jeder Zeit ein realitätsnahes, virtuelles Röntgenbild erzeugen und dabei alle Parameter wie Blendenstellung, Röntgenintensität, etc. wie bei einem realen C-Bogen steuern. virtX wurde auf einem dreitägigen Kurs für OP-Personal mit 120 Teilnehmern eingesetzt und auf der Basis von Fragebögen evaluiert. Ergebnisse: Von den Teilnehmern gaben 79 einen ausgefüllten Evaluations-Fragebogen ab. Das Durchschnittsalter der 62 weiblichen und 15 männlichen Teilnehmer (zwei o.A.) lag bei 34 ± 9 Jahren, die Berufserfahrung bei 8,3 ± 7,6 Jahren. 18 Personen (23%) gaben an, gelegentlich mit einem C-Bogen zu arbeiten, 61 (77%) arbeiteten regelmäßig damit. Über 83% der befragten Teilnehmer empfanden virtX als eine sinnvolle Ergänzung zur herkömmlichen Ausbildung am C-Bogen. Das virtuelle Röntgen wurde mit einer Zustimmung von 91% der befragten Teilnehmer als besonders wichtig für das Verständnis der Arbeitsweise eines C-Bogens beurteilt. Ebenso erhielt der kombinierte virtuell-reale Modus mit 84% Zustimmung einen vergleichsweise hohen Stellenwert. Schlussfolgerung: Die Befragung zeichnet ein positives Bild der Akzeptanz des virtX-System als substanzielle Ergänzung zur herkömmlichen Ausbildung am C-Bogen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hintergrund und Fragestellung: Die durch röntgentechnische Diagnoseverfahren in der Medizin entstehende Strahlenbelastung für Patient und Personal soll laut Strahlenschutzverordnung so gering wie möglich gehalten werden. Um dieses zu erreichen ist ein professioneller und bedachter Umgang mit den Röntgengeräten unabdingbar. Dieses Verhalten kann derzeit jedoch nur theoretisch vermittelt werden, da sich ein Üben mit realer Strahlung von selbst verbietet. Daher stellt sich die Frage wie man die Strahlenschutzausbildung durch eine verbesserte Vermittlung der komplexen Thematik unterstützen kann. Methoden: Das CBT-System (Computer Based Training) virtX, welches das Erlernen der korrekten Handhabung mobiler Röntgengeräte unterstützt, wurde um Aspekte aus dem Bereich des Strahlenschutzes erweitert. Es wurde eine prototypische Visualisierung der entstehenden Streustrahlung sowie die Darstellung des Nutzstrahlenganges integriert. Des Weiteren wurde die Berechnung und Anzeige der virtuellen Einfallsdosis für das durchstrahlte Volumen sowie für den Bereich des Bildverstärkers hinzugefügt. Für die Berechnung und Visualisierung all dieser Komponenten werden die in virtX parametrisierbaren C-Bogen-Einstellungen, z.B. Stellung der Blenden, Positionierung des Röntgengerätes zum durchstrahlten Volumen und Strahlenintensität, herangezogen. Das so erweiterte System wurde auf einem dreitägigen Kurs für OP-Personal mit über 120 Teilnehmern eingesetzt und auf der Basis von Fragebögen evaluiert. Ergebnisse: Von den Teilnehmern gaben 55 einen ausgefüllten Evaluations-Fragebogen ab (Responserate 82%). Das Durchschnittsalter der 39 weiblichen und 15 männlichen Teilnehmer (einer o.A.) lag bei 33±8 Jahren, die Berufserfahrung bei 9,37±7 Jahren. Die Erfahrung mit dem C-Bogen wurde von einem Teilnehmer (2%) mit „Keine oder bisher nur Einführung erhalten“, von acht Teilnehmern (14%) mit „bediene einen C-Bogen gelegentlich“ und von 46 (84%) mit „bediene einen C-Bogen regelmäßig“ angegeben. 45 (92%) der Teilnehmer gaben an, durch die Visualisierung der Streustrahlung etwas Neues zur Vermeidung unnötiger Strahlenbelastung dazugelernt zu haben. Schlussfolgerung: Trotz einer bislang nur prototypischen Visualisierung der Streustrahlung können mit virtX zentrale Aspekte und Verhaltensweisen zur Vermeidung unnötiger Strahlenbelastung erfolgreich vermittelt werden und so Lücken der traditionellen Strahlenschutzausbildung geschlossen werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Angepasste Kommunikationssysteme für den effizienten Einsatz in dezentralen elektrischen Versorgungsstrukturen - In öffentlichen Elektrizitätsnetzen wird der Informationsaustausch seit längerem durch historisch gewachsene und angepasste Systeme erfolgreich bewerkstelligt. Basierend auf einem weiten Erfahrungsspektrum und einer gut ausgebauten Kommunikationsinfrastruktur stellt die informationstechnische Anbindung eines Teilnehmers im öffentlichen Versorgungsnetz primär kein Hemmnis dar. Anders gestaltet sich dagegen die Situation in dezentralen Versorgungsstrukturen. Da die Elektrifizierung von dezentralen Versorgungsgebieten, mittels der Vernetzung vieler verteilter Erzeugungsanlagen und des Aufbaus von nicht an das öffentliche Elektrizitätsnetz angeschlossenen Verteilnetzen (Minigrids), erst in den letzten Jahren an Popularität gewonnen hat, sind nur wenige Projekte bis dato abgeschlossen. Für die informationstechnische Anbindung von Teilnehmern in diesen Strukturen bedeutet dies, dass nur in einem sehr begrenzten Umfang auf Erfahrungswerte bei der Systemauswahl zurückgegriffen werden kann. Im Rahmen der Dissertation ist deshalb ein Entscheidungsfindungsprozess (Leitfaden für die Systemauswahl) entwickelt worden, der neben einem direkten Vergleich von Kommunikationssystemen basierend auf abgeleiteten Bewertungskriterien und Typen, der Reduktion des Vergleichs auf zwei Systemwerte (relativer Erwartungsnutzenzuwachs und Gesamtkostenzuwachs), die Wahl eines geeigneten Kommunikationssystems für die Applikation in dezentralen elektrischen Versorgungsstrukturen ermöglicht. In Anlehnung an die klassische Entscheidungstheorie werden mit der Berechnung eines Erwartungsnutzens je Kommunikationssystems, aus der Gesamtsumme der Einzelprodukte der Nutzwerte und der Gewichtungsfaktor je System, sowohl die technischen Parameter und applikationsspezifischen Aspekte, als auch die subjektiven Bewertungen zu einem Wert vereint. Mit der Ermittlung der jährlich erforderlichen Gesamtaufwendungen für ein Kommunikationssystem bzw. für die anvisierten Kommunikationsaufgaben, in Abhängigkeit der Applikation wird neben dem ermittelten Erwartungsnutzen des Systems, ein weiterer Entscheidungsparameter für die Systemauswahl bereitgestellt. Die anschließende Wahl geeigneter Bezugsgrößen erlaubt die Entscheidungsfindung bzgl. der zur Auswahl stehenden Systeme auf einen Vergleich mit einem Bezugssystem zurückzuführen. Hierbei sind nicht die absoluten Differenzen des Erwartungsnutzen bzw. des jährlichen Gesamtaufwandes von Interesse, sondern vielmehr wie sich das entsprechende System gegenüber dem Normal (Bezugssystem) darstellt. Das heißt, der relative Zuwachs des Erwartungsnutzen bzw. der Gesamtkosten eines jeden Systems ist die entscheidende Kenngröße für die Systemauswahl. Mit dem Eintrag der berechneten relativen Erwartungsnutzen- und Gesamtkostenzuwächse in eine neu entwickelte 4-Quadranten-Matrix kann unter Berücksichtigung der Lage der korrespondierenden Wertepaare eine einfache (grafische) Entscheidung bzgl. der Wahl des für die Applikation optimalsten Kommunikationssystems erfolgen. Eine exemplarisch durchgeführte Systemauswahl, basierend auf den Analyseergebnissen von Kommunikationssystemen für den Einsatz in dezentralen elektrischen Versorgungsstrukturen, veranschaulicht und verifiziert die Handhabung des entwickelten Konzeptes. Die abschließende Realisierung, Modifikation und Test des zuvor ausgewählten Distribution Line Carrier Systems unterstreicht des Weiteren die Effizienz des entwickelten Entscheidungsfindungsprozesses. Dem Entscheidungsträger für die Systemauswahl wird insgesamt ein Werkzeug zur Verfügung gestellt, das eine einfache und praktikable Entscheidungsfindung erlaubt. Mit dem entwickelten Konzept ist erstmals eine ganzheitliche Betrachtung unter Berücksichtigung sowohl der technischen und applikationsspezifischen, als auch der ökonomischen Aspekte und Randbedingungen möglich, wobei das Entscheidungsfindungskonzept nicht nur auf die Systemfindung für dezentrale elektrische Energieversorgungsstrukturen begrenzt ist, sondern auch bei entsprechender Modifikation der Anforderungen, Systemkenngrößen etc. auf andere Applikationsanwendungen übertragen werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der Arbeit werden zunächst die wesentlichsten Fakten über Schiefpolynome wiederholt, der Fokus liegt dabei auf Shift- und q-Shift-Operatoren in Charakteristik Null. Alle für die Arithmetik mit diesen Objekten notwendigen Konzepte und Algorithmen finden sich im ersten Kapitel. Einige der zur Bestimmung von Lösungen notwendigen Daten können aus dem Newtonpolygon, einer den Operatoren zugeordneten geometrischen Figur, abgelesen werden. Die Herleitung dieser Zusammenhänge ist das Thema des zweiten Kapitels der Arbeit, wobei dies insbesondere im q-Shift-Fall in dieser Form neu ist. Das dritte Kapitel beschäftigt sich mit der Bestimmung polynomieller und rationaler Lösungen dieser Operatoren, dabei folgt es im Wesentlichen der Darstellung von Mark van Hoeij. Der für die Faktorisierung von (q-)Shift Operatoren interessanteste Fall sind die sogenannten (q-)hypergeometrischen Lösungen, die direkt zu Rechtsfaktoren erster Ordnung korrespondieren. Im vierten Kapitel wird der van Hoeij-Algorithmus vom Shift- auf den q-Shift-Fall übertragen. Außerdem wird eine deutliche Verbesserung des q-Petkovsek-Algorithmus mit Hilfe der Daten des Newtonpolygons hergeleitet. Das fünfte Kapitel widmet sich der Berechnung allgemeiner Faktoren, wozu zunächst der adjungierte Operator eingeführt wird, der die Berechnung von Linksfaktoren erlaubt. Dann wird ein Algorithmus zur Berechnung von Rechtsfaktoren beliebiger Ordnung dargestellt. Für die praktische Benutzung ist dies allerdings für höhere Ordnungen unpraktikabel. Bei fast allen vorgestellten Algorithmen tritt das Lösen linearer Gleichungssysteme über rationalen Funktionenkörpern als Zwischenschritt auf. Dies ist in den meisten Computeralgebrasystemen nicht befriedigend gelöst. Aus diesem Grund wird im letzten Kapitel ein auf Evaluation und Interpolation basierender Algorithmus zur Lösung dieses Problems vorgestellt, der in allen getesteten Systemen den Standard-Algorithmen deutlich überlegen ist. Alle Algorithmen der Arbeit sind in einem MuPAD-Package implementiert, das der Arbeit beiliegt und eine komfortable Handhabung der auftretenden Objekte erlaubt. Mit diesem Paket können in MuPAD nun viele Probleme gelöst werden, für die es vorher keine Funktionen gab.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Als Merkmale "guter Supervision" wurden in einer empirischen Studie vor allem die strikte Aufgabenorientierung der Supervisoren, die umfassende sozialwissenschaftliche Fundierung ihrer Interventionen, ihre Triangulierungskompetenz und die Ressourcenorientierung herausgearbeitet. Den Supervisionsexperten gelingt es, die Abstinenz in der Supervision und die Handhabung von Übertragung und Widerstand feldspezifisch und gegenstandsangemessen zu variieren. Erfolgreiche Supervisoren, so ließ sich zeigen, vereinen Fähigkeiten als Team- und Personalentwickler, Organisationsberater, Lehrer und Forscher und verfügen über gut entwickelte Fall- und Teamsupervisionskompetenz. Der vorliegende Aufsatz stellt eine konzeptionelle Reflexion zu den Ergebnissen des Forschungsprojekts dar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Selbstbestimmung und -gestaltung des eigenen Alltages gewinnen immer mehr an Bedeutung, insbesondere für ältere Mitmenschen in ländlichen Regionen, die auf ärztliche Versorgung angewiesen sind. Die Schaffung sogenannter smart personal environments mittels einer Vielzahl von, nahezu unsichtbar installierten Sensoren im gewohnten Lebensraum liefert dem Anwender (lebens-) notwendige Informationen über seine Umgebung oder seinen eigenen Körper. Dabei gilt es nicht den Anwender mit technischen Daten, wie Spektren, zu überfordern. Vielmehr sollte die Handhabung so einfach wie möglich gestaltet werden und die ausgewertete Information als Indikationsmittel zum weiteren Handeln dienen. Die Anforderungen an moderne Technologien sind folglich eine starke Miniaturisierung, zur optimalen Integration und Mobilität, bei gleichzeitig hoher Auflösung und Stabilität. Die Zielsetzung der vorliegenden Arbeit ist die Miniaturisierung eines spektroskopischen Systems bei gleichzeitig hohem Auflösungsvermögen für die Detektion im sichtbaren Spektralbereich. Eine Möglichkeit für die Herstellung eines konkurrenzfähigen „Mini-„ oder „Mikrospektrometers“ basiert auf Fabry-Pérot (FP) Filtersystemen, da hierbei die Miniaturisierung nicht wie üblich auf Gittersysteme limitiert ist. Der maßgebliche Faktor für das spektrale Auflösungsvermögen des Spektrometers ist die vertikale Präzision und Homogenität der einzelnen 3D Filterkavitäten, die die unterschiedlichen Transmissionswellenlängen der einzelnen Filter festlegen. Die wirtschaftliche Konkurrenzfähigkeit des am INA entwickelten Nanospektremeters wurde durch die maximale Reduzierung der Prozessschritte, nämlich auf einen einzigen Schritt, erreicht. Erstmalig wird eine neuartige Nanoimprint Technologie, die sog. Substrate Conformal Imprint Lithography, für die Herstellung von wellenlängen-selektierenden Filterkavitäten von stark miniaturisierten Spektrometern eingesetzt. Im Zuge dieser Arbeit wird das Design des FP Filtersystems entwickelt und technologisch mittels Dünnschichtdeposition und der Nanoimprinttechnologie realisiert. Ein besonderer Schwerpunkt liegt hierbei in der Untersuchung des Prägematerials, dessen optische Eigenschaften maßgeblich über die Performance des Filtersystems entscheiden. Mit Hilfe eines speziell gefertigten Mikroskopspektrometers werden die gefertigten Filterfelder hinsichtlich ihrer Transmissionseigenschaften und ihres Auflösungsvermögens hin untersucht. Im Hinblick auf publizierte Arbeiten konkurrierender Arbeitsgruppen konnte eine deutliche Verbesserung des miniaturisierten Spektrometers erreicht werden. Die Minimierung der Prozessschritte auf einen einzigen Prägeschritt sorgt gleichzeitig für eine schnelle und zuverlässige Replikation der wellenlängenselektierenden Filterkavitäten. Im Rahmen dieser Arbeit wurde aufgezeigt, dass das angestrebte Nanospektrometer, trotz der sehr geringen Größe, eine hohe Auflösung liefern kann und gerade wegen der starken Miniaturisierung mit kommerziellen Mini- und Mikro-spektrometern konkurrenzfähig ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Miniaturisierung von konventioneller Labor- und Analysetechnik nimmt eine zentrale Rolle im Bereich der allgemeinen Lebenswissenschaften und medizinischen Diagnostik ein. Neuartige und preiswerte Technologieplattformen wie Lab-on-a-Chip (LOC) oder Mikrototalanalysesysteme (µTAS) versprechen insbesondere im Bereich der Individualmedizin einen hohen gesellschaftlichen Nutzen zur frühzeitigen und nichtinvasiven Diagnose krankheitsspezifischer Indikatoren. Durch den patientennahen Einsatz preiswerter und verlässlicher Mikrochips auf Basis hoher Qualitätsstandards entfallen kostspielige und zeitintensive Zentrallaboranalysen, was gleichzeitig Chancen für den globalen Einsatz - speziell in Schwellen- und Entwicklungsländern - bietet. Die technischen Herausforderungen bei der Realisierung moderner LOC-Systeme sind in der kontrollierten und verlässlichen Handhabung kleinster Flüssigkeitsmengen sowie deren diagnostischem Nachweis begründet. In diesem Kontext wird der erfolgreichen Integration eines fernsteuerbaren Transports von biokompatiblen, magnetischen Mikro- und Nanopartikeln eine Schlüsselrolle zugesprochen. Die Ursache hierfür liegt in der vielfältigen Einsetzbarkeit, die durch die einzigartigen Materialeigenschaften begründet sind. Diese reichen von der beschleunigten, aktiven Durchmischung mikrofluidischer Substanzvolumina über die Steigerung der molekularen Interaktionsrate in Biosensoren bis hin zur Isolation und Aufreinigung von krankheitsspezifischen Indikatoren. In der Literatur beschriebene Ansätze basieren auf der dynamischen Transformation eines makroskopischen, zeitabhängigen externen Magnetfelds in eine mikroskopisch veränderliche potentielle Energielandschaft oberhalb magnetisch strukturierter Substrate, woraus eine gerichtete und fernsteuerbare Partikelbewegung resultiert. Zentrale Kriterien, wie die theoretische Modellierung und experimentelle Charakterisierung der magnetischen Feldlandschaft in räumlicher Nähe zur Oberfläche der strukturierten Substrate sowie die theoretische Beschreibung der Durchmischungseffekte, wurden jedoch bislang nicht näher beleuchtet, obwohl diese essentiell für ein detailliertes Verständnis der zu Grunde liegenden Mechanismen und folglich für einen Markteintritt zukünftiger Geräte sind. Im Rahmen der vorgestellten Arbeit wurde daher ein neuartiger Ansatz zur erfolgreichen Integration eines Konzepts zum fernsteuerbaren Transport magnetischer Partikel zur Anwendung in modernen LOC-Systemen unter Verwendung von magnetisch strukturierten Exchange-Bias (EB) Dünnschichtsystemen verfolgt. Die Ergebnisse zeigen, dass sich das Verfahren der ionenbe-schussinduzierten magnetischen Strukturierung (IBMP) von EB-Systemen zur Herstellung von maßgeschneiderten magnetischen Feldlandschaften (MFL) oberhalb der Substratoberfläche, deren Stärke und räumlicher Verlauf auf Nano- und Mikrometerlängenskalen gezielt über die Veränderung der Materialparameter des EB-Systems via IBMP eingestellt werden kann, eignet. Im Zuge dessen wurden erstmals moderne, experimentelle Verfahrenstechniken (Raster-Hall-Sonden-Mikroskopie und rastermagnetoresistive Mikroskopie) in Kombination mit einem eigens entwickelten theoretischen Modell eingesetzt, um eine Abbildung der MFL in unterschiedlichen Abstandsbereichen zur Substratoberfläche zu realisieren. Basierend auf der quantitativen Kenntnis der MFL wurde ein neuartiges Konzept zum fernsteuerbaren Transport magnetischer Partikel entwickelt, bei dem Partikelgeschwindigkeiten im Bereich von 100 µm/s unter Verwendung von externen Magnetfeldstärken im Bereich weniger Millitesla erzielt werden können, ohne den magnetischen Zustand des Substrats zu modifizieren. Wie aus den Untersuchungen hervorgeht, können zudem die Stärke des externen Magnetfelds, die Stärke und der Gradient der MFL, das magnetfeldinduzierte magnetische Moment der Partikel sowie die Größe und der künstlich veränderliche Abstand der Partikel zur Substratoberfläche als zentrale Einflussgrößen zur quantitativen Modifikation der Partikelgeschwindigkeit genutzt werden. Abschließend wurde erfolgreich ein numerisches Simulationsmodell entwickelt, das die quantitative Studie der aktiven Durchmischung auf Basis des vorgestellten Partikeltransportkonzepts von theoretischer Seite ermöglicht, um so gezielt die geometrischen Gegebenheiten der mikrofluidischen Kanalstrukturen auf einem LOC-System für spezifische Anwendungen anzupassen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im ersten Teil der Arbeit wurde das Bindungsverhalten von Annexin A1 und Annexin A2t an festkörperunterstützte Lipidmembranen aus POPC und POPS untersucht. Für beide Proteine konnte mit Hilfe der Fluoreszenzmikroskopie gezeigt werden, dass irreversible Bindung nur in Anwesenheit von POPS auftritt. Durch rasterkraftmikroskopische Aufnahmen konnte die laterale Organisation der Annexine auf der Lipidmembran dargestellt werden. Beide Proteine lagern sich in Form lateraler Aggregate (zweidimensionale Domänen) auf der Oberfläche an, außerdem ist der Belegungsgrad und die Größe der Domänen von der Membranzusammensetzung und der Calciumkonzentration abhängig. Mit zunehmendem POPS-Gehalt und Calciumkonzentration steigt der Belegungsgrad an und der mittlere Domänenradius wird kleiner. Diese Ergebnisse konnten in Verbindung mit detaillierten Bindungsstudien des Annexins A1 mit der Quarzmikrowaage verwendet werden, um ein Bindungsmodell auf Basis einer heterogenen Oberfläche zu entwickeln. Auf einer POPC-reichen Matrix findet reversible Adsorption statt und auf POPS-reichen Domänen irreversible Adsorption. Durch die Anpassung von dynamischen Monte Carlo-Simulationen basierend auf einer zweidimensionalen zufälligen sequentiellen Adsorption konnten Erkenntnisse über die Membranstruktur und die kinetischen Ratenkonstanten in Abhängigkeit von der Calciumkonzentration und der Inkubationszeit des Proteins gewonnen werden. Die irreversible Bindung ist in allen Calciumkonzentrationsbereichen schneller als die reversible. Außerdem zeigt die irreversible Adsorption eine deutlich stärkere Abhängigkeit von der Calciumkonzentration. Ein kleinerer Belegungsgrad bei niedrigen Ca2+-Gehalten ist hauptsächlich durch die Abnahme der verfügbaren Bindungsplätze auf der Oberfläche zu erklären. Die gute Übereinstimmung der aus den Monte Carlo-Simulationen erhaltenen Domänenstrukturen mit den rasterkraftmikroskopischen Aufnahmen und die Tatsache, dass sich die simulierten Resonanzfrequenzverläufe problemlos an die experimentellen Kurven aus den QCM-Messungen anpassen ließen, zeigt die gute Anwendbarkeit des entwickelten Simulationsprogramms auf die Adsorption von Annexin A1. Die Extraktion der kinetischen Parameter aus dem zweidimensionalen RSA-Modell ist mit Sicherheit einem einfachen Langmuir-Ansatz überlegen. Bei einem Langmuir-Modell erfolgt eine integrale Erfassung einer einzelnen makroskopischen Geschwindigkeitskonstante, während durch das RSA-Modell eine differenzierte Betrachtung des reversiblen und irreversiblen Bindungsprozesses möglich ist. Zusätzlich lassen sich mikroskopische Informationen über die Oberflächenbeschaffenheit gewinnen. Im zweiten Teil der Arbeit wurde das thermotrope Phasenverhalten von festkörperunterstützten Phospholipidbilayern untersucht. Dazu wurden mikrostrukturierte, frei stehende Membranstreifen präpariert und mit Hilfe der bildgebenden Ellipsometrie untersucht. Dadurch konnten die temperaturabhängigen Verläufe der Schichtdicke und der lateralen Membranausdehnung parallel beobachtet werden. Die ermittelten Phasenübergangstemperaturen von DMPC, diC15PC und DPPC lagen 2 - 3 °C oberhalb der Literaturwerte für vesikuläre Systeme. Außerdem wurde eine deutliche Verringerung der Kooperativität der Phasenumwandlung gefunden, was auf einen großen Einfluss des Substrats bei den festkörperunterstützten Lipidmembranen schließen lässt. Zusätzlich wurde ein nicht systematischer Zusammenhang der Ergebnisse von der Oberflächenpräparation gefunden, der es unabdingbar macht, bei Untersuchungen von festkörperunterstützten Substraten einen internen Standard einzuführen. Bei der Analyse des thermotropen Phasenübergangsverhaltens von DMPC/Cholesterol - Gemischen wurde daher die individuelle Adressierbarkeit der strukturierten Lipidmembranen ausgenutzt und ein Lipidstreifen aus reinem DMPC als Standard verwendet. Auf diese Weise konnte gezeigt werden, dass das für Phospholipide typische Phasenübergangsverhalten ab 30 mol% Cholesterol in der Membran nicht mehr vorhanden ist. Dies ist auf die Bildung einer nur durch höhere Sterole induzierten fluiden Phase mit hoch geordneten Acylketten zurückzuführen. Abschließend konnte durch die Zugabe von Ethanol zu einer mikrostrukturierten DMPC-Membran die Bildung eines interdigitierten Bilayers nachgewiesen werden. Die bildgebende Ellipsometrie ist eine sehr gute Methode zur Untersuchung festkörperunterstützter Lipidmembranen, da sie über ein sehr gutes vertikales und ein ausreichendes laterales Auflösungsvermögen besitzt. Sie ist darin zwar einem Rasterkraftmikroskop noch unterlegen, besitzt dafür aber eine einfachere Handhabung beim Umgang mit Flüssigkeiten und in der Temperierung, eine schnellere Bildgebung und ist als optische Methode nicht-invasiv.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Domoinsäure ist ein von mehreren Arten mariner Kieselalgen der Gattung Pseudonitzschia produziertes Toxin, welches während einer Algenblüte in Molluscen wie z.B. der Miesmuschel Mytilus sp. akkumuliert werden kann. Beim Verzehr solch kontaminierter Muscheln können sowohl beim Menschen als auch bei Tieren erhebliche Vergiftungserscheinungen auftreten, die von Übelkeit, Kopfschmerzen und Orientierungsstörungen bis hin zum Verlust des Kurzzeitgedächtnisses (daher auch als amnesic shellfish poisoning bekannt) reichen und in einigen Fällen tödlich enden. rnDie heute gängigen Methoden zur Detektion von Domoinsäure in Muschelgewebe wie Flüssigkeitschromatographie und Maus-Bioassay sind zeit- und kostenintensiv bzw. in Anbetracht einer Verbesserung des Tierschutzes aus ethischer Sicht nicht zu vertreten. Immunologische Testsysteme stellen eine erstrebenswerte Alternative dar, da sie sich durch eine vergleichsweise einfache Handhabung, hohe Selektivität und Reproduzierbarkeit auszeichnen.rnDas Ziel der vorliegenden Arbeit war es, ein solches immunologisches Testsystem zur Detektion von Domoinsäure zu entwickeln. Hierfür wurden zunächst Antikörper gegen Domoinsäure gewonnen, wofür das Toxin wiederum als erstes über die Carbodiimid-Methode an das Trägerprotein keyhole limpet hemocyanin (KLH) gekoppelt wurde, um eine Immunantwort auslösen zu können. Kaninchen und Mäuse wurden mit KLH-DO-Konjugaten nach vorgegebenen Immunisierungsschemata immunisiert. Nach vier Blutabnahmen zeigte das polyklonale Kaninchenantiserum eine ausreichend hohe Sensitivität zum Antigen; das nachfolgende Detektionssystem wurde mit Hilfe dieses polyklonalen Antikörpers aufgebaut. Zwar ist es gegen Ende der Arbeit auch gelungen, einen spezifischen monoklonalen Antikörper aus der Maus zu gewinnen, jedoch konnte dieser aus zeitlichen Gründen nicht mehr im Detektionssystem etabliert werden, was durchaus wünschenswert gewesen wäre. rnWeiterhin wurde Domoinsäure im Zuge der Entwicklung eines neuartigen Testsystems an die Trägerproteine Ovalbumin, Trypsininhibitor und Casein sowie an Biotin konjugiert. Die Kopplungserfolge wurden im ELISA, Western Blot bzw. Dot Blot nachgewiesen. Die Ovalbumin-gekoppelte sowie die biotinylierte Domoinsäure dienten im Folgenden als die zu messenden Größen in den Detektionsassays- die in einer zu untersuchenden Probe vorhandende, kompetitierende Domoinsäure wurde somit indirekt nachgewiesen. rnDer zulässige Höchstwert für Domoinsäure liegt bei 20 µg/g Muschelgewebe. Sowohl mit Biotin-DO als auch mit OVA-DO als den zu messenden Größen waren Domoinsäurekonzentrationen unterhalb dieses Grenzwertes nachweisbar; allerdings erwies sich der Aufbau mit Biotin-DO um das ca. 20-fache empfindlicher als jener mit OVA-DO. rnDie in dieser Arbeit präsentierten Ergebnisse könnten als Grundlage zur Etablierung eines kommerzialisierbaren immunologischen Testsystems zur Detektion von Domoinsäure und anderen Biotoxinen dienen. Nach erfolgreicher Validierung wäre ein solches Testsystem in seiner Handhabung einfacher als die gängige Flüssigkeitschromatographie und besser reproduzierbar als der Maus-Bioassay.rn