42 resultados para Einlagerung radioaktiver Abfälle


Relevância:

10.00% 10.00%

Publicador:

Resumo:

This doctoral thesis describes the extension of the resonance ionization laser ion source RILIS at CERN/ISOLDE by the addition of an all-solid state tunable titanium:sapphire (Ti:Sa) laser system to complement the well-established system of dye lasers. Synchronous operation of the so called Dual RILIS system of Ti:Sa and dye lasers was investigated and the potential for increased ion beam intensity, reliability, and reduced setup time has been demonstrated. In-source resonance ionization spectroscopy was performed at ISOLDE/CERN and at ISAC/TRIUMF radioactive ion beam facilities to develop an efficient and selective three-colour ionization scheme for the purely radioactive element astatine. A LabVIEW based monitoring, control and measurement system was conceived which enabled, in conjunction with Dual RILIS operation, the spectroscopy of high lying Rydberg states, from which the ionization potential of the astatine atom was determined for the first time experimentally.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit ist ein Beitrag zu den schnell wachsenden Forschungsgebieten der Nano-Biotechnologie und Nanomedizin. Sie behandelt die spezifische Gestaltung magnetischer Nanomaterialien für verschiedene biomedizinische Anwendungsgebiete, wie beispielsweise Kontrastmittel für die magnetische Resonanztomographie (MRT) oder "theragnostische" Agenzien für simultane optische/MR Detektion und Behandlung mittels photodynamischer Therapie (PDT).rnEine Vielzahl magnetischer Nanopartikel (NP) mit unterschiedlichsten magnetischen Eigenschaften wurden im Rahmen dieser Arbeit synthetisiert und erschöpfend charakterisiert. Darüber hinaus wurde eine ganze Reihe von Oberflächenmodifizierungsstrategien entwickelt, um sowohl die kolloidale als auch die chemische Stabilität der Partikel zu verbessern, und dadurch den hohen Anforderungen der in vitro und in vivo Applikation gerecht zu werden. Diese Strategien beinhalteten nicht nur die Verwendung bi-funktionaler und multifunktioneller Polymerliganden, sondern auch die Kondensation geeigneter Silanverbindungen, um eine robuste, chemisch inerte und hydrophile Siliziumdioxid- (SiO2) Schale um die magnetischen NP auszubilden.rnGenauer gesagt, der Bildungsmechanismus und die magnetischen Eigenschaften monodisperser MnO NPs wurden ausgiebig untersucht. Aufgrund ihres einzigartigen magnetischen Verhaltens eignen sich diese NPs besonders als (positive) Kontrastmittel zur Verkürzung der longitudinalen Relaxationszeit T1, was zu einer Aufhellung im entsprechenden MRT-Bild führt. Tatsächlich wurde dieses kontrastverbessernde Potential in mehreren Studien mit unterschiedlichen Oberflächenliganden bestätigt. Au@MnO „Nanoblumen“, auf der anderen Seite, sind Vertreter einer weiteren Klasse von Nanomaterialien, die in den vergangenen Jahren erhebliches Interesse in der wissenschaftlichen Welt geweckt hat und oft „Nano-hetero-Materialien“ genannt wird. Solche Nano-hetero-partikel vereinen die individuellen physikalischen und chemischen Eigenschaften der jeweiligen Komponenten in einem nanopartikulärem System und erhöhen dadurch die Vielseitigkeit der möglichen Anwendungen. Sowohl die magnetischen Merkmale von MnO, als auch die optischen Eigenschaften von Au bieten die Möglichkeit, diese „Nanoblumen“ für die kombinierte MRT und optische Bildgebung zu verwenden. Darüber hinaus erlaubt das Vorliegen zweier chemisch unterschiedlicher Oberflächen die gleichzeitige selektive Anbindung von Katecholliganden (auf MnO) und Thiolliganden (auf Au). Außerdem wurde das therapeutische Potential von magnetischen NPs anhand von MnO NPs demonstriert, die mit dem Photosensibilisator Protoporhyrin IX (PP) funktionalisiert waren. Bei Bestrahlung mit sichtbarem Licht initiiert PP die Produktion von zytotoxisch-reaktivem Sauerstoff. Wir zeigen, dass Nierenkrebszellen, die mit PP-funktionalisierten MnO NPs inkubiert wurden nach Bestrahlung mit Laserlicht verenden, während sie ohne Bestrahlung unverändert bleiben. In einem ähnlichen Experiment untersuchten wir die Eigenschaften von SiO2 beschichteten MnO NPs. Dafür wurde eigens eine neuartige SiO2-Beschichtungsmethode entwickelt, die einer nachfolgende weitere Anbindung verschiedenster Liganden und die Einlagerung von Fluoreszenzfarbstoffen durch herkömmliche Silan- Sol-Gel Chemie erlaubt. Die Partikel zeigten eine ausgezeichnete Stabilität in einer ganzen Reihe wässriger Lösungen, darunter auch physiologische Kochsalzlösung, Pufferlösungen und humanes Blutserum, und waren weniger anfällig gegenüber Mn-Ionenauswaschung als einfache PEGylierte MnO NPs. Des Weiteren konnte bewiesen werden, dass die dünne SiO2 Schicht nur einen geringen Einfluss auf das magnetische Verhalten der NPs hatte, so dass sie weiterhin als T1-Kontrastmittel verwendet werden können. Schließlich konnten zusätzlich FePt@MnO NPs hergestellt werden, welche die individuellen magnetischen Merkmale eines ferromagnetischen (FePt) und eines antiferromagnetischen (MnO) Materials vereinen. Wir zeigen, dass wir die jeweiligen Partikelgrößen, und damit das resultierende magnetische Verhalten, durch Veränderung der experimentellen Parameter variieren können. Die magnetische Wechselwirkung zwischen beiden Materialien kann dabei auf Spinkommunikation an der Grenzfläche zwischen beiden NP-Sorten zurückgeführt werden.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Makromolekulare Wirkstoffträgersysteme sind von starkem Interesse bezüglich der klinischen Anwendung chemotherapeutischer Agenzien. Um ihr klinisches Potential zu untersuchen ist es von besonderer Bedeutung das pharmakokinetische Profil in vivo zu bestimmen. Jede Veränderung der Polymerstruktur beeinflusst die Körperverteilung des entsprechenden Makromoleküls. Aufgrund dessen benötigt man detailliertes Wissen über Struktur-Eigenschaftsbeziehungen im lebenden Organismus, um das Nanocarrier System für zukünftige Anwendungen einzustellen. In dieser Beziehung stellt das präklinische Screening mittels radioaktiver Markierung und Positronen-Emissions-Tomographie eine nützliche Methode für schnelle sowie quantitative Beobachtung von Wirkstoffträgerkandidaten dar. Insbesondere poly(HPMA) und PEG sind im Arbeitsgebiet Polymer-basierter Therapeutika stark verbreitet und von ihnen abgeleitete Strukturen könnten neue Generationen in diesem Forschungsbereich bieten.rnDie vorliegende Arbeit beschreibt die erfolgreiche Synthese verschiedener HPMA und PEG basierter Polymer-Architekturen – Homopolymere, Statistische und Block copolymere – die mittels RAFT und Reaktivesterchemie durchgeführt wurde. Des Weiteren wurden die genannten Polymere mit Fluor-18 und Iod-131 radioaktiv markiert und mit Hilfe von microPET und ex vivo Biodistributionsstudien in tumortragenden Ratten biologisch evaluiert. Die Variation in Polymer-Architektur und darauffolgende Analyse in vivo resultierte in wichtige Schlussfolgerungen. Das hydrophile / lipophile Gleichgewicht hatte einen bedeutenden Einfluss auf das pharmakokinetische Profil, mit besten in vivo Eigenschaften (geringe Aufnahme in Leber und Milz sowie verlängerte Blutzirkulationszeit) für statistische HPMA-LMA copolymere mit steigendem hydrophoben Anteil. Außerdem zeigten Langzeitstudien mit Iod-131 eine verstärkte Retention von hochmolekularen, HPMA basierten statistischen Copolymeren im Tumorgewebe. Diese Beobachtung bestätigte den bekannten EPR-Effekt. Hinzukommend stellen Überstrukturbildung und damit Polymergröße Schlüsselfaktoren für effizientes Tumor-Targeting dar, da Polymerstrukturen über 200 nm in Durchmesser schnell vom MPS erkannt und vom Blutkreislauf eliminiert werden. Aufgrund dessen wurden die hier synthetisierten HPMA Block copolymere mit PEG Seitengruppen chemisch modifiziert, um eine Verminderung in Größe sowie eine Reduktion in Blutausscheidung zu induzieren. Dieser Ansatz führte zu einer erhöhten Tumoranreicherung im Walker 256 Karzinom Modell. Generell wird die Körperverteilung von HPMA und PEG basierten Polymeren stark durch die Polymer-Architektur sowie das Molekulargewicht beeinflusst. Außerdem hängt ihre Effizienz hinsichtlich Tumorbehandlung deutlich von den individuellen Charakteristika des einzelnen Tumors ab. Aufgrund dieser Beobachtungen betont die hier vorgestellte Dissertation die Notwendigkeit einer detaillierten Polymer-Charakterisierung, kombiniert mit präklinischem Screening, um polymere Wirkstoffträgersysteme für individualisierte Patienten-Therapie in der Zukunft maßzuschneidern.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Ziel dieser Arbeit lag darin mannosylierte Polymersysteme hauptsächlich auf der Basis von N-(Hydroxy)propylmethacrylat zu synthetisieren, um gezielt Zellen des Immunsystems zu adressieren. Dazu wurden zunächst verschiedene Reaktivesterpolymere auf der Basis von Pentafluorophenylmethacrylat (PFPMA) unter Verwendung der RAFT-Polymerisation mit enger Molekulargewichtsverteilung und unterschiedlichen Anteilen an LMA (Laurylmethacrylat) hergestellt.rnUm eine genaue Aussage über den Aufbau eines statistischen PFPMA-LMA Copolymers treffen zu können, wurde die Copolymerisation von PFPMA und LMA mittels Echtzeit 1H-NMR Kinetikmessungen untersucht. Dies ermöglichte es, die Copolymerisationsparameter zu berechnen und genaue Aussagen über den Aufbau eines statistischen PFPMA-LMA Copolymers zu treffen. Die so erhaltenen Reaktivesterpolymere wurden dann in einer polymeranalogen Reaktion unter Erhalt des Polymerisationsgrades in die gewünschten HPMA-Polymere umgewandelt. Um die quantitative Umsetzung ohne auftretende Nebenreaktionen zu untersuchen, wurden verschiedene Reaktionsbedingungen gewählt und unterschiedliche Analysemethoden verwendet. Damit konnte gezeigt werden, dass es möglich ist, über den Reaktivesteransatz qualitativ hochwertige amphiphile Polymersysteme herzustellen, die auf anderen Wegen schwer zu synthetisieren und charakterisieren sind. Ein weiterer Vorteil dieser Syntheseroute ist, dass gleichzeitig sowohl Marker für die Visualisierung der Polymere in vitro und in vivo, als auch Targetliganden für die Adressierung bestimmter Zellen eingeführt werden können. Dafür wurde hauptsächlich Mannose als einfache Zuckerstruktur angebunden, da bekannt ist, dass mannosylierte Polymersysteme von Zellen des Imunsystems aufgenommen werden. Zusätzlich konnten die mannosylierten Polymere mit hydrophobem Wirkstoff beladen werden, wobei die Stabilität von beladenen Mizellen anhand der Einlagerung eines hydrophoben radioaktiven Komplexes genauer untersucht werden konnte.rnAnschließende in vitro Experimente der mannosylierten Polymermizellen an dendritischen Zellen zeigten wie erwartet eine mannosespezifische und verstärkte Aufnahme. Für eine mögliche Untersuchung dieser Systeme in vivo mittels PET konnte gezeigt werden, dass es möglich ist HPMA Polymere radioaktiv zu markieren, wobei auch erste Markierungsversuche mit einem langlebigen Radionuklid für Langzeitbiodistributionsstudien durchgeführt werden konnte.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit wurde im Rahmen des Verbundprojektes „Rückhaltung endlagerrelevanter Radionuklide im natürlichen Tongestein und salinaren Systemen“ (Förderkennzeichen: 02E10981), welches durch das Bundesministerium für Wirtschaft und Energie (BMWi) gefördert wurde, angefertigt. Ziel war es, erstmals Erkenntnisse zur Wechselwirkung zwischen dem Spaltprodukt Technetium und einem natürlichen Tongestein im Hinblick auf ein Endlager für wärmeentwickelnde radioaktive Abfälle zu erlangen. Hierfür wurde der in der Nordschweiz vorkommende Opalinuston aus Mont Terri als Referenzmaterial verwendet. Das Nuklid Technetium-99 liefert auf Grund seiner langen Halbwertszeit einen signifikanten Beitrag zur Radiotoxizität abgebrannter Brennelemente für mehr als tausend Jahre. Im Falle einer Freisetzung aus den Lagerbehältern wird die Geochemie des Technetiums von seiner Oxidationsstufe bestimmt, wobei lediglich die Oxidationsstufen +IV und +VII von Relevanz sind. Auf Grund seiner hohen Löslichkeit und geringen Affinität zur Sorption an Oberflächen von Mineralien ist Tc(VII) die mobilste und somit auch gefährlichste Spezies. Entsprechend lag der Fokus dieser Arbeit auf Diffusionsexperimenten dieser mobilen Spezies sowie auf dem Einfluss von Eisen(II) auf die Mobilität und die Speziation des Technetiums.rnDie Wechselwirkung zwischen Technetium und Opalinuston wurde in Sorptions- und Diffusionsexperimenten unter Variation verschiedener Parameter (pH-Wert, Zusatz verschiedener Reduktionsmittel, Einfluss von Sauerstoff, Diffusionsweg) untersucht. Im Zuge dieser Arbeit wurden erstmals ortsaufgelöste Untersuchungen zur Speziation des Technetiums an Dünnschliffen und Bohrkernen durchgeführt. Dabei konnten ergänzend zur Speziation auch Informationen über die Elementverteilung und die kristallinen Mineralphasen nahe lokaler Anreicherungen des Radionuklides gewonnen werden. Zusätzlich erlaubten Untersuchungen an Pulverproben die Bestimmung der molekularen Struktur des Technetiums an der Tonoberfläche.rnSowohl die Kombination der oben aufgeführten Sorptionsexperimente mit spektroskopischen Untersuchungen als auch die Diffusionsexperimente zeigten unter Sauerstoffausschluss eine Reduktion von Tc(VII) zu immobilen Tc(IV)-Spezies. Weiterhin konnte die Bildung eines Tc(IV)-Sorptionskomplexes an der Tonoberfläche gezeigt werden. Im Hinblick auf ein Endlager in Tongestein sind diese Ergebnisse positiv zu bewerten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zusammenfassung der Dissertation, Carolin Edinger, April 2015. Im Rahmen der Dissertation ist eine effiziente und zuverlässige Methode zur elektrochemischen Desoxygenierung von aromatischen Carbonsäureamiden entwickelt worden (Schema 1).[1] Unter galvanostatischen Bedingungen eignet sich das optimierte Elektrolytsystem bestehend aus 2%iger methanolischer H2SO4 und geringen Mengen an Additiv 1 in Kombination mit einer Bleikathode hervorragend in dem gewählten geteilten Zellaufbau. Schema 1: Elektrochemische Desoxygenierung aromatischer Carbonsäureamide. Untersuchungen an verschiedensten Amidsubstraten haben gezeigt, dass ein breites Spektrum an Aminen mit dieser Methode zugänglich ist und durch umfangreiche Studien konnten optimale Elektrolyseparameter gefunden werden. Außerdem wurde die Hochskalierung der Ansatzgröße an einem Testsubstrat mit hohen Aminausbeuten von bis zu 73% gewährleistet. Ein besonderes Merkmal der entwickelten Synthese ist neben milden Bedingungen und hoher Selektivität die Verwendung von Ammoniumsalzadditiven. Der positive Effekt dieser Additive auf die Desoxygenierungsreaktion ist vielfältig: Die Wasserstoffentwicklung als unerwünschte Nebenreaktion wird zu negativeren Potentialen verschoben und die Bleikathode wird durch Zurückdrängung der PbSO4-Bildung effektiv vor Korrosion geschützt. Dies konnte durch experimentelle Werte wie die Erhöhung der Produkt- und Stromausbeute durch Additivzusatz während der Elektrolyse hinreichend bestätigt werden. Aber auch zyklovoltammetrische Untersuchungen und Lichtmikroskopaufnahmen der Elektrodenoberfläche bekräftigen eindeutig diese Aussagen.[2,3] Die entwickelte elektrochemische Methode konnte zusätzlich erfolgreich auf Verbindungen übertragen werden, die mit Carbonsäureamiden verwandt sind. So gelang es, aromatische und aliphatische Sulfoxide in sehr guten Ausbeuten selektiv zu den entsprechenden Sulfiden umzusetzen. Zusätzlich konnten bereits bei weiteren, durch klassische Methoden schwer reduzierbare Stoffklassen erste Erfolge erzielt werden. So gelang es, den Grundstein zur Reduktion von Estern und Triphenylphosphinoxid zu legen und erste, vielversprechende Ergebnisse zu erlangen. Da Elektronen als Reduktionsmittel eingesetzt werden und lediglich Wasser als Nebenprodukt gebildet wird, zeichnet sich die entwickelte Desoxygenierungsmethode vor allem durch milde Bedingungen und hohe Selektivität aus. Da weder Reagenzien noch Katalysatoren verwendet werden müssen, werden Abfälle vermieden. Dadurch ist die gefundene Reduktionsmethode nicht nur kostengünstig, sondern erweist sich auch in der Reaktionsführung als vorteilhaft. Literatur: [1] C. Edinger, S. R. Waldvogel, Eur. J. Org. Chem. 2014, 2014, 5144–5148. [2] C. Edinger, V. Grimaudo, P. Broekmann, S. R. Waldvogel, ChemElectroChem 2014, 1, 1018–1022. [3] C. Edinger, S. R. Waldvogel, PCT Int. Appl. 2013, WO 2013030316A2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der Form von Nanokapseln (AmB-HST), Nanoemulsion beziehungsweise multilamellaren Vesikeln (MLV) wurden drei Amphotericin-B-Formulierungen für die orale Applikation entwickelt, charakterisiert und verglichen. Die neuartige homogene Nanokapsel-Formulierung des hydrophoben Polyen-Antimykotikums Amphotericin B wurde in Analogie zu einem für Simvastatin und andere Arzneistoffe etablierten Prozess aus der Reinsubstanz, Lezithin und Gelatine mit Hilfe des HST-Verfahrens hergestellt. Photometrische Untersuchungen zeigten, dass das Endprodukt aus Monomeren aufgebaut ist. Mittels Mikroskopie ließen sich die Aggregate vor der Umhüllung mit Lezithin und Gelatine im Ausgangsmaterial als individuelle kugelförmige Arzneistoffpartikel darstellen. Strukturuntersuchungen mit dynamischer licht streuung (DLS) zeigten eine enge Größenverteilung der verkapselten Partikel von ca. 1 µm. Die Struktur der Hülle der HST-Partikel wurde erstmalig mit Neutronenstreuung unter Verwendung der Deuterium-basierten Lösungsmittel kontrastmethode aufgeklärt. Durch die teilweise Kontrastmaskierung des Partikelkerns bei der Neutronenstreuung konnte die Lezithin-Gelatine-Hülle als eine dünne, 5,64 ± 0.18 nm dicke Schicht aufgelöst werden, welche der biologischen Lipidmembran ähnlich, im Vergleich aber geringfügig größer ist. Dieses Resultat eröffnet Wege für die Optimierung der Formulierung von pharmazeutischen Nanopartikeln, z.B. durch Oberflächenmodifizierungen. Weitere Untersuchungen mittels Kleinwinkelneutronenstreuung unter Verwendung der D-Kontrastvariation deuten darauf hin, dass die Komponenten der Nanokapseln nicht den gleichen Masseschwerpunkt haben, sondern asymmetrisch aufgebaut sind und dass die stärker streuenden Domänen weiter außen liegen. Die Partikel sind im Vergleich zu Liposomen dichter. In-Vitro Freisetzungsstudien belegen das Solubilisierungsvermögen des HST-Systems, wonach die Freisetzung des Arzneistoffes aus der Formulierung zu allen gemessenen Zeitpunkten höher als diejenige der Reinsubstanz war. rnDie Nanoemulsion-Formulierung von Amphotericin B wurde mit einem Öl und Tensid system, jedoch mit unterschiedlichen Co-Solvenzien, erfolgreich entwickelt. Gemäß der Bestimmung der Löslichkeit in verschiedenen Hilfsstoffen erwies sich der Arzneistoff Amphotericin B als nicht-lipophil, gleichzeitig aber auch als nicht-hydrophil. Die zur Ermittlung der für die Emulsionsbildung notwendigen Hilfstoffkonzentrationen erstellten ternären Diagramme veranschaulichten, dass hohe Öl- und Tensidgehalte zu keiner Emulsionsbildung führten. Dementsprechend betrug der höchste Ölgehalt 10%. Die Tröpfchengröße wuchs mit zunehmender Tensidkonzentration, wobei die Co-Solventmenge der Propylenglykol-haltigen Nanoemulsion indirekt verringert wurde. Für die Transcutol®P-haltige Nanoemulsion hingegen wurde das Gegenteil beobachtet, nämlich eine Abnahme der Tröpfchengröße bei steigenden Tensidkonzentrationen. Durch den Einschluss des Arzneistoffes wurde nicht die Viskosität der Formulierung, sondern die Tröpfchengröße beeinflusst. Der Wirkstoffeinschluss führte zu höheren Tröpfchengrößen. Mit zunehmender Propylenglykolkonzentration wurde der Wirkstoffgehalt erhöht, mit zunehmender Transcutol®P-Konzentration dagegen vermindert. UV/VIS-spektroskopische Analysen deuten darauf hin, dass in beiden Formulierungen Amphotericin B als Monomer vorliegt. Allerdings erwiesen sich die Formulierungen Caco-2-Zellen und humanen roten Blutkörperchen gegenüber als toxisch. Da die Kontrollproben eine höhere Toxizität als die wirkstoffhaltigen Formulierungen zeigten, ist die Toxizität nicht nur auf Amphotericin, sondern auch auf die Hilfsstoffe zurückzuführen. Die solubilisierte Wirkstoffmenge ist in beiden Formulierungen nicht ausreichend im Hinblick auf die eingesetzte Menge an Hilfsstoff nach WHO-Kriterien. Gemäß diesen Untersuchungen erscheinen die Emulsions-Formulierungen für die orale Gabe nicht geeignet. Dennoch sind Tierstudien notwendig, um den Effekt bei Tieren sowie die systemisch verfügbare Wirkstoffmenge zu ermitteln. Dies wird bestandskräftige Schlussfolgerungen bezüglich der Formulierung und Aussagen über mögliche Perspektiven erlauben. Nichtsdestotrotz sind die Präkonzentrate sehr stabil und können bei Raumtemperatur gelagert werden.rnDie multilamellar-vesikulären Formulierungen von Amphotericin B mit ungesättigten und gesättigten neutralen Phospholipiden und Cholesterin wurden erfolgreich entwickelt und enthielten nicht nur Vesikel, sondern auch zusätzliche Strukturen bei zunehmender Cholesterinkonzentration. Mittels Partikelgrößenanalyse wurden bei den Formulierungen mit gesättigten Lipiden Mikropartikel detektiert, was abhängig von der Alkylkettenlänge war. Mit dem ungesättigten Lipid (DOPC) konnten hingegen Nanopartikel mit hinreichender Verkapselung und Partikelgrößenverteilung gebildet werden. Die Ergebnisse der thermischen und FTIR-spektroskopischen Analyse, welche den Einfluss des Arzneistoffes ausschließen ließen, liefern den Nachweis für die mögliche, bereits in der Literatur beschriebene Einlagerung des Wirkstoffs in lipid- und/oder cholesterinreiche Membranen. Mit Hilfe eines linearen Saccharosedichtegradienten konnte die Formulierung in Vesikel und Wirkstoff-Lipid-Komplexe nach bimodaler Verteilung aufgetrennt werden, wobei der Arzneistoff stärker mit den Komplexen als mit den Vesikeln assoziiert ist. Bei den Kleinwinkelneutronenstreu-Experimenten wurde die Methode der Kontrastvariation mit Erfolg angewendet. Dabei konnte gezeigt werden, dass Cholesterol in situ einen Komplex mit Amphotericin B bildet. Diesen Sachverhalt legt unter anderem die beobachtete Differenz in der äquivalenten Streulängendichte der Wirkstoff-Lipid- und Wirkstoff-Lipid-Cholesterin-haltigen kleinen unilamellaren Vesikeln nahe. Das Vorkommen von Bragg-Peaks im Streuprofil weist auf Domänen hin und systematische Untersuchungen zeigten, dass die Anzahl der Domänen mit steigendem Cholesteringehalt zunimmt, ab einem bestimmten Grenzwert jedoch wieder abnimmt. Die Domänen treten vor allem nahe der Außenfläche der Modellmembran auf und bestätigen, dass der Wirkstoff in den Cholesterinreichen Membranen vertikal eingelagert ist. Die Formulierung war sowohl Caco-2-Zellen als auch humanen roten Blutkörperchen gegenüber nicht toxisch und erwies sich unter Berücksichtigung der Aufnahme in Caco-2-Zellen als vielversprechend für die orale Applikation. Die Formulierung zeigt sich somit aussichtsreich und könnte in Tabletten weiterverarbeitet werden. Ein Filmüberzug würde den Wirkstoff gegen die saure Umgebung im Magen schützen. Für die Bestimmung der systemischen Verfügbarkeit der Formulierung sind Tierstudien notwendig. Die entwickelten multilamellaren Formulierungen einschließlich der Wirkstoff-Cholesterin-Komplexe bieten somit gute Aussichten auf die mögliche medizinische Anwendung. rnrn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Radio Frequency Identification (RFID) beeinflusst unbestritten zahlreiche Anwendungsgebiete und schafft die Grundlage für die zukünftige Entwicklung logistischer Systeme. Von besonderer Bedeutung ist in diesem Zusammenhang die systematische Identifikation von Einsatzpotenzialen für diese Technologie. Bislang existiert hierfür noch keine allgemein verbreitete Methodik. Diese Problematik greift der folgende Beitrag auf und zeigt, wie aus den technischen Grundlagen und analysierten Praxisanwendungen Identifikationskriterien abgeleitet werden können. Die so erarbeiteten Kriterien werden in ihrer Anwendung anhand eines fiktiven Beispiels erläutert und damit exemplarisch eine mögliche Analysemethodik vorgestellt. 1. Einleitung Die produktionswirtschaftlichen Anforderungen an die Unternehmen sind zunehmend geprägt durch Globalisierung und damit durch eine zunehmende Komplexität sowie vertiefte Arbeitsteiligkeit. Es entsteht eine zunehmend breitere Streuung der Fertigungsstandorte und Kooperationsbeziehungen. Es gibt letztlich mehr Lager- und Umschlagprozesse in der Lieferkette. Andererseits bringt der erhöhte Qualitäts- und Kostendruck steigende Fixkosten mit sich, er zwingt zur ständigen Rationalisierung der Materialwirtschaft. Es besteht der Zwang zum Einsatz neuer technisch-elektronischer Mittel zur Kontrolle und Steuerung der logistischen Ketten. Im Lager bedeutet das eine zunehmende Nutzung der Informations- und Kommunikationstechnik zur Lager- und Fertigungssteuerung, auch in Verbindung mit Forderungen der Rückverfolgbarkeit der Produkte. An die Logistikleistungen werden damit Anforderungen wie Schnelligkeit, Qualität und Kostenminimierung gestellt. Letztlich bestehen die Warenbereitstellungs- und Verteilsysteme aus der technischen Grundstruktur, dem Lagertyp und dessen Geometrie sowie der dabei einsetzbaren Bedientechnik und deren kinematischen Daten. Der organisatorische Rahmen dieser Systeme ist gekennzeichnet durch die Nutzung diverser Ein- und Auslagerstrategien, die auch wesentlich Kosten und Leistungen (Umschlagleistung) des zu betrachtenden Lagersystems bestimmen. Aufgrund der genannten Forderungen muss es gelingen, aus dem eingesetzten technischen System durch organisatorisch effizienten Betrieb maximale Leistung bei gleichzeitig minimal eingesetzten Kosten zu erzielen. Neben den Investitionskosten sind bei der Planung von automatischen Lagersystemen die erreichbaren mittleren Spielzeiten der Bedientechnik von entscheidender Bedeutung, um die erforderliche Umschlagleistung des Lagers zu gewährleisten. Hierzu existieren eine Reihe von Berechnungsvorschriften und –normen. Diese Berechnungen berücksichtigen jedoch nicht die Auswirkungen der Lagerorganisation, wie beispielsweise fahrzeitminimale Kombinationen von Ein- und Auslageraufträgen bei Doppelspielen, Zonierungsmaßnahmen, die Auswirkungen von verschiedenen Füllgraden des Lagers oder Lagerplatzstrategien. 2. Stand der Technik 2.1. Lagertypen Abbildung 1: Systematische Einteilung der Lagertypen In Abbildung 1 sind verschiedene Lagertypen dargestellt und nach Kriterien eingeteilt. Soll eine Einschränkung hinsichtlich am Markt häufig vorkommender automatischer Palettenlager getroffen werden, so sind besonders die in der Abbildung hervorgehobenen Typen zu nennen. Eine Auswahl der einzelnen Lagertypen erfolgt dann anhand von Kosten, Umschlagleistung und bei Kompaktlagern vorrangig anhand von Flächen- und Raumnutzungsgrad. Werden die Kostenunterschiede bei Personal, Rechentechnik und Steuerungssoftware in den verschiedenen Lagertypen und -ausführungen der jeweiligen Typen vernachlässigt, unterscheiden sich die Gesamtkosten der Lager lediglich in der Bedientechnik sowie in den statisch bedingten Kosten der Regalkonstruktion. Die wichtigsten Kosteneinflüsse auf die Regale sind wiederum Bauhöhe und Bauart (Regalkonstruktion oder selbsttragendes Bauwerk). Abbildung 2 zeigt die zu erwartenden Umschlagleistungen1) der verschiedenen Lagertypen in Abhängigkeit der benötigten Stellplatzanzahl. Die darauf folgende Abbildung 3 zeigt die zu erwartenden Investitionskosten1) je Stellplatz. Die berücksichtigten Kenngrößen sind nachstehend dargestellt. Die abgebildeten Kurven machen deutlich, dass insbesondere Umschlagleistung der Lager und deren Flächen- bzw. Raumnutzungsgrad gegensätzlich verlaufen. Somit sind auch die Einsatzgebiete der Lagertypen voneinander abgrenzbar. Während Hochregallager für Anwendungsfälle mit hohem Gutumschlag in Frage kommen, werden die Kompaktlager eher in Objekten mit begrenztem Platz oder hohen Raumkosten (bspw. Kühllager) eingesetzt. Somit sind Kompaktlager auch häufig für die Umplanung bzw. der notwendigen Vergrößerung der Lagerkapazität innerhalb einer bestehenden baulichen Hülle interessant. Abbildung 2: Umschlagleistungen der verschiedenen Lagertypen Abbildung 3: Investitionskosten der einzelnen Lagertypen 2.2. Einzel-/ Doppelspiele Um anhand der Technik und der geometrischen Verhältnisse im Lager die höchstmögliche Umschlagleistung zu erzielen, ist es sinnvoll, Doppelspiele (DS) zu generieren. Somit ist nicht wie bei Einzelspielen (ES) je umgeschlagene Ladeeinheit eine Leerfahrt erforderlich, sondern nur je zweiter Ladeeinheit. Das Bediengerät fährt also vom Einlagerpunkt direkt zum Auslagerpunkt, ohne zum Übergabepunkt zurückkehren zu müssen. Diese Vorgehensweise setzt die Kenntnis der nächsten Fahraufträge und gegebenenfalls die Möglichkeit der Veränderung derer Reihenfolge voraus. Für eine Optimierung der Umschlagleistung ist die bei DS entstehende Leerfahrt (Zwischenfahrstrecke) und damit die Zwischenfahrzeit zu minimieren (vgl. 3.5). Nachfolgend beschriebene Untersuchungen beziehen sich jeweils auf Doppelspiele. Abbildung 4: Darstellung der anzufahrenden Lagerplätze in der Regalwand,links: Einzelspiel, rechts: Doppelspiel 2.3. Berechnungsvorschriften für Umschlagleistungen von Lagern Es existieren eine Reihe von Vorschriften zur Berechnung der Umschlagleistung von Lagern, exemplarisch sind drei Berechnungsvorschriften dargestellt. Die Richtlinie VDI 3561 [VDI3561] ermöglicht die Berechnung der Spielzeit auch für Doppelspiele. Dazu werden zwei Referenzpunkte festgelegt, die den Aus- bzw. Einlagerpunkt darstellen. Ein Doppelspiel besteht dann aus der Summe folgender Einzelzeiten: • der Hinfahrt vom Übergabepunkt zum Einlagerpunkt (P1), • der Leerfahrt vom Ein- zum Auslagerpunkt (P2) und der • Rückfahrt vom Auslagerpunkt zum Übergabepunkt (vgl. Abb.4 rechts). Die Summe dieser Einzelzeiten wird danach mit der Summe der Übergabezeiten addiert. Der Unterschied der Richtlinie und der Berechnungsvorschrift nach [Gud00] bestehen im wesentlichen aus der Lage der Ein- und Auslagerpunkte. Fahrzeitberechnung nach VDI 3561 P1 ; P2 Fahrzeitberechnung nach Gudehus 1) P1 ; P2 1)Annahme: Vernachlässigung von Totzeiten, Lastaufnahmefaktor = 1 Wird davon ausgegangen, dass in Abhängigkeit der Gassengeometrie immer nur eine der beiden Fahrzeitanteile (vertikal bzw. horizontal) spielzeitbestimmend ist, so ergeben sich beide Fahrstrecken zu 4/3 der jeweiligen Gesamtabmessung. Der Unterschied der beiden Berechnungsvorschriften liegt lediglich in der Aufteilung der Gesamtfahrstrecke auf die Teilfahrstrecken Hin-, Rück- bzw. Zwischenfahrt. Da jedoch die Fahrzeit zu den Anfahrpunkten in der Regel nicht von der gleichen Fahrzeitkomponente bestimmt wird, kommt es in der Praxis zu Unterschieden im Berechnungsergebnis. Die unter dem Titel „Leistungsnachweis für Regalbediengeräte, Spielzeiten“ stehende Norm FEM 9.851 [FEM9.851] beschäftigt sich ebenfalls mit der Berechnung von Spielzeiten von Regalbediengeräten (RBG). Dabei werden sechs verschiedene Anwendungsfälle generiert, die am häufigsten in der Praxis vorkommen. Diese unterscheiden sich insbesondere in der Lage der Übergabepunkte für die Ein- und Auslagerung. Dabei werden die Punkte sowohl horizontal als auch vertikal verschoben. Es werden hierbei auch Fälle betrachtet, in denen der Auslagerpunkt nicht mit dem Einlagerpunkt übereinstimmt, sich beispielsweise auch an dem gegenüberliegenden Gassenende befinden kann. Wird der einfachste Fall betrachtet, dass sich der Übergabepunkt für die Ein- und Auslagerung übereinstimmend an einer unteren Ecke der Gasse befindet, stimmen die Berechnungsformeln mit [Gud00] weitgehend überein. 2.4. Kritik und Untersuchungsansatz Die Berechnung der mittleren Spielzeit der einzelnen Lagergassen durch die beschriebenen Normen erfolgt in der Regel ohne die Berücksichtigung der Geschwindigkeitsdiagonalen, deren Steigung c durch nachstehendes Verhältnis gegeben ist. 1. Einleitung Eine umfassende Prozessanalyse ist die Grundlage einer jeden erfolgreichen RFID-Anwendung [o.Verf. 2006]. Die Merkmale, die bei einer solchen Untersuchung zu beachten sind, werden allerdings nicht öffentlich diskutiert. Wie Resch in seinem Ansatz zeigt, ist aber gerade die Analysephase von entscheidender Bedeutung für den späteren Erfolg einer RFID-Anwendung (vgl. Abb. 1). Abbildung 1: Fehlende Methodiken der Prozessanalyse [Resch2005] In dieser Phase besteht der größte Gestaltungsfreiraum für die spätere Umsetzung. Da in dieser Phase das größte Optimierungspotenzial einer RFID-Anwendung festgelegt wird, entscheidet sich bereits zu Beginn eines Projektes wie groß der maximal erreichbare Nutzen einer Lösung sein kann. Bisher existieren keine allgemein verbreiteten Methoden und Kriterien zur Identifikation dieser Einsatz-/Nutzenpotenziale. Die Prozessanalyse ist die Basis zukünftiger RFID-Anwendungen und ist daher entsprechend umfangreich durch zu führen. RFID-Einsatzpotenziale werden aktuell nur in Funktionsbereichen kommuniziert. Diese Pauschalisierung engt die Sicht auf potenzielle Anwendungen allerdings sehr stark ein. Dadurch besteht die Gefahr, dass die vorhandenen Nutzenpotenziale indirekt beteiligter Prozesse nicht beachtet werden. Es ist daher zwingend notwendig möglichst alle material- und informationsflussbezogenen Prozesse auf ein RFID-Einsatzpotenzial hin zu untersuchen. D.h. sowohl die Prozesse mit direktem Materialflussbezug (bspw. Wareneingang) als auch die Prozesse, die nur indirekt, über den Informationsfluss, mit dem Materialfluss verknüpft sind (bspw. Disposition). Der vorliegende Beitrag stellt daher einen ersten Ansatz für die Ermittlung allgemeingültiger Analysekriterien für RFID-Einsatzpotenziale. Die vorgestellte Methodik und der daraus entwickelte Kriterienkatalog sollen es ermöglichen, RFID-Anwendungen in der Analysephase auf ein möglichst vollständiges Nutzengerüst zu stellen und so den maximalen Nutzen einer Anwendung systematisch zu ermitteln. 2. Identifikationskriterien 2.1. Methodik Basierend auf der Überlegung die Kriterien sowohl theoretisch als auch auf Basis von Praxiserfahrungen zu entwickeln, dienen neben der Betrachtung technischer Grundlagen auch Analysen von realisierten Anwendungen und Pilotprojekten als Basis der Kriterienentwicklung. Abbildung 2 zeigt die grundsätzliche Methodik hinter der Entwicklung der Kriterien. Dabei zeigt sich, dass aus dem gewählten Ansatz zwangsläufig zwei differierende Typen von Kriterien entwickelt werden müssen. Technische Kriterien, aus den Grundlagen der RFID beziehen sich vor allem auf das vorherrschende Prozessumfeld. Frequenzspezifische Eigenschaften (Leistungsdaten) und allgemeine, also frequenzübergreifende Eigenschaften der RFID-Technik bilden die Ausgangsbasis für diese Kriteriengruppe. Dabei werden diese technologischen Eigenschaften in Prozessmerkmale überführt, anhand derer im konkreten Prozessumfeld eine Technologieauswahl durchgeführt werden kann. So können potenzielle RFID-Anwendungen auf eine prinzipielle Anwendbarkeit hin überprüft werden. Abbildung. 2: Vorgehen zur Entwicklung der Identifikationskriterien [Resch2005] Die zweite Gruppe der Kriterien, die organisatorischen Kriterien, werden aus Praxiserfahrungen abgeleitet. Basis dieser Analyse sind Prozesse aus realisierten Anwendungen und Pilotprojekten. Dieser praxisbasierte Teil stellt prozessbezogene Merkmale zusammen, deren Schwerpunkt auf prozessspezifischen organisatorischen Merkmalen, bspw. Durchsatz, oder auch Dokumentationsaufwand liegt. Die ausgewählten Praxisbeispiele sind nach ihren individuellen Prozessmerkmalen analysiert worden. Die Ergebnisse wurden stichpunktartig zusammengefasst, in übergeordnete Kategorien gruppiert und abschließend nach ihrem Flussbezug gegliedert. RFID-Anwendungen beeinflussen sowohl materialflussbezogene Prozesse, als auch direkt oder auch indirekt verknüpfte informationsflussbezogene Prozesse. Daher erfolgt eine Ordnung der identifizierten Kriteriengruppen nach ihrem Flussbezug, um so einem Anwender die Betrachtungsweise nachhaltig zu verdeutlichen und die Analyse zu vereinfachen. 2.2. Praxisbeispiele Die analysierten Praxisbeispiele sind zum Großteil in der Automobilindustrie realisiert (vgl. Abb. 3). Die weiteren Anwendungen sind aus der Instandhaltung sicherheitsrelevanter technischer Gebäudeausrüstung, aus einem Hochregallager eines Logistikdienstleisters sowie aus der Luftfahrtindustrie. Abbildung 3: Branchenspezifische Verteilung der Praxisbeispiele Die Auswahl der Praxisbeispiele ist bewusst auf die Automobilindustrie fokussiert. Dieser Industriezweig hat in Deutschland bereits einige Anwendungen und eine Vielzahl an Pilotprojekten initiiert. Die Bandbreite der realisierten Projekte ist sehr groß und deckt daher viele verschiedene Anwendungsfälle ab. Die Ergebnisse der Untersuchung sind aber auch auf andere Branchen übertragbar, da die untersuchten Praxisprojekte Situationen abbilden, die ebenfalls leicht zu übertragen sind. Die analysierten Anwendungen bilden ein sehr breites Feld an Einsatzszenarien ab. Anwendungen mit massenhaften Stückzahlen sind ebenso vertreten, wie Anwendungen mit hohem Spezialisierungscharakter. Die Anwendungen reichen dabei von einfachen Pilotprojekten im Ladungsträgermanagement, bis hin zu komplexen Anwendungen im Bereich der Produktionssteuerung und der unternehmensübergreifenden Koordination von Materialflüssen. Insgesamt verteilen sich die analysierten Anwendungen auf drei Schwerpunktbereiche. Abbildung 4 stellt die Anwendungsbereiche in einer Übersicht zusammen. Abbildung 4: Übersicht der Anwendungsgebiete aus den Praxisanwendungen Anwendungen aus den Bereichen der Produktionssteuerung und des Materialflusses sind dabei am häufigsten vertreten. Während die Anwendungen aus dem Bereich der Instandhaltung, bzw. dem Qualitätsmanagement, meist mit der Hauptanwendung aus dem Bereich der Produktionssteuerung verknüpft sind. So wird bspw. die Dokumentationen der einzelnen Fertigungsstationen i.d.R. sowohl zur Fertigungssteuerung als auch zur Qualitätssicherung genutzt. 2.3. Ergebnisse der Praxisanalyse Die Analyse der Praxisanwendungen brachte in einem ersten Schritt eine Fülle an spezifischen Merkmalen zusammen. Jeder analysierte Prozess wies seine eigenen Merkmale auf, die aber dem Grundsatz nach systematisiert werden konnten. Die so erarbeiteten Merkmale wurden in einem zweiten Schritt gruppiert. Insgesamt ergaben sich fünf Gruppen, die jeweils nach einer, durch die RFID-Technik durchgeführte Funktion benannt sind. Um eine Prozessanalyse mit Hilfe der Kriterien zu erleichtern, ist jede Gruppe ihrem übergeordneten Flusssystem zugeordnet worden. Nachstehende Abbildung 5 zeigt die einzelnen Gruppierungen mit ihrem jeweiligen Flussbezug. Dabei sind jeder Gruppe beispielhafte Merkmale zugeordnet. Abbildung 5: Organisatorische Kriterien zur Identifikation von RFID-Einsatzpotenzialen Die vorliegende Systematisierung von Identifikationskriterien deckt sowohl Aspekte des reinen Materialflusses, als auch die Aspekte der zugehörigen Informationsflüsse ab. Dabei verhält sich der Flussbezug in jeder Kriteriengruppe unterschiedlich. Die Kriterien der Gruppe Identifikation befassen sich ausschließlich mit dem Identifikationsvorgang. Dabei können die erarbeiteten Kriterien in zwei Arten unterschieden werden, quantitative und qualitative Kriterien. Qualitativ messbar sind Kriterien, die sich auf die Anzahl der Identifikationsvorgänge beziehen. Bspw. die Anzahl der Identifikationsvorgänge im betrachteten Prozessverlauf, bezogen auf ein Identifikationsobjekt oder die Anzahl der Identifikationsvorgänge pro Zeiteinheit an einem Identifikationspunkt innerhalb des Prozessverlaufs. Gleichzeitig umfasst diese Gruppe aber auch Kriterien, die nur qualitativ zu bewerten sind. Kriterien wie die Bedeutung einer exakten Identifikation einzelner Teile im Prozess oder auch der aktuelle Aufwand der Identifikation im Prozess lassen sich nur bedingt oder nicht quantifizieren. Diese Kriteriengruppe fokussiert mit ihren Merkmalen vor allem den Materialfluss. Die einzelnen Merkmale beziehen sich auf den tatsächlichen Identifikationsvorgang und nicht auf die zugehörigen Informationsflüsse. Unter dem Begriff Transparenz sind Kriterien gruppiert, die sich mit der Verfolgbarkeit und Übersichtlichkeit von Prozessen befassen. Dabei gilt es sowohl die Bedeutung für den aktuellen Prozess als auch für die abhängigen Prozesse zu ermitteln. Transparenz bzw. die fehlende Transparenz ist der Kern dieser Kriteriengruppe. Qualitative Kriterien sind in dieser Kategorie besonders stark vertreten, da vor allem die Bedeutung bestimmter Aspekte der Prozesstransparenz als Kriterium dient. Prozesstransparenz liegt i.d.R. nicht vor oder wird nur über komplexe Systeme erreicht. Die Bewertung dieser Kriteriengruppe ist höchst variabel, da Prozesstransparenz in ihrer Bedeutung höchst individuell ist, d.h. von Prozess zu Prozess stark variiert. Die Gruppe Konfiguration fasst Merkmale zusammen, die auf objektspezifische Anpassungsarbeiten im Prozessverlauf hinweisen. Diese Tätigkeiten sind i.d.R. mit einem quantifizierbaren Aufwand verbunden und können so leicht erfasst werden. Die RFID-Technologie eröffnet hier, ähnlich wie im Bereich der Identifikation, Chancen zur Automatisierung bestehender Prozesse. Die Kriterien konzentrieren sich in ihrer Zielrichtung daher schwerpunktmäßig auf die Untersuchung von Potenzialen hinsichtlich der Automation von Konfigurationsvorgängen. Ähnlich wie die vorstehende Gruppe der Transparenz, besitzt diese Gruppe ebenfalls einen starken Bezug zu beiden Flusssystemen. In beiden Gruppen liegt der Fokus der betrachteten Merkmale sowohl auf dem Materialfluss und den physischen Aktionen als auch auf den zugehörigen Informationsflüssen mit entsprechenden Tätigkeiten. Die vierte Gruppe Zuordnung enthält primär Merkmale, die sich auf den Informationsfluss beziehen. Im Vordergrund steht die Art und Weise in der innerhalb eines Prozesses Materialflüsse zwischen Quelle und Senke koordiniert werden. Diese Gruppe enthält ebenfalls sowohl qualitativ als auch quantitativ zu bewertenden Merkmale. RFID-Technik kann hier zu einer deutlichen Komplexitätsreduktion, einer Automation sowie der Reduktion von Stillstands- u. Wartezeiten führen. Die letzte Gruppe Datenverwendung und Dokumentation befasst sich beinahe ausschließlich mit Aspekten des Informationsflusses. Als beinahe Komplementär zur Gruppe der Identifikation stehen hier die informationsflussbezogenen Handlungen, ausgelöst durch einen zugehörigen Materialfluss in der Betrachtung. Dabei stehen vor allem Fehlerraten, manuelle Aufwende der Datenverarbeitung und die Anzahl an Medienbrüchen im Informationsfluss im Vordergrund. Auch hier existiert wiederum ein Geflecht aus qualitativen und quantitativen Kriterien, deren Bewertung individuell durchzuführen ist. 2.4. Technische Kriterien Ergänzt werden die organisatorischen Kriterien um die technischen Kriterien. Diese Kriterien leiten sich aus den technischen Grundlagen der RFID-Technik ab. Diese Grundlagen sind zum einen die Eigenschaft der kontakt- und sichtlosen Übertragung von Energie und Daten, zum anderen der physische Aufbau der Komponenten eines RFID-Systems, dem Reader und dem Transponder. Des Weiteren definieren die frequenzspezifischen Eigenschaften der verschiedenen RFID-Systeme unterschiedliche Leistungsparameter, aus denen technische Kriterien abgeleitet werden können. Daraus ergibt sich die logische Trennung in frequenzabhängige und frequenzunabhängige Kriterien. Auszüge dieser Kriterien zeigt nachstehende Abbildung 6 Abbildung 6: Technische Kriterien Die technischen Kriterien dienen eher zur Technologieauswahl, als zu einer reinen Potenzialidentifikation, da ausschließlich limitierende Aspekte der Technologie betrachtet werden. Einflüsse, bedingt durch die genutzte technische Ausrüstung (bspw. metallische Lagertechnik) oder verfahrensbedingte Einflüsse (elektromagnetische Felder, Schweißroboter, o.ä.), werden über diese Kriterien abgebildet und finden so Berücksichtigung in den zu entwickelnden RFID-Szenarien. Die Wirkung dieser Kriterien hängt stark von dem jeweiligen Stand der Technik ab. Galt bspw. der Einsatz von 13,56 MHz Transpondern direkt auf Metall vor fünf Jahren noch als nicht möglich, so ist die Technik mittlerweile so weit entwickelt, dass auch Lösungen in diesem Bereich angeboten werden. Daher muss festgehalten werden, dass die frequenzabhängigen technischen Kriterien im Zeitverlauf variabel in ihrer Wirkung sind und sich mit dem technischen Fortschritt der RFID-Hardware verändern. Atmosphärische Einflüsse auf die RFID-Hardware sind generell für alle Varianten (unabhängig von der Betriebsfrequenz) der RFID-Technik zu beachten. Der Einfluss der Umgebungsbedingungen auf die Integrität der Hardware ist immer zu berücksichtigen. Temperatur, Druck und Staubbelastung sind hier die Hauptgruppen äußerer Einflüsse auf die RFID-Hardware. Auch diese Gruppe der technischen Kriterien muss mit der sich verändernden technischen Leistungsfähigkeit in ihrer Bewertung angepasst werden. 3. Anwendung der Kriterien 3.1. Anwendungsbeispiel Die Anwendung der Kriterien wird im Folgendem anhand eines kurzen Beispiels erläutert. Nachstehende Abbildung 7 zeigt Ausschnitte aus einem fiktiven Prozess innerhalb eines Großlagers. Abbildung 7: Fiktiver Prozess Von der Entladung des LKW bis zur Einlagerung der Paletten ist der Prozess in vier grobe Phasen strukturiert. Zur Identifikation von RFID-Einsatzpotenzialen werden die einzelnen Prozesselemente nach dem in Tabelle 1dargestellten Schema untersucht. Tabelle 1: Exemplarische Anwendung der Kriterien an einem ausgewählten Beispiel Kriteriengruppe Kriterium Einheit Prozesselement Entladen des LKW Bezugsobjekt LKW Palette Identifikation Anzahl ID - Vorgänge pro Objekt 1/Stck. 2 1 Anzahl ID - Objekte im Zeitraum Stck./ZE 25/h 10/min Transparenz Bedeutung exakter Prozesszeiterfassung Qual. Hoch Hoch intransparente Prozessabschnitte ja/nein Ja Ja Konfiguration Anzahl objektspez. Konfigurationsarbeiten 1/Stck. 0 0 Manueller Anteil der Konfiguration Qual. - - Zuordnung Fehleranteil der Zuordnung Q/S Qual. Mittel Gering Komplexität der Zuordnung Q/S Qual. Hoch Hoch Datenverwendung und Dokumentation Anzahl der Änderungen objektspezifischer Daten im Prozess 1/Stck. 8 (6-7) 2 Anzahl der Medienbrüche im Prozess 1/Stck. - - Die Tabelle zeigt, wie einzelne Prozesselemente mit Hilfe der Identifikationskriterien analysiert werden können. Dabei ergeben sich aus den Ausprägungen der einzelnen Kriterien die Nutzenpotenziale auf deren Basis sich eine spätere RFID-Anwendung gestalten und bewerten lässt. Für die Analyse der einzelnen Prozesselemente ist es notwendig, die Kriterien auf ein Bezugsobjekt zu beziehen. Dieses Bezugsobjekt stellt den potenziellen Träger des Transponders dar. Dabei ist zu beachten, dass innerhalb eines Prozesses mehrere Bezugsobjekte vorhanden sein können. Die Analyse muss daher für jedes Bezugsobjekt einzeln durchgeführt werden. Die Zusammenfassung der Analyseergebnisse pro Bezugsobjekt, über die zusammengehörigen Prozesselemente zeigt die Nutzenpotenziale innerhalb der einzelnen Prozesse. 3.2. Verwendung der Ergebnisse und Bewertungsmöglichkeiten identifizierter Einsatzpotenziale Im vorstehenden Absatz wurde gezeigt, wie die erarbeiteten Kriterien zur Prozessanalyse genutzt werden können. Aus der Analyse ergeben sich Nutzenpotenziale für den RFID-Einsatz. Inwieweit diese erkannten Potenziale tatsächlich zu einer wirtschaftlichen RFID-Anwendung führen, muss in einem zweiten Schritt geprüft werden. Dabei muss festgestellt werden, dass es keine RFID-Lösung „von der Stange“ gibt [Lammers2006]. Jede Anwendung muss individuell auf Wirtschaftlichkeit geprüft werden. Dabei spielen vor allem die Kriterien eine starke Rolle, die nur qualitativ erfasst werden können, z. B. die Bedeutung einer exakten Erfassung der Prozesszeit. Quantitativ erfassbare Kriterien sind vergleichsweise einfach in der wirtschaftlichen Beurteilung, obwohl auch für diese Art Kriterium keine allgemein gültigen Richtwerte zur Beurteilung existieren. Zu groß sind hier die Unterschiede zwischen einzelnen Prozessen und den möglichen Einspareffekten, bedingt durch differierende Kostentreiber und Anforderungen an Leistungsfähigkeiten. Weiterhin müssen sowohl qualitative als auch quantitative Kriterien immer im Zusammenhang gesehen werden. Nur dann kann der potenzielle Nutzen einer RFID-Anwendung vollständig ermittelt werden. Erst aus der Kombination dieser beiden Faktorgruppen ergibt sich das maximale Nutzenpotenzial einer RFID-Anwendung. Vor diesem Hintergrund sind die einzelnen Nutzenpotenziale zu erfassen, daraus mögliche RFID-Szenarien zu entwickeln und diese Szenarien einer abschließenden, detaillierten Wirtschaftlichkeitsanalyse zu unterziehen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Veröffentlichung ist der zweite und umfangreichste Ausschnitt meiner Examensarbeit. Ein erster Ausschnitt über die Crinoiden des Grenzgebietes Deutschland-Niederlande wurde bei "grondboor en hamer" eingereicht (in niederländischer Sprache), ein dritter Ausschnitt über die Crinoiden des Osning-Sandsteins ist für eine Zeitschrift des Naturkunde-Museums Bielefeld vorgesehen. Ziel der Examensarbeit ist es, erstens die Mega-, Meso- und Mikroreste der Crinoiden der nordwestdeutschen Unterkreide möglichst vollständig zu erfassen und systematisch zu bearbeiten, zweitens deren stratigraphische sowie paläogeographische bzw. fazielle Verbreitung zu ermitteln. Es wurde versucht, für diese Arbeit den größten Teil der in den verschiedenen Sammlungen vorhandenen Crinoidenreste zu berücksichtigen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Gorleben salt dome is actually investigated for its suitability as a repository for radioactive waste. It is crossed by a subglacial drainage channel, formed during the Elsterian glaciation (Gorleben channel). Some units of its filling vary strongly in niveau and thickness. Lowest positions and/or largest thickness are found above the salt dome. This is interpreted as a result of subrosion during the Saalean glaciation. The rate can be calculated from niveau differences of sediments formed during the Holsteinian interglacial. However, their position might have been influenced by other factors also (relief of the channel bottom, glacial tectonics, settlement of underlying clay-rich sediments). Their relevance was estimated applying statistical techniques to niveau and thickness data from 79 drillings in the Gorleben channel. Two classes of drillings with features caused by either Saalean subrosion or sedimentary processes during the filling of the Gorleben channel can be distinguished by means of factor and discriminant analysis. This interpretation is supported by the results of classwise correlation and regression analysis. Effects of glacial tectonics on the position of Holsteinian sediments cannot be misunderstood as subrosional. The influence of the settlement of underlying clay sediments can be estimated quantitatively. Saalean subrosion rates calculated from niveau differences of Holsteinian sediments between both classes differ with respect to the method applied: maximum values are 0,83 or 0,96 mm/a, average values are 0,31 or 0,41 mm/a.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Any safety assessment of a permanent repository for radioactive waste has to include an analysis of the geomechanical stability of the repository and integrity of the geological barrier. Such an analysis is based on geological and engineering geological studies of the site, on laboratory and in-situ experiments, and on numerical calculations. Central part of the safety analysis is the geomechanical modelling of the host rock. The model should simulate as closely as possible the conditions at the site and the behaviour of the rock (e.g., geology, repository geometry, initial rock stress, and constitutive models). On the basis of the geomechanical model numerical calculations are carried out using the finite-element method and an appropriate discretization of the repository and the host rock. The assessment of the repository stability and the barrier integrity is based on calculated stress and deformation and on the behaviour of the host rock measured and observed in situ. An example of the geomechanical analysis of the stability and integrity of the Bartensieben mine, a former salt mine, is presented. This mine is actually used as a repository for low level radioactive waste. The example includes all necessary steps of geological, engineering geological, and geotechnical investigations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Gesundheitsmanagement von Milchkühen hat in den vergangenen Jahren auf den landwirtschaftlichen Betrieben an Bedeutung gewonnen. Neben Präventionsmaßnahmen zur Gesunderhaltung der Tiere ist die frühzeitige und systematische Erkennung von Erkrankungen hierbei der Hauptbestandteil. Es zeigt sich vermehrt, dass vor allem Transitkühe verstärkt an Stoffwechselerkrankungen in sowohl klinischer als auch subklinischer Form erkranken. Letztere stellen ein hohes Risiko dar, zum einen weil subklinische Erkrankungen oftmals nur schwer oder gar nicht erkannt werden und zum anderen, weil sie in vielen Fällen die Grundlage für meist schwerwiegendere Folgeerkrankungen sind. In der vorliegenden Studie wird das Thema der Früherkennung von subklinischen Ketosen und der subakuten Pansenazidose behandelt. Verschiedene Methoden wurden unter praktischen Versuchsbedingungen auf ihre Tauglichkeit zur Krankheitserkennung hin geprüft. In einer ersten Studie wurde auf einem konventionellen Milchviehbetrieb ein Ketose-Monitoring bei frischlaktierenden Kühen ab Tag 3 postpartum durchgeführt. Insgesamt 15 Tiere waren an einer subklinischen Ketose erkrankt, was eine Aufkommensrate von 26% in den untersuchten Tieren bedeutete. Die Blutproben von insgesamt 24 Tieren wurden auf ihren IL-6-Gehalt untersucht. Von den untersuchten Tieren waren 14 Tiere erkrankt, 10 Tiere bildeten die gesunde Kontrollgruppe. Interleukin-6 wurde bestimmt, da dem Zytokin IL-6 in anderen Studien in Bezug auf Ketosen eine Rolle zugesprochen wurde. Die erwartete Erhöhung von IL-6 bei erkrankten Tieren konnte nicht festgestellt werden; die erkrankten Kühe zeigten vielmehr die niedrigsten IL-6 Werte der Studiengruppe. Insgesamt waren die IL-6 Konzentrationen auf einem niedrigen Niveau mit 27.2 pg/m l± 10.2. Es zeigte sich, dass die IL-6 Bestimmung im Blut hinsichtlich der Erkennung von subklinischen Ketosen nur eingeschränkt nutzbar ist. Es konnte ausschließlich eine schwache negative Korrelation zwischen Beta- Hydroxybutyrat (BHBA, Goldstandard für den Nachweis einer Ketose) und IL-6 detektiert werden. Zusätzlich zu den Blutanalysen wurde ebenfalls die tägliche Wiederkauaktivität mit dem „DairyCheck“ System bestimmt, welches kontinuierlich die charakteristischen Kaumuskelkontraktionen aufzeichnet und somit die Dauer des Wiederkäuens bestimmt werden kann. Es wurde geprüft, ob sich ketotische Tiere von nicht ketotischen Tieren hinsichtlich der täglichen Wiederkäuzeit unterscheiden. Milchkühe mit einer Ketose kauten im Schnitt 475 min/d ± 56 wieder, nach Genesung 497 min/d ± 48. Sie befanden sich somit im Durchschnitt immer unterhalb der gesunden Kontrollgruppe, welche 521 min/d ± 76 wiederkaute. Eine Korrelation zwischen der Wiederkauzeit und dem BHBA- Gehalt im Blut war nur sehr schwach ausgeprägt, nicht zuletzt da die Tiere generell eine hohe Variabilität in der Wiederkauaktivität zeigten. Bei einer weiteren Studie, ebenfalls auf einem Praxisbetrieb durchgeführt, wurde auf die Erkennung der subakuten Pansensazidose (SARA) fokussiert. Hierbei kam ein drahtloses, kommerziell verfügbares Bolussystem zum Einsatz, welches den pH Wert kontinuierlich im Retikulorumen misst. Es macht die Erkennung einer SARA auch unter Praxisbedingungen ohne invasive Methoden wie der Punktion möglich. Das Bolussystem wurde 24 Milchkühen kurz vor der Abkalbung oral eingegeben, um den pH-Wert während der gesamten Transitphase messen und überwachen zu können. Während in der Trockenstehphase nur vereinzelte SARA Fälle auftraten, erlitt ein Großteil der untersuchten Tiere in der Frühlaktation eine SARA. Auf Grundlage von pH-Werten von laktierenden Milchkühen, wurde zusätzlich eine Sensitivitätsanalyse von verschieden, bereits eingesetzten Nachweismethoden durchgeführt, um die Tauglichkeit für die SARA-Diagnostik zu untersuchen. Es handelte sich hierbei zum einen um einen SARA-Nachweis unter Heranziehung von Einzelwerten, Fress- und Wiederkäuzeiten, sowie ausgewählten Milchinhaltsstoffen und der Milchmenge. Die Analyse ergab, dass nahezu alle Nachweismethoden im Vergleich zur Langzeitmessung nur eingeschränkt zur SARA-Diagnostik nutzbar sind. In einem weiteren Teil der Studie wurde eine Kotfraktionierung bei den gleichen Tieren durchgeführt, um damit SARA-Tiere auch mittels der Kotanalyse erkennen kann. Es konnte gezeigt werden, dass zum einen die Ration einen Einfluss auf die Kotzusammensetzung hat (Trockensteherration versus Ration für Laktierende) zum anderen aber auch, dass eine SARA die Zusammensetzung des Kotes verändert. Hierfür wurden Kotproben ausschließlich von laktierenden Kühen untersucht, sodass der Einfluss der Ration ausgeschlossen werden konnte. Erhöhte Faseranteile im Kot von SARA - Kühen gaben Hinweis auf eine verminderte Verdaulichkeit. Dabei erwies sich vor allem die Hemizellulose als guter Parameter, um auf eine SARA schließen zu können. Die Versuchsbedingungen ließen es ebenfalls zu, die pH-Verläufe der Tiere in der Frühlaktation zu untersuchen. Eine Clusteranalyse von pH-Werten der ersten 12 Tage postpartum zeigte, dass die untersuchten Tiere trotz gleicher Haltungs- und Fütterungsbedingungen unterschiedliche pH-Wert Verläufe entwickelten. So gab es eine Gruppe von Milchkühen, die den pH-Wert stabil halten konnte, während die restlichen pH-Abfälle in verschiedenen Verläufen und Intensitäten aufzeigten. Es konnte ebenfalls aufgezeigt werden, dass Tiere innerhalb der Testherde unterschiedliche Schweregrade der SARA entwickelten. Auch in dieser Studie wurde deutlich, dass Tiere scheinbar unterschiedliche Möglichkeiten haben, auf ihre Umwelt zu reagieren, bzw. suboptimalen Bedingungen entgegenwirken zu können. Zusammengefasst wurden verschiedene Methoden zur Ketose- und SARA- Erkennung geprüft, von denen nur einzelne für die Praxis zu empfehlen sind. Die Variabilität der Tiere, sowohl bei der Ausprägung der Erkrankungen als auch bei den gemessenen Parametern verdeutlicht die Notwendigkeit, diese im Herden- und Gesundheitsmanagement in Zukunft stärker zu berücksichtigen.