32 resultados para Transparenz
Resumo:
In this thesis, we investigate mixtures of quantum degenerate Bose and Fermi gases of neutral atoms in threedimensional optical lattices. Feshbach resonances allow to control interspecies interactions in these systems precisely, by preparing suitable combinations of internal atomic states and applying external magnetic fields. This way, the system behaviour can be tuned continuously from mutual transparency to strongly interacting correlated phases, up to the stability boundary.rnThe starting point for these investigations is the spin-polarized fermionic band insulator. The properties of this non-interacting system are fully determined by the Pauli exclusion principle for the occupation of states in the lattice. A striking demonstration of the latter can be found in the antibunching of the density-density correlation of atoms released from the lattice. If bosonic atoms are added to this system, isolated heteronuclear molecules can be formed on the lattice sites via radio-frequency stimulation. The efficiency of this process hints at a modification of the atom number distribution over the lattice caused by interspecies interaction.rnIn the following, we investigate systems with tunable interspecies interaction. To this end, a method is developed which allows to assess the various contributions to the system Hamiltonian both qualitatively and quantitatively by following the quantum phase diffusion of the bosonic matter wave.rnBesides a modification of occupation number statistics, these measurements show a significant renormalization of the bosonic Hubbard parameters. The final part of the thesis considers the implications of this renormalization effect on the many particle physics in the mixture. Here, we demonstrate how the quantum phase transition from a bosonic superfluid to a Mott insulator state is shifted towards considerably shallower lattices due to renormalization.
Resumo:
The mixing of nanoparticles with polymers to form composite materials has been applied for decades. They combine the advantages of polymers (e.g., elasticity, transparency, or dielectric properties) and inorganic nanoparticles (e.g., specific absorption of light, magneto resistance effects, chemical activity, and catalysis etc.). Nanocomposites exhibit several new characters that single-phase materials do not have. Filling the polymeric matrix with an inorganic material requires its homogeneous distribution in order to achieve the highest possible synergetic effect. To fulfill this requirement, the incompatibility between the filler and the matrix, originating from their opposite polarity, has to be resolved. A very important parameter here is the strength and irreversibility of the adsorption of the surface active compound on the inorganic material. In this work the Isothermal titration calorimetry (ITC) was applied as a method to quantify and investigate the adsorption process and binding efficiencies in organic-inorganic–hybrid-systems by determining the thermodynamic parameters (ΔH, ΔS, ΔG, KB as well as the stoichiometry n). These values provide quantification and detailed understanding of the adsorption process of surface active molecules onto inorganic particles. In this way, a direct correlation between the adsorption strength and structure of the surface active compounds can be achieved. Above all, knowledge of the adsorption mechanism in combination with the structure should facilitate a more rational design into the mainly empirically based production and optimization of nanocomposites.
Resumo:
Der Fokus dieser Doktorarbeit liegt auf der kontrollierten Benetzung von festen Oberflächen, die in vielen Bereichen, wie zum Beispiel in der Mikrofluidik, für Beschichtungen und in biologischen Studien von Zellen oder Bakterien, von großer Bedeutung ist.rnDer erste Teil dieser Arbeit widmet sich der Frage, wie Nanorauigkeit das Benetzungsverhalten, d.h. die Kontaktwinkel und die Pinningstärke, von hydrophoben und superhydrophoben Beschichtungen beeinflusst. Hierfür wird eine neue Methode entwickelt, um eine nanoraue Silika-Beschichtung über die Gasphase auf eine superhydrophobe Oberfläche, die aus rauen Polystyrol-Silika-Kern-Schale-Partikeln besteht, aufzubringen. Es wird gezeigt, dass die Topographie und Dichte der Nanorauigkeiten bestimmt, ob sich die Superhydrophobizität verringert oder erhöht, d.h. ob sich ein Flüssigkeitstropfen im Nano-Wenzel- oder Nano-Cassie-Zustand befindet. Das verstärkte Pinning im Nano-Wenzel-Zustand beruht auf dem Eindringen von Flüssigkeitsmolekülen in die Nanoporen der Beschichtung. Im Nano-Cassie-Zustand dagegen sitzt der Tropfen auf den Nanorauigkeiten, was das Pinning vermindert. Die experimentellen Ergebnisse werden mit molekulardynamischen Simulationen in Bezug gesetzt, die den Einfluss der Oberflächenbeschichtungsdichte und der Länge von fluorinierten Silanen auf die Hydrophobizität einer Oberfläche untersuchen. rnEs wurden bereits verschiedenste Techniken zur Herstellung von transparenten superhydrophoben, d.h. extrem flüssigkeitsabweisenden, Oberflächen entwickelt. Eine aktuelle Herausforderung liegt darin, Funktionalitäten einzuführen, ohne die superhydrophoben Eigenschaften einer Oberfläche zu verändern. Dies ist extrem anspruchsvoll, da funktionelle Gruppen in der Regel hydrophil sind. In dieser Arbeit wird eine innovative Methode zur Herstellung von transparenten superhydrophoben Oberflächen aus Janus-Mikrosäulen mit variierenden Dimensionen und Topographien entwickelt. Die Janus-Säulen haben hydrophobe Seitenwände und hydrophile Silika-Oberseiten, die anschließend selektiv und ohne Verlust der superhydrophoben Eigenschaften der Oberfläche funktionalisiert werden können. Diese selektive Oberflächenfunktionalisierung wird mittels konfokaler Mikroskopie und durch das chemische Anbinden von fluoreszenten Molekülen an die Säulenoberseiten sichtbar gemacht. Außerdem wird gezeigt, dass das Benetzungsverhalten durch Wechselwirkungen zwischen Flüssigkeit und Festkörper in der Nähe der Benetzungslinie bestimmt wird. Diese Beobachtung widerlegt das allgemein akzeptierte Modell von Cassie und Baxter und beinhaltet, dass hydrophile Flächen, die durch mechanischen Abrieb freigelegt werden, nicht zu einem Verlust der Superhydrophobizität führen müssen, wie allgemein angenommen.rnBenetzung kann auch durch eine räumliche Beschränkung von Flüssigkeiten kontrolliert werden, z.B. in mikrofluidischen Systemen. Hier wird eine modifizierte Stöber-Synthese verwendet, um künstliche und natürliche Faser-Template mit einer Silika-Schicht zu ummanteln. Nach der thermischen Zersetzung des organischen Templat-Materials entstehen wohldefinierte Silika-Kanäle und Kanalkreuzungen mit gleichmäßigen Durchmessern im Nano- und Mikrometerbereich. Auf Grund ihrer Transparenz, mechanischen Stabilität und des großen Länge-zu-Durchmesser-Verhältnisses sind die Kanäle sehr gut geeignet, um die Füllgeschwindigkeiten von Flüssigkeiten mit variierenden Oberflächenspannungen und Viskositäten zu untersuchen. Konfokale Mikroskopie ermöglicht es hierbei, die Füllgeschwindigkeiten über eine Länge von mehreren Millimetern, sowie direkt am Kanaleingang zu messen. Das späte Füllstadium kann sehr gut mit der Lucas-Washburn-Gleichung beschrieben werden. Die anfänglichen Füllgeschwindigkeiten sind jedoch niedriger als theoretisch vorhergesagt. Wohingegen die vorhergehenden Abschnitte dieser Arbeit sich mit der quasistatischen Benetzung beschäftigen, spielt hier die Dynamik der Benetzung eine wichtige Rolle. Tatsächlich lassen sich die beobachteten Abweichungen durch einen geschwindigkeitsabhängigen Fortschreitkontaktwinkel erklären und durch dynamische Benetzungstheorien modellieren. Somit löst diese Arbeit das seit langem diskutierte Problem der Abweichungen von der Lucas-Washburn-Gleichung bei kleinen Füllgeschwindigkeiten.
Resumo:
Radio Frequency Identification (RFID) beeinflusst unbestritten zahlreiche Anwendungsgebiete und schafft die Grundlage für die zukünftige Entwicklung logistischer Systeme. Von besonderer Bedeutung ist in diesem Zusammenhang die systematische Identifikation von Einsatzpotenzialen für diese Technologie. Bislang existiert hierfür noch keine allgemein verbreitete Methodik. Diese Problematik greift der folgende Beitrag auf und zeigt, wie aus den technischen Grundlagen und analysierten Praxisanwendungen Identifikationskriterien abgeleitet werden können. Die so erarbeiteten Kriterien werden in ihrer Anwendung anhand eines fiktiven Beispiels erläutert und damit exemplarisch eine mögliche Analysemethodik vorgestellt. 1. Einleitung Die produktionswirtschaftlichen Anforderungen an die Unternehmen sind zunehmend geprägt durch Globalisierung und damit durch eine zunehmende Komplexität sowie vertiefte Arbeitsteiligkeit. Es entsteht eine zunehmend breitere Streuung der Fertigungsstandorte und Kooperationsbeziehungen. Es gibt letztlich mehr Lager- und Umschlagprozesse in der Lieferkette. Andererseits bringt der erhöhte Qualitäts- und Kostendruck steigende Fixkosten mit sich, er zwingt zur ständigen Rationalisierung der Materialwirtschaft. Es besteht der Zwang zum Einsatz neuer technisch-elektronischer Mittel zur Kontrolle und Steuerung der logistischen Ketten. Im Lager bedeutet das eine zunehmende Nutzung der Informations- und Kommunikationstechnik zur Lager- und Fertigungssteuerung, auch in Verbindung mit Forderungen der Rückverfolgbarkeit der Produkte. An die Logistikleistungen werden damit Anforderungen wie Schnelligkeit, Qualität und Kostenminimierung gestellt. Letztlich bestehen die Warenbereitstellungs- und Verteilsysteme aus der technischen Grundstruktur, dem Lagertyp und dessen Geometrie sowie der dabei einsetzbaren Bedientechnik und deren kinematischen Daten. Der organisatorische Rahmen dieser Systeme ist gekennzeichnet durch die Nutzung diverser Ein- und Auslagerstrategien, die auch wesentlich Kosten und Leistungen (Umschlagleistung) des zu betrachtenden Lagersystems bestimmen. Aufgrund der genannten Forderungen muss es gelingen, aus dem eingesetzten technischen System durch organisatorisch effizienten Betrieb maximale Leistung bei gleichzeitig minimal eingesetzten Kosten zu erzielen. Neben den Investitionskosten sind bei der Planung von automatischen Lagersystemen die erreichbaren mittleren Spielzeiten der Bedientechnik von entscheidender Bedeutung, um die erforderliche Umschlagleistung des Lagers zu gewährleisten. Hierzu existieren eine Reihe von Berechnungsvorschriften und –normen. Diese Berechnungen berücksichtigen jedoch nicht die Auswirkungen der Lagerorganisation, wie beispielsweise fahrzeitminimale Kombinationen von Ein- und Auslageraufträgen bei Doppelspielen, Zonierungsmaßnahmen, die Auswirkungen von verschiedenen Füllgraden des Lagers oder Lagerplatzstrategien. 2. Stand der Technik 2.1. Lagertypen Abbildung 1: Systematische Einteilung der Lagertypen In Abbildung 1 sind verschiedene Lagertypen dargestellt und nach Kriterien eingeteilt. Soll eine Einschränkung hinsichtlich am Markt häufig vorkommender automatischer Palettenlager getroffen werden, so sind besonders die in der Abbildung hervorgehobenen Typen zu nennen. Eine Auswahl der einzelnen Lagertypen erfolgt dann anhand von Kosten, Umschlagleistung und bei Kompaktlagern vorrangig anhand von Flächen- und Raumnutzungsgrad. Werden die Kostenunterschiede bei Personal, Rechentechnik und Steuerungssoftware in den verschiedenen Lagertypen und -ausführungen der jeweiligen Typen vernachlässigt, unterscheiden sich die Gesamtkosten der Lager lediglich in der Bedientechnik sowie in den statisch bedingten Kosten der Regalkonstruktion. Die wichtigsten Kosteneinflüsse auf die Regale sind wiederum Bauhöhe und Bauart (Regalkonstruktion oder selbsttragendes Bauwerk). Abbildung 2 zeigt die zu erwartenden Umschlagleistungen1) der verschiedenen Lagertypen in Abhängigkeit der benötigten Stellplatzanzahl. Die darauf folgende Abbildung 3 zeigt die zu erwartenden Investitionskosten1) je Stellplatz. Die berücksichtigten Kenngrößen sind nachstehend dargestellt. Die abgebildeten Kurven machen deutlich, dass insbesondere Umschlagleistung der Lager und deren Flächen- bzw. Raumnutzungsgrad gegensätzlich verlaufen. Somit sind auch die Einsatzgebiete der Lagertypen voneinander abgrenzbar. Während Hochregallager für Anwendungsfälle mit hohem Gutumschlag in Frage kommen, werden die Kompaktlager eher in Objekten mit begrenztem Platz oder hohen Raumkosten (bspw. Kühllager) eingesetzt. Somit sind Kompaktlager auch häufig für die Umplanung bzw. der notwendigen Vergrößerung der Lagerkapazität innerhalb einer bestehenden baulichen Hülle interessant. Abbildung 2: Umschlagleistungen der verschiedenen Lagertypen Abbildung 3: Investitionskosten der einzelnen Lagertypen 2.2. Einzel-/ Doppelspiele Um anhand der Technik und der geometrischen Verhältnisse im Lager die höchstmögliche Umschlagleistung zu erzielen, ist es sinnvoll, Doppelspiele (DS) zu generieren. Somit ist nicht wie bei Einzelspielen (ES) je umgeschlagene Ladeeinheit eine Leerfahrt erforderlich, sondern nur je zweiter Ladeeinheit. Das Bediengerät fährt also vom Einlagerpunkt direkt zum Auslagerpunkt, ohne zum Übergabepunkt zurückkehren zu müssen. Diese Vorgehensweise setzt die Kenntnis der nächsten Fahraufträge und gegebenenfalls die Möglichkeit der Veränderung derer Reihenfolge voraus. Für eine Optimierung der Umschlagleistung ist die bei DS entstehende Leerfahrt (Zwischenfahrstrecke) und damit die Zwischenfahrzeit zu minimieren (vgl. 3.5). Nachfolgend beschriebene Untersuchungen beziehen sich jeweils auf Doppelspiele. Abbildung 4: Darstellung der anzufahrenden Lagerplätze in der Regalwand,links: Einzelspiel, rechts: Doppelspiel 2.3. Berechnungsvorschriften für Umschlagleistungen von Lagern Es existieren eine Reihe von Vorschriften zur Berechnung der Umschlagleistung von Lagern, exemplarisch sind drei Berechnungsvorschriften dargestellt. Die Richtlinie VDI 3561 [VDI3561] ermöglicht die Berechnung der Spielzeit auch für Doppelspiele. Dazu werden zwei Referenzpunkte festgelegt, die den Aus- bzw. Einlagerpunkt darstellen. Ein Doppelspiel besteht dann aus der Summe folgender Einzelzeiten: • der Hinfahrt vom Übergabepunkt zum Einlagerpunkt (P1), • der Leerfahrt vom Ein- zum Auslagerpunkt (P2) und der • Rückfahrt vom Auslagerpunkt zum Übergabepunkt (vgl. Abb.4 rechts). Die Summe dieser Einzelzeiten wird danach mit der Summe der Übergabezeiten addiert. Der Unterschied der Richtlinie und der Berechnungsvorschrift nach [Gud00] bestehen im wesentlichen aus der Lage der Ein- und Auslagerpunkte. Fahrzeitberechnung nach VDI 3561 P1 ; P2 Fahrzeitberechnung nach Gudehus 1) P1 ; P2 1)Annahme: Vernachlässigung von Totzeiten, Lastaufnahmefaktor = 1 Wird davon ausgegangen, dass in Abhängigkeit der Gassengeometrie immer nur eine der beiden Fahrzeitanteile (vertikal bzw. horizontal) spielzeitbestimmend ist, so ergeben sich beide Fahrstrecken zu 4/3 der jeweiligen Gesamtabmessung. Der Unterschied der beiden Berechnungsvorschriften liegt lediglich in der Aufteilung der Gesamtfahrstrecke auf die Teilfahrstrecken Hin-, Rück- bzw. Zwischenfahrt. Da jedoch die Fahrzeit zu den Anfahrpunkten in der Regel nicht von der gleichen Fahrzeitkomponente bestimmt wird, kommt es in der Praxis zu Unterschieden im Berechnungsergebnis. Die unter dem Titel „Leistungsnachweis für Regalbediengeräte, Spielzeiten“ stehende Norm FEM 9.851 [FEM9.851] beschäftigt sich ebenfalls mit der Berechnung von Spielzeiten von Regalbediengeräten (RBG). Dabei werden sechs verschiedene Anwendungsfälle generiert, die am häufigsten in der Praxis vorkommen. Diese unterscheiden sich insbesondere in der Lage der Übergabepunkte für die Ein- und Auslagerung. Dabei werden die Punkte sowohl horizontal als auch vertikal verschoben. Es werden hierbei auch Fälle betrachtet, in denen der Auslagerpunkt nicht mit dem Einlagerpunkt übereinstimmt, sich beispielsweise auch an dem gegenüberliegenden Gassenende befinden kann. Wird der einfachste Fall betrachtet, dass sich der Übergabepunkt für die Ein- und Auslagerung übereinstimmend an einer unteren Ecke der Gasse befindet, stimmen die Berechnungsformeln mit [Gud00] weitgehend überein. 2.4. Kritik und Untersuchungsansatz Die Berechnung der mittleren Spielzeit der einzelnen Lagergassen durch die beschriebenen Normen erfolgt in der Regel ohne die Berücksichtigung der Geschwindigkeitsdiagonalen, deren Steigung c durch nachstehendes Verhältnis gegeben ist. 1. Einleitung Eine umfassende Prozessanalyse ist die Grundlage einer jeden erfolgreichen RFID-Anwendung [o.Verf. 2006]. Die Merkmale, die bei einer solchen Untersuchung zu beachten sind, werden allerdings nicht öffentlich diskutiert. Wie Resch in seinem Ansatz zeigt, ist aber gerade die Analysephase von entscheidender Bedeutung für den späteren Erfolg einer RFID-Anwendung (vgl. Abb. 1). Abbildung 1: Fehlende Methodiken der Prozessanalyse [Resch2005] In dieser Phase besteht der größte Gestaltungsfreiraum für die spätere Umsetzung. Da in dieser Phase das größte Optimierungspotenzial einer RFID-Anwendung festgelegt wird, entscheidet sich bereits zu Beginn eines Projektes wie groß der maximal erreichbare Nutzen einer Lösung sein kann. Bisher existieren keine allgemein verbreiteten Methoden und Kriterien zur Identifikation dieser Einsatz-/Nutzenpotenziale. Die Prozessanalyse ist die Basis zukünftiger RFID-Anwendungen und ist daher entsprechend umfangreich durch zu führen. RFID-Einsatzpotenziale werden aktuell nur in Funktionsbereichen kommuniziert. Diese Pauschalisierung engt die Sicht auf potenzielle Anwendungen allerdings sehr stark ein. Dadurch besteht die Gefahr, dass die vorhandenen Nutzenpotenziale indirekt beteiligter Prozesse nicht beachtet werden. Es ist daher zwingend notwendig möglichst alle material- und informationsflussbezogenen Prozesse auf ein RFID-Einsatzpotenzial hin zu untersuchen. D.h. sowohl die Prozesse mit direktem Materialflussbezug (bspw. Wareneingang) als auch die Prozesse, die nur indirekt, über den Informationsfluss, mit dem Materialfluss verknüpft sind (bspw. Disposition). Der vorliegende Beitrag stellt daher einen ersten Ansatz für die Ermittlung allgemeingültiger Analysekriterien für RFID-Einsatzpotenziale. Die vorgestellte Methodik und der daraus entwickelte Kriterienkatalog sollen es ermöglichen, RFID-Anwendungen in der Analysephase auf ein möglichst vollständiges Nutzengerüst zu stellen und so den maximalen Nutzen einer Anwendung systematisch zu ermitteln. 2. Identifikationskriterien 2.1. Methodik Basierend auf der Überlegung die Kriterien sowohl theoretisch als auch auf Basis von Praxiserfahrungen zu entwickeln, dienen neben der Betrachtung technischer Grundlagen auch Analysen von realisierten Anwendungen und Pilotprojekten als Basis der Kriterienentwicklung. Abbildung 2 zeigt die grundsätzliche Methodik hinter der Entwicklung der Kriterien. Dabei zeigt sich, dass aus dem gewählten Ansatz zwangsläufig zwei differierende Typen von Kriterien entwickelt werden müssen. Technische Kriterien, aus den Grundlagen der RFID beziehen sich vor allem auf das vorherrschende Prozessumfeld. Frequenzspezifische Eigenschaften (Leistungsdaten) und allgemeine, also frequenzübergreifende Eigenschaften der RFID-Technik bilden die Ausgangsbasis für diese Kriteriengruppe. Dabei werden diese technologischen Eigenschaften in Prozessmerkmale überführt, anhand derer im konkreten Prozessumfeld eine Technologieauswahl durchgeführt werden kann. So können potenzielle RFID-Anwendungen auf eine prinzipielle Anwendbarkeit hin überprüft werden. Abbildung. 2: Vorgehen zur Entwicklung der Identifikationskriterien [Resch2005] Die zweite Gruppe der Kriterien, die organisatorischen Kriterien, werden aus Praxiserfahrungen abgeleitet. Basis dieser Analyse sind Prozesse aus realisierten Anwendungen und Pilotprojekten. Dieser praxisbasierte Teil stellt prozessbezogene Merkmale zusammen, deren Schwerpunkt auf prozessspezifischen organisatorischen Merkmalen, bspw. Durchsatz, oder auch Dokumentationsaufwand liegt. Die ausgewählten Praxisbeispiele sind nach ihren individuellen Prozessmerkmalen analysiert worden. Die Ergebnisse wurden stichpunktartig zusammengefasst, in übergeordnete Kategorien gruppiert und abschließend nach ihrem Flussbezug gegliedert. RFID-Anwendungen beeinflussen sowohl materialflussbezogene Prozesse, als auch direkt oder auch indirekt verknüpfte informationsflussbezogene Prozesse. Daher erfolgt eine Ordnung der identifizierten Kriteriengruppen nach ihrem Flussbezug, um so einem Anwender die Betrachtungsweise nachhaltig zu verdeutlichen und die Analyse zu vereinfachen. 2.2. Praxisbeispiele Die analysierten Praxisbeispiele sind zum Großteil in der Automobilindustrie realisiert (vgl. Abb. 3). Die weiteren Anwendungen sind aus der Instandhaltung sicherheitsrelevanter technischer Gebäudeausrüstung, aus einem Hochregallager eines Logistikdienstleisters sowie aus der Luftfahrtindustrie. Abbildung 3: Branchenspezifische Verteilung der Praxisbeispiele Die Auswahl der Praxisbeispiele ist bewusst auf die Automobilindustrie fokussiert. Dieser Industriezweig hat in Deutschland bereits einige Anwendungen und eine Vielzahl an Pilotprojekten initiiert. Die Bandbreite der realisierten Projekte ist sehr groß und deckt daher viele verschiedene Anwendungsfälle ab. Die Ergebnisse der Untersuchung sind aber auch auf andere Branchen übertragbar, da die untersuchten Praxisprojekte Situationen abbilden, die ebenfalls leicht zu übertragen sind. Die analysierten Anwendungen bilden ein sehr breites Feld an Einsatzszenarien ab. Anwendungen mit massenhaften Stückzahlen sind ebenso vertreten, wie Anwendungen mit hohem Spezialisierungscharakter. Die Anwendungen reichen dabei von einfachen Pilotprojekten im Ladungsträgermanagement, bis hin zu komplexen Anwendungen im Bereich der Produktionssteuerung und der unternehmensübergreifenden Koordination von Materialflüssen. Insgesamt verteilen sich die analysierten Anwendungen auf drei Schwerpunktbereiche. Abbildung 4 stellt die Anwendungsbereiche in einer Übersicht zusammen. Abbildung 4: Übersicht der Anwendungsgebiete aus den Praxisanwendungen Anwendungen aus den Bereichen der Produktionssteuerung und des Materialflusses sind dabei am häufigsten vertreten. Während die Anwendungen aus dem Bereich der Instandhaltung, bzw. dem Qualitätsmanagement, meist mit der Hauptanwendung aus dem Bereich der Produktionssteuerung verknüpft sind. So wird bspw. die Dokumentationen der einzelnen Fertigungsstationen i.d.R. sowohl zur Fertigungssteuerung als auch zur Qualitätssicherung genutzt. 2.3. Ergebnisse der Praxisanalyse Die Analyse der Praxisanwendungen brachte in einem ersten Schritt eine Fülle an spezifischen Merkmalen zusammen. Jeder analysierte Prozess wies seine eigenen Merkmale auf, die aber dem Grundsatz nach systematisiert werden konnten. Die so erarbeiteten Merkmale wurden in einem zweiten Schritt gruppiert. Insgesamt ergaben sich fünf Gruppen, die jeweils nach einer, durch die RFID-Technik durchgeführte Funktion benannt sind. Um eine Prozessanalyse mit Hilfe der Kriterien zu erleichtern, ist jede Gruppe ihrem übergeordneten Flusssystem zugeordnet worden. Nachstehende Abbildung 5 zeigt die einzelnen Gruppierungen mit ihrem jeweiligen Flussbezug. Dabei sind jeder Gruppe beispielhafte Merkmale zugeordnet. Abbildung 5: Organisatorische Kriterien zur Identifikation von RFID-Einsatzpotenzialen Die vorliegende Systematisierung von Identifikationskriterien deckt sowohl Aspekte des reinen Materialflusses, als auch die Aspekte der zugehörigen Informationsflüsse ab. Dabei verhält sich der Flussbezug in jeder Kriteriengruppe unterschiedlich. Die Kriterien der Gruppe Identifikation befassen sich ausschließlich mit dem Identifikationsvorgang. Dabei können die erarbeiteten Kriterien in zwei Arten unterschieden werden, quantitative und qualitative Kriterien. Qualitativ messbar sind Kriterien, die sich auf die Anzahl der Identifikationsvorgänge beziehen. Bspw. die Anzahl der Identifikationsvorgänge im betrachteten Prozessverlauf, bezogen auf ein Identifikationsobjekt oder die Anzahl der Identifikationsvorgänge pro Zeiteinheit an einem Identifikationspunkt innerhalb des Prozessverlaufs. Gleichzeitig umfasst diese Gruppe aber auch Kriterien, die nur qualitativ zu bewerten sind. Kriterien wie die Bedeutung einer exakten Identifikation einzelner Teile im Prozess oder auch der aktuelle Aufwand der Identifikation im Prozess lassen sich nur bedingt oder nicht quantifizieren. Diese Kriteriengruppe fokussiert mit ihren Merkmalen vor allem den Materialfluss. Die einzelnen Merkmale beziehen sich auf den tatsächlichen Identifikationsvorgang und nicht auf die zugehörigen Informationsflüsse. Unter dem Begriff Transparenz sind Kriterien gruppiert, die sich mit der Verfolgbarkeit und Übersichtlichkeit von Prozessen befassen. Dabei gilt es sowohl die Bedeutung für den aktuellen Prozess als auch für die abhängigen Prozesse zu ermitteln. Transparenz bzw. die fehlende Transparenz ist der Kern dieser Kriteriengruppe. Qualitative Kriterien sind in dieser Kategorie besonders stark vertreten, da vor allem die Bedeutung bestimmter Aspekte der Prozesstransparenz als Kriterium dient. Prozesstransparenz liegt i.d.R. nicht vor oder wird nur über komplexe Systeme erreicht. Die Bewertung dieser Kriteriengruppe ist höchst variabel, da Prozesstransparenz in ihrer Bedeutung höchst individuell ist, d.h. von Prozess zu Prozess stark variiert. Die Gruppe Konfiguration fasst Merkmale zusammen, die auf objektspezifische Anpassungsarbeiten im Prozessverlauf hinweisen. Diese Tätigkeiten sind i.d.R. mit einem quantifizierbaren Aufwand verbunden und können so leicht erfasst werden. Die RFID-Technologie eröffnet hier, ähnlich wie im Bereich der Identifikation, Chancen zur Automatisierung bestehender Prozesse. Die Kriterien konzentrieren sich in ihrer Zielrichtung daher schwerpunktmäßig auf die Untersuchung von Potenzialen hinsichtlich der Automation von Konfigurationsvorgängen. Ähnlich wie die vorstehende Gruppe der Transparenz, besitzt diese Gruppe ebenfalls einen starken Bezug zu beiden Flusssystemen. In beiden Gruppen liegt der Fokus der betrachteten Merkmale sowohl auf dem Materialfluss und den physischen Aktionen als auch auf den zugehörigen Informationsflüssen mit entsprechenden Tätigkeiten. Die vierte Gruppe Zuordnung enthält primär Merkmale, die sich auf den Informationsfluss beziehen. Im Vordergrund steht die Art und Weise in der innerhalb eines Prozesses Materialflüsse zwischen Quelle und Senke koordiniert werden. Diese Gruppe enthält ebenfalls sowohl qualitativ als auch quantitativ zu bewertenden Merkmale. RFID-Technik kann hier zu einer deutlichen Komplexitätsreduktion, einer Automation sowie der Reduktion von Stillstands- u. Wartezeiten führen. Die letzte Gruppe Datenverwendung und Dokumentation befasst sich beinahe ausschließlich mit Aspekten des Informationsflusses. Als beinahe Komplementär zur Gruppe der Identifikation stehen hier die informationsflussbezogenen Handlungen, ausgelöst durch einen zugehörigen Materialfluss in der Betrachtung. Dabei stehen vor allem Fehlerraten, manuelle Aufwende der Datenverarbeitung und die Anzahl an Medienbrüchen im Informationsfluss im Vordergrund. Auch hier existiert wiederum ein Geflecht aus qualitativen und quantitativen Kriterien, deren Bewertung individuell durchzuführen ist. 2.4. Technische Kriterien Ergänzt werden die organisatorischen Kriterien um die technischen Kriterien. Diese Kriterien leiten sich aus den technischen Grundlagen der RFID-Technik ab. Diese Grundlagen sind zum einen die Eigenschaft der kontakt- und sichtlosen Übertragung von Energie und Daten, zum anderen der physische Aufbau der Komponenten eines RFID-Systems, dem Reader und dem Transponder. Des Weiteren definieren die frequenzspezifischen Eigenschaften der verschiedenen RFID-Systeme unterschiedliche Leistungsparameter, aus denen technische Kriterien abgeleitet werden können. Daraus ergibt sich die logische Trennung in frequenzabhängige und frequenzunabhängige Kriterien. Auszüge dieser Kriterien zeigt nachstehende Abbildung 6 Abbildung 6: Technische Kriterien Die technischen Kriterien dienen eher zur Technologieauswahl, als zu einer reinen Potenzialidentifikation, da ausschließlich limitierende Aspekte der Technologie betrachtet werden. Einflüsse, bedingt durch die genutzte technische Ausrüstung (bspw. metallische Lagertechnik) oder verfahrensbedingte Einflüsse (elektromagnetische Felder, Schweißroboter, o.ä.), werden über diese Kriterien abgebildet und finden so Berücksichtigung in den zu entwickelnden RFID-Szenarien. Die Wirkung dieser Kriterien hängt stark von dem jeweiligen Stand der Technik ab. Galt bspw. der Einsatz von 13,56 MHz Transpondern direkt auf Metall vor fünf Jahren noch als nicht möglich, so ist die Technik mittlerweile so weit entwickelt, dass auch Lösungen in diesem Bereich angeboten werden. Daher muss festgehalten werden, dass die frequenzabhängigen technischen Kriterien im Zeitverlauf variabel in ihrer Wirkung sind und sich mit dem technischen Fortschritt der RFID-Hardware verändern. Atmosphärische Einflüsse auf die RFID-Hardware sind generell für alle Varianten (unabhängig von der Betriebsfrequenz) der RFID-Technik zu beachten. Der Einfluss der Umgebungsbedingungen auf die Integrität der Hardware ist immer zu berücksichtigen. Temperatur, Druck und Staubbelastung sind hier die Hauptgruppen äußerer Einflüsse auf die RFID-Hardware. Auch diese Gruppe der technischen Kriterien muss mit der sich verändernden technischen Leistungsfähigkeit in ihrer Bewertung angepasst werden. 3. Anwendung der Kriterien 3.1. Anwendungsbeispiel Die Anwendung der Kriterien wird im Folgendem anhand eines kurzen Beispiels erläutert. Nachstehende Abbildung 7 zeigt Ausschnitte aus einem fiktiven Prozess innerhalb eines Großlagers. Abbildung 7: Fiktiver Prozess Von der Entladung des LKW bis zur Einlagerung der Paletten ist der Prozess in vier grobe Phasen strukturiert. Zur Identifikation von RFID-Einsatzpotenzialen werden die einzelnen Prozesselemente nach dem in Tabelle 1dargestellten Schema untersucht. Tabelle 1: Exemplarische Anwendung der Kriterien an einem ausgewählten Beispiel Kriteriengruppe Kriterium Einheit Prozesselement Entladen des LKW Bezugsobjekt LKW Palette Identifikation Anzahl ID - Vorgänge pro Objekt 1/Stck. 2 1 Anzahl ID - Objekte im Zeitraum Stck./ZE 25/h 10/min Transparenz Bedeutung exakter Prozesszeiterfassung Qual. Hoch Hoch intransparente Prozessabschnitte ja/nein Ja Ja Konfiguration Anzahl objektspez. Konfigurationsarbeiten 1/Stck. 0 0 Manueller Anteil der Konfiguration Qual. - - Zuordnung Fehleranteil der Zuordnung Q/S Qual. Mittel Gering Komplexität der Zuordnung Q/S Qual. Hoch Hoch Datenverwendung und Dokumentation Anzahl der Änderungen objektspezifischer Daten im Prozess 1/Stck. 8 (6-7) 2 Anzahl der Medienbrüche im Prozess 1/Stck. - - Die Tabelle zeigt, wie einzelne Prozesselemente mit Hilfe der Identifikationskriterien analysiert werden können. Dabei ergeben sich aus den Ausprägungen der einzelnen Kriterien die Nutzenpotenziale auf deren Basis sich eine spätere RFID-Anwendung gestalten und bewerten lässt. Für die Analyse der einzelnen Prozesselemente ist es notwendig, die Kriterien auf ein Bezugsobjekt zu beziehen. Dieses Bezugsobjekt stellt den potenziellen Träger des Transponders dar. Dabei ist zu beachten, dass innerhalb eines Prozesses mehrere Bezugsobjekte vorhanden sein können. Die Analyse muss daher für jedes Bezugsobjekt einzeln durchgeführt werden. Die Zusammenfassung der Analyseergebnisse pro Bezugsobjekt, über die zusammengehörigen Prozesselemente zeigt die Nutzenpotenziale innerhalb der einzelnen Prozesse. 3.2. Verwendung der Ergebnisse und Bewertungsmöglichkeiten identifizierter Einsatzpotenziale Im vorstehenden Absatz wurde gezeigt, wie die erarbeiteten Kriterien zur Prozessanalyse genutzt werden können. Aus der Analyse ergeben sich Nutzenpotenziale für den RFID-Einsatz. Inwieweit diese erkannten Potenziale tatsächlich zu einer wirtschaftlichen RFID-Anwendung führen, muss in einem zweiten Schritt geprüft werden. Dabei muss festgestellt werden, dass es keine RFID-Lösung „von der Stange“ gibt [Lammers2006]. Jede Anwendung muss individuell auf Wirtschaftlichkeit geprüft werden. Dabei spielen vor allem die Kriterien eine starke Rolle, die nur qualitativ erfasst werden können, z. B. die Bedeutung einer exakten Erfassung der Prozesszeit. Quantitativ erfassbare Kriterien sind vergleichsweise einfach in der wirtschaftlichen Beurteilung, obwohl auch für diese Art Kriterium keine allgemein gültigen Richtwerte zur Beurteilung existieren. Zu groß sind hier die Unterschiede zwischen einzelnen Prozessen und den möglichen Einspareffekten, bedingt durch differierende Kostentreiber und Anforderungen an Leistungsfähigkeiten. Weiterhin müssen sowohl qualitative als auch quantitative Kriterien immer im Zusammenhang gesehen werden. Nur dann kann der potenzielle Nutzen einer RFID-Anwendung vollständig ermittelt werden. Erst aus der Kombination dieser beiden Faktorgruppen ergibt sich das maximale Nutzenpotenzial einer RFID-Anwendung. Vor diesem Hintergrund sind die einzelnen Nutzenpotenziale zu erfassen, daraus mögliche RFID-Szenarien zu entwickeln und diese Szenarien einer abschließenden, detaillierten Wirtschaftlichkeitsanalyse zu unterziehen.
Resumo:
Das Management komplexer, interorganisatorischer und durch eine Vielzahl unterschiedlicher Beziehungen miteinander verknüpfter Strukturen und Prozesse, wie sie großen Netzen der Logistik zu-grunde liegen, stellt für die verantwortlichen Akteure eine anspruchsvolle Aufgabe dar. Der nachfolgende Beitrag stellt einen systematischen Ansatz vor, mit dem Netzwerkmanager bei der Erfüllung dieser Auf-gabe durch eine verbesserte Informationsgrundlage über verfügbare Methoden und Gestaltungsoptionen unterstützt werden sollen. Exemplarisch demonstriert wird die Funktionsweise dieses Ansatzes anhand des umfangreichen Instrumentariums des Netzwerk-Controlling, welches zur Schaffung von Transparenz in den unternehmensübergreifenden Prozessen zur Verfügung steht.
Resumo:
Zukünftigen Lagersystemen werden aufgrund gewandelter Anforderungen Eigenschaften abverlangt, die mitunter in einem Widerspruch zueinander stehen. Im Folgenden sollen dazu betrieblich-technische Anforderungen und systemtechnische Lösungsansätze analysiert werden.
Resumo:
Der Umgang mit Abfällen ist durch Paradoxien bestimmt: Das urbane Leben erzeugt in unvorstellbarem Ausmaß Abfall, doch Deponien sind selten willkommen; noch seltener werden sie als wichtige Bestandteile der modernen Infrastruktur wahrgenommen und gestaltet. Deponien sind mittlerweile technologisch hochkomplexe Anlagen, im Bewusstsein der Mehrheit werden sie aber ausgeblendet. Dieser Zustand erfordert ein neues Sehen, das die Möglichkeiten von Deponien als Landschaftsbaustellen nutzt und sie zu Infrastrukturprojekten mit erkennbarer Bedeutung gestaltet.
Resumo:
Der Bundesrat entschied sich, mit der Umsetzung der Empfehlungen der GRECO für mehr Transparenz in der Parteienfinanzierung zuzuwarten. – Einige etablierte Parteien hatten Mühe, für ihre im Vorjahr lancierten Volksinitiativen genügend Unterschriften zu sammeln; die Bürokratie-Initiative der FDP schaffte das nötige Quorum nicht. – In der BDP, der FDP und der GP wurden neue Präsidien gewählt, die SP und die SVP bestellten neue Fraktionspräsidenten. – BDP, FDP, GLP, GP und SVP verbreiterten ihre Parteispitze. – SP und GP lehnten Spendenangebote von Grossbanken ab. – Der 2009 gestartete Fusionsprozess zwischen FDP und LP wurde mit dem Zusammenschluss im Kanton Waadt abgeschlossen. – Die CVP feierte im Berichtjahr ihr 100-jähriges Bestehen. – Die SVP erhielt mehr durch ihre Exponenten als durch ihre Politik mediale Aufmerksamkeit.
Resumo:
Die Open Government Bewegung soll der Verwaltungsführung mehr Transparenz und Verständnis entgegenbringen. Durch Open Finance Apps werden Finanzangaben und dazugehörige Informationen verständlich zugänglich gemacht und Grössenverhältnisse veranschaulicht.
Resumo:
Fehlendes Wissen ist Auslöser und Grundlage klinischer Versuche. Der Schutz der Versuchspersonen und einheitliche wissenschaftliche Methoden sind zentrale Bestandteile der weltweit geltenden Guten Praxis klinischer Versuche. Das Schweizer Recht sieht gestützt auf diese Standards Mittel und Verfahren zur Gewährleistung der Sicherheit klinischer Heilmittelversuche vor. Noch fehlen jedoch gesetzliche Grundlagen für landesweite Studien- und Versuchspersonenregister. Solche Register sind wirksame Instrumente zur Sicherung der Qualität und Transparenz klinischer Versuche.
Resumo:
Bei vielen kommerziell genutzten Produkten mit synthetischen Nanomaterialien besteht wegen fehlender Testdaten Ungewissheit, ob von diesen eine Gefahr oder ein Risiko ausgeht. Bei anderen ist lediglich ungewiss, wie lange die Latenzphase dauert, bis Spätschäden bei Personen eintreten. Diese Ungewissheiten stellen Gesetzgeber und die Versicherungsindustrie vor grosse Herausforderungen. Der Beitrag postuliert, dass Haftpflicht und Versicherung eine wichtige Vorreiterrolle für die Regulierung von Nanomaterialien spielen können. So könnte der Abschluss von Versicherungen beispielsweise von der Einhaltung von freiwilligen Massnahmen abhängig gemacht werden. Die Einführung einer gesetzlichen Deklarationspflicht von Nanomaterialien würde die Transparenz erhöhen, was Arbeitnehmenden, Konsumentinnen und Konsumenten sowie der Versicherungsindustrie zugute käme. Zudem gilt es, gelernte Lektionen aus den Erfahrungen mit Spätschäden von Asbestopfern in der Gesetzgebung umzusetzen.
Resumo:
Fragestellung / Zielsetzung Rollenspiel von standardisierten Patienten (SPs) bei hochstehenden Prüfungen unterliegt hohen Qualitätsansprüchen, um die Reliabilität und Validität der Prüfung zu gewährleisten. Die Literatur über die Qualitätskontrolle bei SPs konzentriert sich vor allen Dingen auf das Feedback (1,2) oder das Ausfüllen der Checklisten (3,4). Bei Qualitätskontrollen bezüglich des Rollenspiels sind Instrumente mit Bezug auf spezifische Rollen publiziert(5). In den meisten Fakultäten beobachten die SP Trainer die von ihnen trainierten SPs während der OSCEs und bilden sich so ein Urteil über die Qualität der Performance. Die Machbarkeit / Notwendigkeit einer systematischen Qualitätskontrolle des Rollenspiels von SPs in OSCEs über diese Praxis hinaus ist unter SP Trainern umstritten. Das Ziel des hier beschriebenen Projektes ist es, die Anwendungen einer Liste von rollenunabhängigen Qualitätsmerkmalen der Spiels von SPs im Rahmen von OSCEs in der Praxis zu testen. Materialien und Methoden Im Rahmen einer Konsensbildung von Experten auf nationaler Ebene wurde eine Liste von Qualitätsmerkmalen zum Rollenspiel von SPs bei OSCEs erstellt. Diese Liste wurde seitdem systematisch zur Vorbereitung, Durchführung und zum Debriefing von OSCEs eingesetzt. Ergebnisse 1. Bei der Erarbeitung der Liste wurde klar, dass verschiedene SP Trainer unterschiedliche Vorstellungen bezüglich von Qualitätsmerkmalen des Rollenspiels beim OSCE hatten. Diese Vorstellungen konnten im Rahmen Erarbeitung der Liste vereinheitlicht werden. 2. Die Liste wird eingesetzt, um den SPs die in sie gesetzten Erwartungen bezüglich eines guten Rollenspiels beim OSCE gezielt zu vermitteln. 3. Die Liste wird zur Qualitätssicherung des Schauspiels in OSCE Prüfungen eingesetzt. Dabei zeigte sich, dass die SPs in der Qualität ihres Spiels in über 90% der Beobachtungen den in sie gesetzten Erwartungen der SP Trainer entsprechen. 4. Anhand der Liste wird den SPs ein formatives Feedbacks zu ihrer Leistung gegeben. Die SPs in unserem Programm haben uns immer wieder zurückgemeldet, dass sie diese Rückmeldungen zu ihrer Performance sehr schätzen. 5. Die Dokumentation der Performance in den vergangenen Prüfungen kann im Training zur nächsten Rolle benutzt werden, um gezielt etwaige Schwächen zu trainieren und die Performance dadurch zu verbessern. 6. In seltenen Fällen, in denen ein SP nicht mehr im Programm behalten werden kann, liefert die Dokumentation der Performance eine gute Gesprächsgrundlage zur Begründung der Differenzen bezüglich der Erwartung und der aktuellen Leistung. Diskussion In unseren Händen ist der Einsatz der Liste von Qualitätsmerkmalen zur Beurteilung der Leistung von Schauspielpatienten mit hoher Konzentration verbunden. Die gewonnene Klarheit in Bezug auf die Erwartungen und die gebrachten Leistungen bringt eine Struktur und Transparenz in unser Programm, die wir und entsprechend ihrer Rückmeldungen auch unsere SPs sehr schätzen.
Resumo:
Mit einer Verschärfung ihrer Standesregeln wollte die Schweizerische Public Affairs Gesellschaft die Transparenz des politischen Lobbyings erhöhen. - Der Bauernverband demonstrierte mit der Sammlung der Initiative für Ernährungssicherheit sein ausserordentliches Mobilisierungspotenzial. - Mit Monika Rühl wurde erstmals einer Frau die Führung des Wirtschaftsdachverbandes Economiesuisse anvertraut. - Während die Bauerngewerkschaft Uniterre ums Überleben kämpfte, wurde die schweizerische Verbandslandschaft um einen politischen Vertreter der Netzinfrastruktur sowie um eine neue Finanzbranchen-Organisation ergänzt.
Resumo:
Eine wertorientierte Unternehmensführung hat in den letzten Jahren in den Unternehmen zunehmend an Bedeutung gewonnen. Wertorientierung stellt dabei ein Führungsverhalten dar, welches sich mit der Gestaltung und Realisierung von wertorientierten Zielen auf Managementebene beschäftigt. Heutzutage lebt Wertorientierung vom Einklang aus ökonomischen, ökologischen und gesellschaftlichen Gesichtspunkten. Die vorliegende Masterarbeit befasst sich mit der Geschäftsberichtsanalyse der DAX-30-Unternehmen hinsichtlich wertorientierter Steuerung. Dabei werden Unternehmen hinsichtlich ihres Bekenntnisses zur Wertorientierung, Veröffentlichung wertorientierter Kennzahlen und Höhe der Kapitalkostensätze untersucht.Hierbei kommt der Vergleichbarkeit und Transparenz eine entscheidende Rolle zu. Die Untersuchung ergibt ein hohes Bekenntnis zur Wertorientierung in nahezu allen betrachteten DAX-Unternehmen. Die Unternehmen führen viele Spitzenkennzahlen an, die vorwiegend auf dem Economic Value Added basieren. Zusätzlich werden eine Reihe weiterer, in der betrieblichen Praxis als wertorientierte Kennzahlen genutzte Messgrößen, herausgegeben. Eine Vergleichbarkeit untereinander gestaltet sich sehr schwierig, da Berechnung und Bezeichnung gleicher Kennzahlen sehr unterschiedlich sind. Daran wird sich ohne einheitlichen Standard in naher bis mittelfristiger Zukunft nichts ändern.
Resumo:
Gesetze müssen verständlich sein, so die Forderung, sie können aber nach der herrschenden Lehre diese Anforderung nicht erfüllen, da ihre Bedeutung nicht in der geforderten Weise bestimmt sein kann, wie die Auslegungstätigkeit in der Anwendung zeigt. Der Aufsatz beschäftigt sich mit der Frage, wie unter diesen Umständen Verständlichkeit bei der Versprachlichung von Gesetzesnormen möglich ist. Voraussetzung für eine Antwort sind präzisierte Vorstellungen über die Prozesse des Verstehens, die Verständlichkeit von Texten und den Zusammenhang zwischen Verstehen, Bedeutung und Auslegung. 1. Die Bedeutung von Texten zeigt sich im Verstehen. Verstehen ist ein konstruktiver, inferenzieller Prozess, in dem anhand des Wortlautes mit Hilfe von prototypischen Annahmen, Sachwissen, Situationswissen und inferenziellen Regeln u. a. ein mentales Modell von Sachverhalten und Bewertungen der Relevanz der Informationen im gegebenen Kontext hergestellt werden. Die sprachliche Bedeutung eines Textes ist selbst kein Abbild eines Sachverhaltes, sondern eine Konstruktionsanweisung, ein solches Abbild in der Form eines mentalen Modells herzustellen. 2. Gesetzesaussagen sind normative generell-abstrakte Aussagen. Generell-abstrakte Aussagen zu verstehen, bedeutet, eine Menge von familienähnlichen mentalen Modellen entsprechend den sprachlichen und sachlichen Vorgaben rekonstruieren zu können. 3. Es gibt nicht ein einziges Verstehen, sondern Abstufungen des Verstehens zwischen relativ vagem und relativ präzisem Verstehen und zwischen punktuellem Verstehen und Erkennen der möglichen Schlussfolgerungen aus einer Aussage. Laienverstehen und professionelles, präzises Verstehen und Begreifen können in Konflikt zueinander stehen, müssen aber nicht, soweit das Laienverstehen in wesentlichen Aspekten kompatibler Teil des professionellen Verstehens ist. 4. Verstehen ist Arbeit mit einem Aufwand. Verständlichkeit entspricht dem Aufwand, der erforderlich ist, um einen Text zu verstehen. Der Aufwand hängt von der Sachkenntnis der Interpretin, von der Abstraktheit und Komplexität der vermittelten Information der Aussage und der sprachlichen Gestaltung ab. 5. Wer einen Inhalt wie eine Gesetzesnorm zu versprachlichen hat, muss vom vorgegebenen Inhalt und den textspezifischen und sachlichen Vorgaben ausgehen und kann diese nur begrenzt beeinflussen. Ein gegebene Information kann vom Inhalt so sachspezifisch und komplex sein, dass sie nicht beliebig leicht (d.h. allgemein-) verständlich formuliert werden kann. Gestaltbar ist dagegen die Textform. Die Aufgabe besteht darin, die Textform so zu gestalten, dass sie allgemeinen pragmatischen und kognitiven Verstehensregeln entspricht und die kognitiven Verstehensprozeduren in der Konstruktion mentaler Modelle unterstützt. Stichwörter sind Transparenz, Ikonizität, Erkennbarkeit der Relevanz der Inhaltselemente, Vermeidung von Konflikten mit der Allgemeinsprache. 6. Der Einwand der Unbestimmtheit (und entsprechend der Unverständlichkeit) von Gesetzestexten betrifft die Aufgabenstellung der Gesetzesredaktion nicht direkt. Das Verstehen eines Gesetzestextes bei seiner Formulierung und die Auslegung sind zwei unterschiedliche Vorgänge in unterschiedlichen Zusammenhängen. Ein Gesetzestext (der Normtext in der Terminologie der Strukturierenden Rechtslehre) setzt eine allgemeine Norm innerhalb eines allgemeinen Erwartungshorizonts. Auch wenn er eine Vielzahl von potenziellen konkreten (fiktiven) Anwendungsfällen als mentalen Modellen zu rekonstruieren erlaubt, sind unter den vorgegebenen Voraussetzungen die Regeln dieser Rekonstruktionen grundsätzlich (bei angemessener Formulierung) bestimmt. Auslegung ist demgegenüber Herstellung einer Rechtsnorm für den konkreten Fall auf der Grundlage von generell-abstrakten Normtexten. Der konkrete Fall ist individuell und hat von seinem Wesen her keinen Zusammenhang mit einer generell-abstrakten Norm. Die individuell-konkrete Rechtsnorm kann durch inferenzielle Ableitung einer Einzelnorm aus dem generellen Normtext hergeleitet und begründet werden; dies entspricht dem Resultat von gewöhnlichen Verstehensprozeduren, ist aber ebenfalls eine inferenziell gesteuerte Konstruktion einer neuen Norm. In vielen Fällen ist die Rechtsnorm aber das Resultat von Inferenzen aus einer Vielzahl von Normtexten und sonstigen Inputdaten wie Relevanzkriterien und nicht eine direkte Konkretisierung einer einzelnen bestimmten generell-abstrakten Norm. Die vielzitierte Unbestimmtheit von Normtexten in der Anwendung ist nicht Reflex der Unbestimmtheit der Bedeutung eines generell-abstrakten Normtextes als solchen, sondern der vielfältigen Vermitteltheit einer konkreten Rechtsnorm aus je nach Situation unterschiedlichen Vorgaben.