898 resultados para supply chain management and service level
Resumo:
Much research has focused on desertification and land degradation assessments without putting sufficient emphasis on prevention and mitigation, although the concept of sustainable land management (SLM) is increasingly being acknowledged. A variety of SLM measures have already been applied at the local level, but they are rarely adequately recognised, evaluated, shared or used for decision support. WOCAT (World Overview of Technologies and Approaches) has developed an internationally recognised, standardised methodology to document and evaluate SLM technologies and approaches, including spatial distribution, allowing the sharing of SLM knowledge worldwide. The recent methodological integration into a participatory process allows now analysing and using this knowledge for decision support at the local and national level. The use of the WOCAT tools stimulates evaluation (self-evaluation as well as learning from comparing experiences) within SLM initiatives where all too often there is not only insufficient monitoring but also a lack of critical analysis. The comprehensive questionnaires and database system facilitate to document, evaluate and disseminate local experiences of SLM technologies and their implementation approaches. This evaluation process - in a team of experts and together with land users - greatly enhances understanding of the reasons behind successful (or failed) local practices. It has now been integrated into a new methodology for appraising and selecting SLM options. The methodology combines a local collective learning and decision approach with the use of the evaluated global best practices from WOCAT in a concise three step process: i) identifying land degradation and locally applied solutions in a stakeholder learning workshop; ii) assessing local solutions with the standardised WOCAT tool; iii) jointly selecting promising strategies for implementation with the help of a decision support tool. The methodology has been implemented in various countries and study sites around the world mainly within the FAO LADA (Land Degradation Assessment Project) and the EU-funded DESIRE project. Investments in SLM must be carefully assessed and planned on the basis of properly documented experiences and evaluated impacts and benefits: concerted efforts are needed and sufficient resources must be mobilised to tap the wealth of knowledge and learn from SLM successes.
Resumo:
Partner notification (PN or contact tracing) is an important aspect of treating bacterial sexually transmitted infections (STIs), such as Chlamydia trachomatis. It facilitates the identification of new infected cases that can be treated through individual case management. PN also acts indirectly by limiting onward transmission in the general population. However, the impact of PN, both at the level of individuals and the population, remains unclear. Since it is difficult to study the effects of PN empirically, mathematical and computational models are useful tools for investigating its potential as a public health intervention. To this end, we developed an individual-based modeling framework called Rstisim. It allows the implementation of different models of STI transmission with various levels of complexity and the reconstruction of the complete dynamic sexual partnership network over any time period. A key feature of this framework is that we can trace an individual's partnership history in detail and investigate the outcome of different PN strategies for C. trachomatis. For individual case management, the results suggest that notifying three or more partners from the preceding 18 months yields substantial numbers of new cases. In contrast, the successful treatment of current partners is most important for preventing re-infection of index cases and reducing further transmission of C. trachomatis at the population level. The findings of this study demonstrate the difference between individual and population level outcomes of public health interventions for STIs.
Resumo:
OBJECTIVES: Over the past few years, a considerable increase in complementary and alternative medicine (CAM) has been observed, particularly in primary care. In contrast little is known about the supply of CAM in Swiss hospitals. This study aims at the investigation of amount and structure of CAM activities of Swiss hospitals. MATERIALS AND METHODS: We designed a cross-sectional survey using a 2-step, questionnaire- based approach acquiring overview information form hospital managers in a first questionnaire leading to detailed information on CAM usage at medical department level (head of department). This second questionnaire provides data of physician-based and non-physician-based CAM supply. RESULTS: The size of hospitals was significantly associated with the provision of CAM. 33% of the hospital managers indicated 1 or more medical doctor (MD) using CAM in their hospital compared to 37% of confirmation on department level (Kappa value 0.5). Mostly different CAM methods were applied. Acupuncture was used most frequently. However only 13 hospitals (11%) occupied more than 3 CAM MDs and only 5 hospitals had more than 2 full-time equivalents for MDs. Furthermore, 74.7% of these personnel resources were dedicated for outpatient care. In terms of CAM methods anthroposophic medicine accounted for more than half of the total personnel costs. On the other hand usage of non-physician based CAM accounted for 41% according to hospital managers compared to 64% of CAM usage according to medical departments (Kappa values 0.31). Reflexology of the foot was used most frequently. CONCLUSION: Total supply of CAM in Swiss hospitals is low and concentrates on few hospitals. Acupuncture is the widest spread discipline but anthroposophic medicine spends the most resources. The study shows that a high patient demand for CAM faces low supply in hospitals.
Resumo:
Bioenergy and biobased products offer new opportunities for strengthening rural economies, enhancing environmental health, and providing a secure energy future. Realizing these benefits will require the development of many different biobased products and biobased production systems. The biomass feedstocks that will enable such development must be sustainable, widely available across many different regions, and compatible with industry requirements. The purpose of this research is to develop an economic model that will help decision makers identify the optimal size of a forest resource based biofuel production facility. The model must be applicable to decision makers anywhere, though the modeled case analysis will focus on a specific region; the Upper Peninsula (U.P.) of Michigan. This work will illustrate that several factors influence the optimal facility size. Further, this effort will reveal that the location of the facility does affect size. The results of the research show that an optimal facility size can be determined for a given location and are based on variables including forest biomass availability, transportation cost rate, and economy of scale factors. These variables acting alone and interacting together can influence the optimal size and the decision of where to locate the biofuel production facility. Further, adjustments to model variables like biomass resource and storage costs have no effect on facility size, but do affect the unit cost of the biofuel produced.
Resumo:
Radio Frequency Identification (RFID) beeinflusst unbestritten zahlreiche Anwendungsgebiete und schafft die Grundlage für die zukünftige Entwicklung logistischer Systeme. Von besonderer Bedeutung ist in diesem Zusammenhang die systematische Identifikation von Einsatzpotenzialen für diese Technologie. Bislang existiert hierfür noch keine allgemein verbreitete Methodik. Diese Problematik greift der folgende Beitrag auf und zeigt, wie aus den technischen Grundlagen und analysierten Praxisanwendungen Identifikationskriterien abgeleitet werden können. Die so erarbeiteten Kriterien werden in ihrer Anwendung anhand eines fiktiven Beispiels erläutert und damit exemplarisch eine mögliche Analysemethodik vorgestellt. 1. Einleitung Die produktionswirtschaftlichen Anforderungen an die Unternehmen sind zunehmend geprägt durch Globalisierung und damit durch eine zunehmende Komplexität sowie vertiefte Arbeitsteiligkeit. Es entsteht eine zunehmend breitere Streuung der Fertigungsstandorte und Kooperationsbeziehungen. Es gibt letztlich mehr Lager- und Umschlagprozesse in der Lieferkette. Andererseits bringt der erhöhte Qualitäts- und Kostendruck steigende Fixkosten mit sich, er zwingt zur ständigen Rationalisierung der Materialwirtschaft. Es besteht der Zwang zum Einsatz neuer technisch-elektronischer Mittel zur Kontrolle und Steuerung der logistischen Ketten. Im Lager bedeutet das eine zunehmende Nutzung der Informations- und Kommunikationstechnik zur Lager- und Fertigungssteuerung, auch in Verbindung mit Forderungen der Rückverfolgbarkeit der Produkte. An die Logistikleistungen werden damit Anforderungen wie Schnelligkeit, Qualität und Kostenminimierung gestellt. Letztlich bestehen die Warenbereitstellungs- und Verteilsysteme aus der technischen Grundstruktur, dem Lagertyp und dessen Geometrie sowie der dabei einsetzbaren Bedientechnik und deren kinematischen Daten. Der organisatorische Rahmen dieser Systeme ist gekennzeichnet durch die Nutzung diverser Ein- und Auslagerstrategien, die auch wesentlich Kosten und Leistungen (Umschlagleistung) des zu betrachtenden Lagersystems bestimmen. Aufgrund der genannten Forderungen muss es gelingen, aus dem eingesetzten technischen System durch organisatorisch effizienten Betrieb maximale Leistung bei gleichzeitig minimal eingesetzten Kosten zu erzielen. Neben den Investitionskosten sind bei der Planung von automatischen Lagersystemen die erreichbaren mittleren Spielzeiten der Bedientechnik von entscheidender Bedeutung, um die erforderliche Umschlagleistung des Lagers zu gewährleisten. Hierzu existieren eine Reihe von Berechnungsvorschriften und –normen. Diese Berechnungen berücksichtigen jedoch nicht die Auswirkungen der Lagerorganisation, wie beispielsweise fahrzeitminimale Kombinationen von Ein- und Auslageraufträgen bei Doppelspielen, Zonierungsmaßnahmen, die Auswirkungen von verschiedenen Füllgraden des Lagers oder Lagerplatzstrategien. 2. Stand der Technik 2.1. Lagertypen Abbildung 1: Systematische Einteilung der Lagertypen In Abbildung 1 sind verschiedene Lagertypen dargestellt und nach Kriterien eingeteilt. Soll eine Einschränkung hinsichtlich am Markt häufig vorkommender automatischer Palettenlager getroffen werden, so sind besonders die in der Abbildung hervorgehobenen Typen zu nennen. Eine Auswahl der einzelnen Lagertypen erfolgt dann anhand von Kosten, Umschlagleistung und bei Kompaktlagern vorrangig anhand von Flächen- und Raumnutzungsgrad. Werden die Kostenunterschiede bei Personal, Rechentechnik und Steuerungssoftware in den verschiedenen Lagertypen und -ausführungen der jeweiligen Typen vernachlässigt, unterscheiden sich die Gesamtkosten der Lager lediglich in der Bedientechnik sowie in den statisch bedingten Kosten der Regalkonstruktion. Die wichtigsten Kosteneinflüsse auf die Regale sind wiederum Bauhöhe und Bauart (Regalkonstruktion oder selbsttragendes Bauwerk). Abbildung 2 zeigt die zu erwartenden Umschlagleistungen1) der verschiedenen Lagertypen in Abhängigkeit der benötigten Stellplatzanzahl. Die darauf folgende Abbildung 3 zeigt die zu erwartenden Investitionskosten1) je Stellplatz. Die berücksichtigten Kenngrößen sind nachstehend dargestellt. Die abgebildeten Kurven machen deutlich, dass insbesondere Umschlagleistung der Lager und deren Flächen- bzw. Raumnutzungsgrad gegensätzlich verlaufen. Somit sind auch die Einsatzgebiete der Lagertypen voneinander abgrenzbar. Während Hochregallager für Anwendungsfälle mit hohem Gutumschlag in Frage kommen, werden die Kompaktlager eher in Objekten mit begrenztem Platz oder hohen Raumkosten (bspw. Kühllager) eingesetzt. Somit sind Kompaktlager auch häufig für die Umplanung bzw. der notwendigen Vergrößerung der Lagerkapazität innerhalb einer bestehenden baulichen Hülle interessant. Abbildung 2: Umschlagleistungen der verschiedenen Lagertypen Abbildung 3: Investitionskosten der einzelnen Lagertypen 2.2. Einzel-/ Doppelspiele Um anhand der Technik und der geometrischen Verhältnisse im Lager die höchstmögliche Umschlagleistung zu erzielen, ist es sinnvoll, Doppelspiele (DS) zu generieren. Somit ist nicht wie bei Einzelspielen (ES) je umgeschlagene Ladeeinheit eine Leerfahrt erforderlich, sondern nur je zweiter Ladeeinheit. Das Bediengerät fährt also vom Einlagerpunkt direkt zum Auslagerpunkt, ohne zum Übergabepunkt zurückkehren zu müssen. Diese Vorgehensweise setzt die Kenntnis der nächsten Fahraufträge und gegebenenfalls die Möglichkeit der Veränderung derer Reihenfolge voraus. Für eine Optimierung der Umschlagleistung ist die bei DS entstehende Leerfahrt (Zwischenfahrstrecke) und damit die Zwischenfahrzeit zu minimieren (vgl. 3.5). Nachfolgend beschriebene Untersuchungen beziehen sich jeweils auf Doppelspiele. Abbildung 4: Darstellung der anzufahrenden Lagerplätze in der Regalwand,links: Einzelspiel, rechts: Doppelspiel 2.3. Berechnungsvorschriften für Umschlagleistungen von Lagern Es existieren eine Reihe von Vorschriften zur Berechnung der Umschlagleistung von Lagern, exemplarisch sind drei Berechnungsvorschriften dargestellt. Die Richtlinie VDI 3561 [VDI3561] ermöglicht die Berechnung der Spielzeit auch für Doppelspiele. Dazu werden zwei Referenzpunkte festgelegt, die den Aus- bzw. Einlagerpunkt darstellen. Ein Doppelspiel besteht dann aus der Summe folgender Einzelzeiten: • der Hinfahrt vom Übergabepunkt zum Einlagerpunkt (P1), • der Leerfahrt vom Ein- zum Auslagerpunkt (P2) und der • Rückfahrt vom Auslagerpunkt zum Übergabepunkt (vgl. Abb.4 rechts). Die Summe dieser Einzelzeiten wird danach mit der Summe der Übergabezeiten addiert. Der Unterschied der Richtlinie und der Berechnungsvorschrift nach [Gud00] bestehen im wesentlichen aus der Lage der Ein- und Auslagerpunkte. Fahrzeitberechnung nach VDI 3561 P1 ; P2 Fahrzeitberechnung nach Gudehus 1) P1 ; P2 1)Annahme: Vernachlässigung von Totzeiten, Lastaufnahmefaktor = 1 Wird davon ausgegangen, dass in Abhängigkeit der Gassengeometrie immer nur eine der beiden Fahrzeitanteile (vertikal bzw. horizontal) spielzeitbestimmend ist, so ergeben sich beide Fahrstrecken zu 4/3 der jeweiligen Gesamtabmessung. Der Unterschied der beiden Berechnungsvorschriften liegt lediglich in der Aufteilung der Gesamtfahrstrecke auf die Teilfahrstrecken Hin-, Rück- bzw. Zwischenfahrt. Da jedoch die Fahrzeit zu den Anfahrpunkten in der Regel nicht von der gleichen Fahrzeitkomponente bestimmt wird, kommt es in der Praxis zu Unterschieden im Berechnungsergebnis. Die unter dem Titel „Leistungsnachweis für Regalbediengeräte, Spielzeiten“ stehende Norm FEM 9.851 [FEM9.851] beschäftigt sich ebenfalls mit der Berechnung von Spielzeiten von Regalbediengeräten (RBG). Dabei werden sechs verschiedene Anwendungsfälle generiert, die am häufigsten in der Praxis vorkommen. Diese unterscheiden sich insbesondere in der Lage der Übergabepunkte für die Ein- und Auslagerung. Dabei werden die Punkte sowohl horizontal als auch vertikal verschoben. Es werden hierbei auch Fälle betrachtet, in denen der Auslagerpunkt nicht mit dem Einlagerpunkt übereinstimmt, sich beispielsweise auch an dem gegenüberliegenden Gassenende befinden kann. Wird der einfachste Fall betrachtet, dass sich der Übergabepunkt für die Ein- und Auslagerung übereinstimmend an einer unteren Ecke der Gasse befindet, stimmen die Berechnungsformeln mit [Gud00] weitgehend überein. 2.4. Kritik und Untersuchungsansatz Die Berechnung der mittleren Spielzeit der einzelnen Lagergassen durch die beschriebenen Normen erfolgt in der Regel ohne die Berücksichtigung der Geschwindigkeitsdiagonalen, deren Steigung c durch nachstehendes Verhältnis gegeben ist. 1. Einleitung Eine umfassende Prozessanalyse ist die Grundlage einer jeden erfolgreichen RFID-Anwendung [o.Verf. 2006]. Die Merkmale, die bei einer solchen Untersuchung zu beachten sind, werden allerdings nicht öffentlich diskutiert. Wie Resch in seinem Ansatz zeigt, ist aber gerade die Analysephase von entscheidender Bedeutung für den späteren Erfolg einer RFID-Anwendung (vgl. Abb. 1). Abbildung 1: Fehlende Methodiken der Prozessanalyse [Resch2005] In dieser Phase besteht der größte Gestaltungsfreiraum für die spätere Umsetzung. Da in dieser Phase das größte Optimierungspotenzial einer RFID-Anwendung festgelegt wird, entscheidet sich bereits zu Beginn eines Projektes wie groß der maximal erreichbare Nutzen einer Lösung sein kann. Bisher existieren keine allgemein verbreiteten Methoden und Kriterien zur Identifikation dieser Einsatz-/Nutzenpotenziale. Die Prozessanalyse ist die Basis zukünftiger RFID-Anwendungen und ist daher entsprechend umfangreich durch zu führen. RFID-Einsatzpotenziale werden aktuell nur in Funktionsbereichen kommuniziert. Diese Pauschalisierung engt die Sicht auf potenzielle Anwendungen allerdings sehr stark ein. Dadurch besteht die Gefahr, dass die vorhandenen Nutzenpotenziale indirekt beteiligter Prozesse nicht beachtet werden. Es ist daher zwingend notwendig möglichst alle material- und informationsflussbezogenen Prozesse auf ein RFID-Einsatzpotenzial hin zu untersuchen. D.h. sowohl die Prozesse mit direktem Materialflussbezug (bspw. Wareneingang) als auch die Prozesse, die nur indirekt, über den Informationsfluss, mit dem Materialfluss verknüpft sind (bspw. Disposition). Der vorliegende Beitrag stellt daher einen ersten Ansatz für die Ermittlung allgemeingültiger Analysekriterien für RFID-Einsatzpotenziale. Die vorgestellte Methodik und der daraus entwickelte Kriterienkatalog sollen es ermöglichen, RFID-Anwendungen in der Analysephase auf ein möglichst vollständiges Nutzengerüst zu stellen und so den maximalen Nutzen einer Anwendung systematisch zu ermitteln. 2. Identifikationskriterien 2.1. Methodik Basierend auf der Überlegung die Kriterien sowohl theoretisch als auch auf Basis von Praxiserfahrungen zu entwickeln, dienen neben der Betrachtung technischer Grundlagen auch Analysen von realisierten Anwendungen und Pilotprojekten als Basis der Kriterienentwicklung. Abbildung 2 zeigt die grundsätzliche Methodik hinter der Entwicklung der Kriterien. Dabei zeigt sich, dass aus dem gewählten Ansatz zwangsläufig zwei differierende Typen von Kriterien entwickelt werden müssen. Technische Kriterien, aus den Grundlagen der RFID beziehen sich vor allem auf das vorherrschende Prozessumfeld. Frequenzspezifische Eigenschaften (Leistungsdaten) und allgemeine, also frequenzübergreifende Eigenschaften der RFID-Technik bilden die Ausgangsbasis für diese Kriteriengruppe. Dabei werden diese technologischen Eigenschaften in Prozessmerkmale überführt, anhand derer im konkreten Prozessumfeld eine Technologieauswahl durchgeführt werden kann. So können potenzielle RFID-Anwendungen auf eine prinzipielle Anwendbarkeit hin überprüft werden. Abbildung. 2: Vorgehen zur Entwicklung der Identifikationskriterien [Resch2005] Die zweite Gruppe der Kriterien, die organisatorischen Kriterien, werden aus Praxiserfahrungen abgeleitet. Basis dieser Analyse sind Prozesse aus realisierten Anwendungen und Pilotprojekten. Dieser praxisbasierte Teil stellt prozessbezogene Merkmale zusammen, deren Schwerpunkt auf prozessspezifischen organisatorischen Merkmalen, bspw. Durchsatz, oder auch Dokumentationsaufwand liegt. Die ausgewählten Praxisbeispiele sind nach ihren individuellen Prozessmerkmalen analysiert worden. Die Ergebnisse wurden stichpunktartig zusammengefasst, in übergeordnete Kategorien gruppiert und abschließend nach ihrem Flussbezug gegliedert. RFID-Anwendungen beeinflussen sowohl materialflussbezogene Prozesse, als auch direkt oder auch indirekt verknüpfte informationsflussbezogene Prozesse. Daher erfolgt eine Ordnung der identifizierten Kriteriengruppen nach ihrem Flussbezug, um so einem Anwender die Betrachtungsweise nachhaltig zu verdeutlichen und die Analyse zu vereinfachen. 2.2. Praxisbeispiele Die analysierten Praxisbeispiele sind zum Großteil in der Automobilindustrie realisiert (vgl. Abb. 3). Die weiteren Anwendungen sind aus der Instandhaltung sicherheitsrelevanter technischer Gebäudeausrüstung, aus einem Hochregallager eines Logistikdienstleisters sowie aus der Luftfahrtindustrie. Abbildung 3: Branchenspezifische Verteilung der Praxisbeispiele Die Auswahl der Praxisbeispiele ist bewusst auf die Automobilindustrie fokussiert. Dieser Industriezweig hat in Deutschland bereits einige Anwendungen und eine Vielzahl an Pilotprojekten initiiert. Die Bandbreite der realisierten Projekte ist sehr groß und deckt daher viele verschiedene Anwendungsfälle ab. Die Ergebnisse der Untersuchung sind aber auch auf andere Branchen übertragbar, da die untersuchten Praxisprojekte Situationen abbilden, die ebenfalls leicht zu übertragen sind. Die analysierten Anwendungen bilden ein sehr breites Feld an Einsatzszenarien ab. Anwendungen mit massenhaften Stückzahlen sind ebenso vertreten, wie Anwendungen mit hohem Spezialisierungscharakter. Die Anwendungen reichen dabei von einfachen Pilotprojekten im Ladungsträgermanagement, bis hin zu komplexen Anwendungen im Bereich der Produktionssteuerung und der unternehmensübergreifenden Koordination von Materialflüssen. Insgesamt verteilen sich die analysierten Anwendungen auf drei Schwerpunktbereiche. Abbildung 4 stellt die Anwendungsbereiche in einer Übersicht zusammen. Abbildung 4: Übersicht der Anwendungsgebiete aus den Praxisanwendungen Anwendungen aus den Bereichen der Produktionssteuerung und des Materialflusses sind dabei am häufigsten vertreten. Während die Anwendungen aus dem Bereich der Instandhaltung, bzw. dem Qualitätsmanagement, meist mit der Hauptanwendung aus dem Bereich der Produktionssteuerung verknüpft sind. So wird bspw. die Dokumentationen der einzelnen Fertigungsstationen i.d.R. sowohl zur Fertigungssteuerung als auch zur Qualitätssicherung genutzt. 2.3. Ergebnisse der Praxisanalyse Die Analyse der Praxisanwendungen brachte in einem ersten Schritt eine Fülle an spezifischen Merkmalen zusammen. Jeder analysierte Prozess wies seine eigenen Merkmale auf, die aber dem Grundsatz nach systematisiert werden konnten. Die so erarbeiteten Merkmale wurden in einem zweiten Schritt gruppiert. Insgesamt ergaben sich fünf Gruppen, die jeweils nach einer, durch die RFID-Technik durchgeführte Funktion benannt sind. Um eine Prozessanalyse mit Hilfe der Kriterien zu erleichtern, ist jede Gruppe ihrem übergeordneten Flusssystem zugeordnet worden. Nachstehende Abbildung 5 zeigt die einzelnen Gruppierungen mit ihrem jeweiligen Flussbezug. Dabei sind jeder Gruppe beispielhafte Merkmale zugeordnet. Abbildung 5: Organisatorische Kriterien zur Identifikation von RFID-Einsatzpotenzialen Die vorliegende Systematisierung von Identifikationskriterien deckt sowohl Aspekte des reinen Materialflusses, als auch die Aspekte der zugehörigen Informationsflüsse ab. Dabei verhält sich der Flussbezug in jeder Kriteriengruppe unterschiedlich. Die Kriterien der Gruppe Identifikation befassen sich ausschließlich mit dem Identifikationsvorgang. Dabei können die erarbeiteten Kriterien in zwei Arten unterschieden werden, quantitative und qualitative Kriterien. Qualitativ messbar sind Kriterien, die sich auf die Anzahl der Identifikationsvorgänge beziehen. Bspw. die Anzahl der Identifikationsvorgänge im betrachteten Prozessverlauf, bezogen auf ein Identifikationsobjekt oder die Anzahl der Identifikationsvorgänge pro Zeiteinheit an einem Identifikationspunkt innerhalb des Prozessverlaufs. Gleichzeitig umfasst diese Gruppe aber auch Kriterien, die nur qualitativ zu bewerten sind. Kriterien wie die Bedeutung einer exakten Identifikation einzelner Teile im Prozess oder auch der aktuelle Aufwand der Identifikation im Prozess lassen sich nur bedingt oder nicht quantifizieren. Diese Kriteriengruppe fokussiert mit ihren Merkmalen vor allem den Materialfluss. Die einzelnen Merkmale beziehen sich auf den tatsächlichen Identifikationsvorgang und nicht auf die zugehörigen Informationsflüsse. Unter dem Begriff Transparenz sind Kriterien gruppiert, die sich mit der Verfolgbarkeit und Übersichtlichkeit von Prozessen befassen. Dabei gilt es sowohl die Bedeutung für den aktuellen Prozess als auch für die abhängigen Prozesse zu ermitteln. Transparenz bzw. die fehlende Transparenz ist der Kern dieser Kriteriengruppe. Qualitative Kriterien sind in dieser Kategorie besonders stark vertreten, da vor allem die Bedeutung bestimmter Aspekte der Prozesstransparenz als Kriterium dient. Prozesstransparenz liegt i.d.R. nicht vor oder wird nur über komplexe Systeme erreicht. Die Bewertung dieser Kriteriengruppe ist höchst variabel, da Prozesstransparenz in ihrer Bedeutung höchst individuell ist, d.h. von Prozess zu Prozess stark variiert. Die Gruppe Konfiguration fasst Merkmale zusammen, die auf objektspezifische Anpassungsarbeiten im Prozessverlauf hinweisen. Diese Tätigkeiten sind i.d.R. mit einem quantifizierbaren Aufwand verbunden und können so leicht erfasst werden. Die RFID-Technologie eröffnet hier, ähnlich wie im Bereich der Identifikation, Chancen zur Automatisierung bestehender Prozesse. Die Kriterien konzentrieren sich in ihrer Zielrichtung daher schwerpunktmäßig auf die Untersuchung von Potenzialen hinsichtlich der Automation von Konfigurationsvorgängen. Ähnlich wie die vorstehende Gruppe der Transparenz, besitzt diese Gruppe ebenfalls einen starken Bezug zu beiden Flusssystemen. In beiden Gruppen liegt der Fokus der betrachteten Merkmale sowohl auf dem Materialfluss und den physischen Aktionen als auch auf den zugehörigen Informationsflüssen mit entsprechenden Tätigkeiten. Die vierte Gruppe Zuordnung enthält primär Merkmale, die sich auf den Informationsfluss beziehen. Im Vordergrund steht die Art und Weise in der innerhalb eines Prozesses Materialflüsse zwischen Quelle und Senke koordiniert werden. Diese Gruppe enthält ebenfalls sowohl qualitativ als auch quantitativ zu bewertenden Merkmale. RFID-Technik kann hier zu einer deutlichen Komplexitätsreduktion, einer Automation sowie der Reduktion von Stillstands- u. Wartezeiten führen. Die letzte Gruppe Datenverwendung und Dokumentation befasst sich beinahe ausschließlich mit Aspekten des Informationsflusses. Als beinahe Komplementär zur Gruppe der Identifikation stehen hier die informationsflussbezogenen Handlungen, ausgelöst durch einen zugehörigen Materialfluss in der Betrachtung. Dabei stehen vor allem Fehlerraten, manuelle Aufwende der Datenverarbeitung und die Anzahl an Medienbrüchen im Informationsfluss im Vordergrund. Auch hier existiert wiederum ein Geflecht aus qualitativen und quantitativen Kriterien, deren Bewertung individuell durchzuführen ist. 2.4. Technische Kriterien Ergänzt werden die organisatorischen Kriterien um die technischen Kriterien. Diese Kriterien leiten sich aus den technischen Grundlagen der RFID-Technik ab. Diese Grundlagen sind zum einen die Eigenschaft der kontakt- und sichtlosen Übertragung von Energie und Daten, zum anderen der physische Aufbau der Komponenten eines RFID-Systems, dem Reader und dem Transponder. Des Weiteren definieren die frequenzspezifischen Eigenschaften der verschiedenen RFID-Systeme unterschiedliche Leistungsparameter, aus denen technische Kriterien abgeleitet werden können. Daraus ergibt sich die logische Trennung in frequenzabhängige und frequenzunabhängige Kriterien. Auszüge dieser Kriterien zeigt nachstehende Abbildung 6 Abbildung 6: Technische Kriterien Die technischen Kriterien dienen eher zur Technologieauswahl, als zu einer reinen Potenzialidentifikation, da ausschließlich limitierende Aspekte der Technologie betrachtet werden. Einflüsse, bedingt durch die genutzte technische Ausrüstung (bspw. metallische Lagertechnik) oder verfahrensbedingte Einflüsse (elektromagnetische Felder, Schweißroboter, o.ä.), werden über diese Kriterien abgebildet und finden so Berücksichtigung in den zu entwickelnden RFID-Szenarien. Die Wirkung dieser Kriterien hängt stark von dem jeweiligen Stand der Technik ab. Galt bspw. der Einsatz von 13,56 MHz Transpondern direkt auf Metall vor fünf Jahren noch als nicht möglich, so ist die Technik mittlerweile so weit entwickelt, dass auch Lösungen in diesem Bereich angeboten werden. Daher muss festgehalten werden, dass die frequenzabhängigen technischen Kriterien im Zeitverlauf variabel in ihrer Wirkung sind und sich mit dem technischen Fortschritt der RFID-Hardware verändern. Atmosphärische Einflüsse auf die RFID-Hardware sind generell für alle Varianten (unabhängig von der Betriebsfrequenz) der RFID-Technik zu beachten. Der Einfluss der Umgebungsbedingungen auf die Integrität der Hardware ist immer zu berücksichtigen. Temperatur, Druck und Staubbelastung sind hier die Hauptgruppen äußerer Einflüsse auf die RFID-Hardware. Auch diese Gruppe der technischen Kriterien muss mit der sich verändernden technischen Leistungsfähigkeit in ihrer Bewertung angepasst werden. 3. Anwendung der Kriterien 3.1. Anwendungsbeispiel Die Anwendung der Kriterien wird im Folgendem anhand eines kurzen Beispiels erläutert. Nachstehende Abbildung 7 zeigt Ausschnitte aus einem fiktiven Prozess innerhalb eines Großlagers. Abbildung 7: Fiktiver Prozess Von der Entladung des LKW bis zur Einlagerung der Paletten ist der Prozess in vier grobe Phasen strukturiert. Zur Identifikation von RFID-Einsatzpotenzialen werden die einzelnen Prozesselemente nach dem in Tabelle 1dargestellten Schema untersucht. Tabelle 1: Exemplarische Anwendung der Kriterien an einem ausgewählten Beispiel Kriteriengruppe Kriterium Einheit Prozesselement Entladen des LKW Bezugsobjekt LKW Palette Identifikation Anzahl ID - Vorgänge pro Objekt 1/Stck. 2 1 Anzahl ID - Objekte im Zeitraum Stck./ZE 25/h 10/min Transparenz Bedeutung exakter Prozesszeiterfassung Qual. Hoch Hoch intransparente Prozessabschnitte ja/nein Ja Ja Konfiguration Anzahl objektspez. Konfigurationsarbeiten 1/Stck. 0 0 Manueller Anteil der Konfiguration Qual. - - Zuordnung Fehleranteil der Zuordnung Q/S Qual. Mittel Gering Komplexität der Zuordnung Q/S Qual. Hoch Hoch Datenverwendung und Dokumentation Anzahl der Änderungen objektspezifischer Daten im Prozess 1/Stck. 8 (6-7) 2 Anzahl der Medienbrüche im Prozess 1/Stck. - - Die Tabelle zeigt, wie einzelne Prozesselemente mit Hilfe der Identifikationskriterien analysiert werden können. Dabei ergeben sich aus den Ausprägungen der einzelnen Kriterien die Nutzenpotenziale auf deren Basis sich eine spätere RFID-Anwendung gestalten und bewerten lässt. Für die Analyse der einzelnen Prozesselemente ist es notwendig, die Kriterien auf ein Bezugsobjekt zu beziehen. Dieses Bezugsobjekt stellt den potenziellen Träger des Transponders dar. Dabei ist zu beachten, dass innerhalb eines Prozesses mehrere Bezugsobjekte vorhanden sein können. Die Analyse muss daher für jedes Bezugsobjekt einzeln durchgeführt werden. Die Zusammenfassung der Analyseergebnisse pro Bezugsobjekt, über die zusammengehörigen Prozesselemente zeigt die Nutzenpotenziale innerhalb der einzelnen Prozesse. 3.2. Verwendung der Ergebnisse und Bewertungsmöglichkeiten identifizierter Einsatzpotenziale Im vorstehenden Absatz wurde gezeigt, wie die erarbeiteten Kriterien zur Prozessanalyse genutzt werden können. Aus der Analyse ergeben sich Nutzenpotenziale für den RFID-Einsatz. Inwieweit diese erkannten Potenziale tatsächlich zu einer wirtschaftlichen RFID-Anwendung führen, muss in einem zweiten Schritt geprüft werden. Dabei muss festgestellt werden, dass es keine RFID-Lösung „von der Stange“ gibt [Lammers2006]. Jede Anwendung muss individuell auf Wirtschaftlichkeit geprüft werden. Dabei spielen vor allem die Kriterien eine starke Rolle, die nur qualitativ erfasst werden können, z. B. die Bedeutung einer exakten Erfassung der Prozesszeit. Quantitativ erfassbare Kriterien sind vergleichsweise einfach in der wirtschaftlichen Beurteilung, obwohl auch für diese Art Kriterium keine allgemein gültigen Richtwerte zur Beurteilung existieren. Zu groß sind hier die Unterschiede zwischen einzelnen Prozessen und den möglichen Einspareffekten, bedingt durch differierende Kostentreiber und Anforderungen an Leistungsfähigkeiten. Weiterhin müssen sowohl qualitative als auch quantitative Kriterien immer im Zusammenhang gesehen werden. Nur dann kann der potenzielle Nutzen einer RFID-Anwendung vollständig ermittelt werden. Erst aus der Kombination dieser beiden Faktorgruppen ergibt sich das maximale Nutzenpotenzial einer RFID-Anwendung. Vor diesem Hintergrund sind die einzelnen Nutzenpotenziale zu erfassen, daraus mögliche RFID-Szenarien zu entwickeln und diese Szenarien einer abschließenden, detaillierten Wirtschaftlichkeitsanalyse zu unterziehen.
Resumo:
Desertification research conventionally focuses on the problem – that is, degradation – while neglecting the appraisal of successful conservation practices. Based on the premise that Sustainable Land Management (SLM) experiences are not sufficiently or comprehensively documented, evaluated, and shared, the World Overview of Conservation Approaches and Technologies (WOCAT) initiative (www.wocat.net), in collaboration with FAO’s Land Degradation Assessment in Drylands (LADA) project (www.fao.org/nr/lada/) and the EU’s DESIRE project (http://www.desire-project.eu/), has developed standardised tools and methods for compiling and evaluating the biophysical and socio-economic knowledge available about SLM. The tools allow SLM specialists to share their knowledge and assess the impact of SLM at the local, national, and global levels. As a whole, the WOCAT–LADA–DESIRE methodology comprises tools for documenting, self-evaluating, and assessing the impact of SLM practices, as well as for knowledge sharing and decision support in the field, at the planning level, and in scaling up identified good practices. SLM depends on flexibility and responsiveness to changing complex ecological and socioeconomic causes of land degradation. The WOCAT tools are designed to reflect and capture this capacity of SLM. In order to take account of new challenges and meet emerging needs of WOCAT users, the tools are constantly further developed and adapted. Recent enhancements include tools for improved data analysis (impact and cost/benefit), cross-scale mapping, climate change adaptation and disaster risk management, and easier reporting on SLM best practices to UNCCD and other national and international partners. Moreover, WOCAT has begun to give land users a voice by backing conventional documentation with video clips straight from the field. To promote the scaling up of SLM, WOCAT works with key institutions and partners at the local and national level, for example advisory services and implementation projects. Keywords: Sustainable Land Management (SLM), knowledge management, decision-making, WOCAT–LADA–DESIRE methodology.
Resumo:
The Mobile Cloud Networking project develops among others, several virtualized services and applications, in particular: (1) IP Multimedia Subsystem as a Service that gives the possibility to deploy a virtualized and on-demand instance of the IP Multimedia Subsystem platform, (2) Digital Signage Service as a Service that is based on a re-designed Digital Signage Service architecture, adopting the cloud computing principles, and (3) Information Centric Networking/Content Delivery Network as a Service that is used for distributing, caching and migrating content from other services. Possible designs for these virtualized services and applications have been identified and are being implemented. In particular, the architectures of the mentioned services were specified, adopting cloud computing principles, such as infrastructure sharing, elasticity, on-demand and pay-as-you-go. The benefits of Reactive Programming paradigm are presented in the context of Interactive Cloudified Digital Signage services in a Mobile Cloud Platform, as well as the benefit of interworking between different Mobile Cloud Networking Services as Digital Signage Service and Content Delivery Network Service for better performance of Video on Demand content deliver. Finally, the management of Service Level Agreements and the support of rating, charging and billing has also been considered and defined.
Resumo:
isk Management today has moved from being the topic of top level conferences and media discussions to being a permanent issue in the board and top management agenda. Several new directives and regulations in Switzerland, Germany and EU make it obligatory for the firms to have a risk management strategy and transparently disclose the risk management process to their stakeholders. Shareholders, insurance providers, banks, media, analysts, employees, suppliers and other stakeholders expect the board members to be pro-active in knowing the critical risks facing their organization and provide them with a reasonable assurance vis-à-vis the management of those risks. In this environment however, the lack of standards and training opportunities makes this task difficult for board members. This book with the help of real life examples, analysis of drivers, interpretation of the Swiss legal requirements, and information based on international benchmarks tries to reach out to the forward looking leaders of today's businesses. The authors have collectively brought their years of scientific and practical experience in risk management, Swiss law and board memberships together to provide the board members practical solutions in risk management. The desire is that this book will clear the fear regarding risk management from the minds of the company leadership and help them in making risk savvy decisions in quest to achieve their strategic objectives.
Resumo:
In a large health care system, the importance of accurate information as feedback mechanisms about its performance is necessary on many levels from the senior level management to service level managers for valid decision-making purposes. The implementation of dashboards is one way to remedy the problem of data overload by providing up-to-date, accurate, and concise information. As this health care system seeks to have an organized, systematic review mechanism in place, dashboards are being created in a variety of the hospital service departments to monitor performance indicators. The Infection Control Administration of this health care system is one that does not currently utilize a dashboard but seeks to implement one. ^ The purpose of this project is to research and design a clinical dashboard for the Infection Control Administration. The intent is that the implementation and usefulness of the clinical dashboard translates into improvement in the measurement of health care quality.^
Resumo:
Background. The objective of this retrospective cohort study is to examine the presentation and outcomes for a contemporary series of cancer patients with anorectal infection. In addition, we seek to identify factors which are associated with surgical intervention. ^ Methods. The study cohort was identified from ICD-9 codes for diagnosis of infection of the anal and rectal region and patients who underwent a surgical oncology consultation between 1/2000 and 12/2006. Clinical presentation, treatment rendered, and outcomes were retrospectively recorded. ^ Results. Of the 100 patients evaluated by the surgical oncology service for anorectal infection, 42 were treated non-operatively and 58 underwent surgical intervention. Factors associated with surgical intervention based on logistic multivariable analysis included the diagnosis of an abscess (odds ratio [OR] 10.5; 95% confidence interval [CI] 2.9-38.5) and the documentation of erythema on physical examination (OR 3.1; 95% CI 1.1-8.4). Thrombocytopenia (platelets < 50,000) was associated with non-operative management (OR 0.3; 95% CI 0.1-0.7). Incision and drainage was the most common surgical procedure (79%) while a wide debridement for a necrotizing soft tissue infection was required in 2 patients. Infection-specific 90-day mortality was only 1% (N=1). However, the median overall survival for the entire cohort was only 14.4 months (95% CI 7.9-19.5). ^ Conclusions. Non-operative management is a reasonable treatment option for anorectal infection in patients with cancer. Identification of an abscess, erythema on physical exam, and thrombocytopenia were associated with management strategy. Although rare, necrotizing soft tissue infections are associated with significant mortality. ^
Resumo:
East Asia is a major tea-consuming and -producing area; however, few studies have examined the East Asian tea industry from the perspective of the supply chain. Based on field and desktop studies of the tea markets in Taiwan and China, this paper provides an overview of each market together with detailed case studies. In this analysis, the characteristics of the tea industry and the main problems in the current supply chain in terms of governance, upgrading, and food safety and quality control are identified. This paper will help fill the gap in studies of the East Asian tea industry from the perspective of the supply chain.
Resumo:
The paper reviews relevant literature studying the environmental impacts of food supply chain from production to each stage throughout the supply chain. With limited data and information, to better understand these impacts, a concrete example of the tea supply chain in China is provided. The tea supply chain is analyzed from the environmental prospective, with potential pollutants being identified at each stage of the supply chain. As an example of the food supply chain in a developing country, some unique features of the developing economies are taken into consideration when concluding the implications.
Resumo:
Increased globalization and outsourcing to developing countries is fostering the interest in supply chain sustainability. From the academic point of view, while environmental impacts of supply chains have been largely analysed, the research on social issues has been scattered and fragmented. This paper thereby sets out to close this gap. We have identified an emerging sphere of knowledge at the interface between sustainable supply chain management, business strategy and international development literature, which seeks to propose innovative strategies for poverty alleviation. The incorporation of impoverished farmers into supply chains is presented here as one of those strategies, and illustrated through a case study on the integration of these farmers in the Senegalese horticulture supply chain.
Resumo:
Purpose – The purpose of this paper is to present a simulation‐based evaluation method for the comparison of different organizational forms and software support levels in the field of supply chain management (SCM). Design/methodology/approach – Apart from widely known logistic performance indicators, the discrete event simulation model considers explicitly coordination cost as stemming from iterative administration procedures. Findings - The method is applied to an exemplary supply chain configuration considering various parameter settings. Curiously, additional coordination cost does not always result in improved logistic performance. Influence factor variations lead to different organizational recommendations. The results confirm the high importance of (up to now) disregarded dimensions when evaluating SCM concepts and IT tools. Research limitations/implications – The model is based on simplified product and network structures. Future research shall include more complex, real world configurations. Practical implications – The developed method is designed for the identification of improvement potential when SCM software is employed. Coordination schemes based only on ERP systems are valid alternatives in industrial practice because significant investment IT can be avoided. Therefore, the evaluation of these coordination procedures, in particular the cost due to iterations, is of high managerial interest and the method provides a comprehensive tool for strategic IT decision making. Originality/value – Reviewed literature is mostly focused on the benefits of SCM software implementations. However, ERP system based supply chain coordination is still widespread industrial practice but associated coordination cost has not been addressed by researchers.