951 resultados para disposition
Resumo:
Considerable unexplained intersubject variability in the debrisoquine metabolic ratio (urinary debrisoquine/4-hydroxydebrisoquine) exists within individual CYP2D6 genotypes. We speculated that debrisoquine was converted to as yet undisclosed metabolites. Thirteen healthy young volunteers, nine CYP2D6*1 homozygotes [extensive metabolizers (EMs)] and four CYP2D6*4 homozygotes [poor metabolizers (PMs)] took 12.8 mg of debrisoquine hemisulfate by mouth and collected 0- to 8- and 8- to 24-h urines, which were analyzed by gas chromatography-mass spectrometry (GCMS) before and after treatment with beta-glucuronidase. Authentic 3,4-dehydrodebrisoquine was synthesized and characterized by GCMS, liquid chromatography-tandem mass spectrometry, and (1)H NMR. 3,4-Dehydrodebrisoquine is a novel metabolite of debrisoquine excreted variably in 0- to 24-h urine, both in EMs (3.1-27.6% of dose) and PMs (0-2.1% of dose). This metabolite is produced from 4-hydroxydebrisoquine in vitro by human and rat liver microsomes. A previously unstudied CYP2D6*1 homozygote was administered 10.2 mg of 4-hydroxydebrisoquine orally and also excreted 3,4-dehydrodebrisoquine. EMs excreted 6-hydroxydebrisoquine (0-4.8%) and 8-hydroxydebrisoquine (0-1.3%), but these phenolic metabolites were not detected in PM urine. Debrisoquine and 4-hydroxydebrisoquine glucuronides were excreted in a highly genotype-dependent manner. A microsomal activity that probably does not involve cytochrome P450 participates in the further metabolism of 4-hydroxydebrisoquine, which we speculate may also lead to the formation of 1- and 3-hydroxydebrisoquine and their ring-opened products. In conclusion, this study suggests that the traditional metabolic ratio is not a true measure of the debrisoquine 4-hydroxylation capacity of an individual and thus may, in part, explain the wide intragenotype variation in metabolic ratio.
Resumo:
Polymorphic CYP2D6 is the enzyme that activates the opioid analgesic tramadol by O-demethylation to M1. Our objective was to determine the opioid effects measured by pupillary response to tramadol of CYP2D6 genotyped volunteers in relation to the disposition of tramadol and M1 in plasma. Tramadol displayed phenotypic pharmacokinetics and it was possible to identify PM subjects with >99% confidence from the metabolic ratio (MR) in a single blood sample taken between 2.5 and 24 h post-dose. Homozygous extensive metabolizers (EM) differed from poor metabolizers (PM), with an almost three-fold greater (P=0.0014) mean maximal pupillary constriction (Emax). Significant correlations between the AUC and Cmax values of M1 versus pupillary constriction were found. The corresponding correlations of pharmacokinetic parameters for tramadol itself were weaker and negative. The strongest correlations were for the single-point metabolic ratios at all sampling intervals versus the effects, with rs ranging from 0.85 to 0.89 (p0.01). It is concluded that the concept of dual opioid/non-opioid action of the drug, though considerably stronger in EMs, is valid for both EM and PM subjects. This is the theoretical basis for the frequent use and satisfactory efficacy of tramadol in clinical practice when given to genetically non-selected population.
Resumo:
BACKGROUND AND OBJECTIVE: Protease inhibitors are highly bound to orosomucoid (ORM) (alpha1-acid glycoprotein), an acute-phase plasma protein encoded by 2 polymorphic genes, which may modulate their disposition. Our objective was to determine the influence of ORM concentration and phenotype on indinavir, lopinavir, and nelfinavir apparent clearance (CL(app)) and cellular accumulation. Efavirenz, mainly bound to albumin, was included as a control drug. METHODS: Plasma and cells samples were collected from 434 human immunodeficiency virus-infected patients. Total plasma and cellular drug concentrations and ORM concentrations and phenotypes were determined. RESULTS: Indinavir CL(app) was strongly influenced by ORM concentration (n = 36) (r2 = 0.47 [P = .00004]), particularly in the presence of ritonavir (r2 = 0.54 [P = .004]). Lopinavir CL(app) was weakly influenced by ORM concentration (n = 81) (r2 = 0.18 [P = .0001]). For both drugs, the ORM1 S variant concentration mainly explained this influence (r2 = 0.55 [P = .00004] and r2 = 0.23 [P = .0002], respectively). Indinavir CL(app) was significantly higher in F1F1 individuals than in F1S and SS patients (41.3, 23.4, and 10.3 L/h [P = .0004] without ritonavir and 21.1, 13.2, and 10.1 L/h [P = .05] with ritonavir, respectively). Lopinavir cellular exposure was not influenced by ORM abundance and phenotype. Finally, ORM concentration or phenotype did not influence nelfinavir (n = 153) or efavirenz (n = 198) pharmacokinetics. CONCLUSION: ORM concentration and phenotype modulate indinavir pharmacokinetics and, to a lesser extent, lopinavir pharmacokinetics but without influencing their cellular exposure. This confounding influence of ORM should be taken into account for appropriate interpretation of therapeutic drug monitoring results. Further studies are needed to investigate whether the measure of unbound drug plasma concentration gives more meaningful information than total drug concentration for indinavir and lopinavir.
Resumo:
There is a growing discussion surrounding the issue of personalized approaches to drug prescription based on an individual's genetic makeup. This field of investigation has focused primarily on identifying genetic factors that influence drug metabolism and cellular disposition, thereby contributing to dose-dependent toxicities and/or variable drug efficacy. However, pharmacogenetic approaches have also proved valuable in predicting drug hypersensitivity reactions in selected patient populations, including HIV-infected patients receiving long-term antiretroviral therapy. In this instance, susceptibility has been strongly linked to genetic loci involved in antigen recognition and presentation to the immune system--most notably within the major histocompatibility complex (MHC) region--consistent with the notion that hypersensitivity reactions represent drug-specific immune responses that are largely dose independent. Here the authors describe their experiences with the development of pharmacogenetic approaches to hypersensitivity reactions associated with abacavir and nevirapine, two commonly prescribed antiretroviral drugs. It is demonstrated that prospective screening tests to identify and exclude individuals with a certain genetic makeup may be largely successful in decreasing or eliminating incidence of these adverse drug reactions in certain populations. This review also explores the broader implications of these findings.
Resumo:
BACKGROUND: The arterial pharmacokinetics of ketamine and norketamine enantiomers after racemic ketamine or S-ketamine i.v. administration were evaluated in seven gelding ponies in a crossover study (2-month interval). METHODS: Anaesthesia was induced with isoflurane in oxygen via a face-mask and then maintained at each pony's individual MAC. Racemic ketamine (2.2 mg kg(-1)) or S-ketamine (1.1 mg kg(-1)) was injected in the right jugular vein. Blood samples were collected from the right carotid artery before and at 1, 2, 4, 8, 16, 32, 64, and 128 min after ketamine administration. Ketamine and norketamine enantiomer plasma concentrations were determined by capillary electrophoresis. Individual R-ketamine and S-ketamine concentration vs time curves were analysed by non-linear least square regression two-compartment model analysis using PCNonlin. Plasma disposition curves for R-norketamine and S-norketamine were described by estimating AUC, C(max), and T(max). Pulse rate (PR), respiratory rate (R(f)), tidal volume (V(T)), minute volume ventilation (V(E)), end-tidal partial pressure of carbon dioxide (PE'(CO(2))), and mean arterial blood pressure (MAP) were also evaluated. RESULTS: The pharmacokinetic parameters of S- and R-ketamine administered in the racemic mixture or S-ketamine administered separately did not differ significantly. Statistically significant higher AUC and C(max) were found for S-norketamine compared with R-norketamine in the racemic group. Overall, R(f), V(E), PE'(CO(2)), and MAP were significantly higher in the racemic group, whereas PR was higher in the S-ketamine group. CONCLUSIONS: Norketamine enantiomers showed different pharmacokinetic profiles after single i.v. administration of racemic ketamine in ponies anaesthetised with isoflurane in oxygen (1 MAC). Cardiopulmonary variables require further investigation.
Resumo:
QUESTIONS UNDER STUDY: Vocal cord dysfunction (VCD) is characterised by recurrent attacks of paradoxical adduction of the vocal cords during inspiration, accompanied clinically by dyspnoea attacks with inspiratory stridor lasting between minutes and hours. The aim of the study is to evaluate the self-perception of patients suffering from VCD and how they deal with aggressivity. METHODS: The Giessen Test (GT) and the Picture Frustration Test (PFT) were used on 6 patients with VCD. RESULTS: Five variables show significant differences between the patients with VCD and the values of the normative groups. VCD-patients show an idealized image of themselves, ie relaxed, open, sociable, and capable of devotion. They do not reject accusations against them by others and rarely make self-criticism. In conflicts they behave passively, thus blocking their expression of aggressivity. CONCLUSIONS: In many cases organic disposition and trigger stimuli are thought to be responsible for provoking dyspnoea attacks in VCD. However, the self-perception of patients and their way of dealing with aggressivity strongly suggests that psychosocial factors play a great role in the development of VCD. This requires not only symptom-orientated therapy but also psychological counselling.
Resumo:
AIM: The aim of this study was to analyse the character of assault-related facial fractures in central Switzerland and to compare their prevalence with the data presented in similar reports from other countries. MATERIAL: The present study comprised 65 patients with assault-related maxillofacial fractures treated in the Department of Cranio-Maxillofacial Surgery, University Hospital of Bern between 2000 and 2002. METHODS: The mechanism, the causes of the injuries and the location of the fractures were analysed by reviewing emergency and hospital records. Concomitant injuries were also studied. RESULTS: The mean age of the patients was 33 years with the largest group being below 25 years. The male-to-female ratio was 56:9. The most common causes of assault-related injuries were fights, most frequently facial blows, accounting for 92.5% of all patients. Seventy-six per cent of the fractures occurred in the middle and upper facial skeleton with a predominance of 2:1 for the left side. In 39 patients (60%) surgery was necessary, with a mean hospital stay of 3.3 days. Thirty-five patients (54%) had concomitant injuries. Alcohol and drug abuse was found in 15 patients (23%). CONCLUSION: It seems that mostly young men suffer assault-related maxillofacial injuries. A contributing factor to the increased disposition for violence could be alcohol and drug abuse. Therefore, national prevention programmes for alcohol or drug abuse and addiction might have a positive effect on reducing the incidence of assault-related maxillofacial injuries.
Resumo:
The pharmacokinetic interaction between atovaquone, a 1,4-hydroxynaphthoquinone, and zidovudine was examined in an open, randomized, three-phase crossover study in 14 patients infected with human immunodeficiency virus. Atovaquone (750 mg every 12 hours) and zidovudine (200 mg every 8 hours) were given orally alone and in combination. Atovaquone significantly increased the area under the zidovudine concentration-time curve (AUC) (1.82 +/- 0.62 micrograms.hr/ml versus 2.39 +/- 0.68 micrograms.hr/ml; p < 0.05) and decreased the oral clearance of zidovudine (2029 +/- 666 ml/min versus 1512 +/- 464 ml/min; p < 0.05). In contrast, atovaquone tended to decrease the AUC of zidovudine-glucuronide (7.31 +/- 1.51 micrograms.hr/ml versus 6.89 +/- 1.42 micrograms.hr/ml; p < 0.1) and significantly decreased the ratio of AUC zidovudine-glucuronide/AUC zidovudine (4.48 +/- 1.94 versus 3.12 +/- 1.1; p < 0.05). The maximum concentration of zidovudine-glucuronide was significantly lowered by atovaquone (5.7 +/- 1.5 versus 4.57 +/- 0.97 micrograms/ml; p < 0.05). Zidovudine had no effect on the pharmacokinetic disposition of atovaquone. Atovaquone appears to increase the AUC of zidovudine by inhibiting the glucuronidation of zidovudine.
Resumo:
The ability of anesthetic agents to provide adequate analgesia and sedation is limited by the ventilatory depression associated with overdosing in spontaneously breathing patients. Therefore, quantitation of drug induced ventilatory depression is a pharmacokinetic-pharmacodynamic problem relevant to the practice of anesthesia. Although several studies describe the effect of respiratory depressant drugs on isolated endpoints, an integrated description of drug induced respiratory depression with parameters identifiable from clinically available data is not available. This study proposes a physiological model of CO2 disposition, ventilatory regulation, and the effects of anesthetic agents on the control of breathing. The predictive performance of the model is evaluated through simulations aimed at reproducing experimental observations of drug induced hypercarbia and hypoventilation associated with intravenous administration of a fast-onset, highly potent anesthetic mu agonist (including previously unpublished experimental data determined after administration of 1 mg alfentanil bolus). The proposed model structure has substantial descriptive capability and can provide clinically relevant predictions of respiratory inhibition in the non-steady-state to enhance safety of drug delivery in the anesthetic practice.
Resumo:
OBJECTIVE: To evaluate pharmacokinetics of ketamine and norketamine enantiomers after constant rate infusion (CRI) of a subanesthetic dose of racemic ketamine or S-ketamine in ponies. ANIMALS: Five 6-year-old Shetland pony geldings that weighed between 101 and 152 kg. PROCEDURES: In a crossover study, each pony received a CRI of racemic ketamine (loading dose, 0.6 mg/kg; CRI, 0.02 mg/kg/min) and S-ketamine (loading dose, 0.3 mg/kg; CRI, 0.01 mg/kg/min), with a 1-month interval between treatments. Arterial blood samples were collected before and at 5, 15, 30, 45, and 60 minutes during drug administration and at 5, 10, 30, and 60 minutes after discontinuing the CRI. Plasma ketamine and norketamine enantiomers were quantified by use of capillary electrophoresis. Individual R-ketamine and S-ketamine concentration-versus-time curves were analyzed by use of a monocompartmental model. Plasma disposition curves for R-norketamine and S-norketamine were described by estimating the area under the concentration-versus-time curve (AUC), maximum concentration (Cmax), and time until Cmax. RESULTS: Plasma concentrations of S-ketamine decreased and biodegradation products increased more rapidly after S-ketamine CRI, compared with results after racemic ketamine CRI. The R-norketamine was eliminated faster than was the S-norketamine. Significant differences between treatments were found for the AUC of S-ketamine and within the racemic ketamine CRI for the AUC and Cmax of norketamine isomers. CONCLUSIONS AND CLINICAL RELEVANCE: CRI of S-ketamine may be preferable over CRI of racemic ketamine in standing equids because the S-enantiomer was eliminated faster when infused alone instead of as part of a racemic mixture.
Resumo:
Acetaminophen (APAP) is safe at therapeutic levels but causes hepatotoxicity via N-acetyl-p-benzoquinone imine-induced oxidative stress upon overdose. To determine the effect of human (h) pregnane X receptor (PXR) activation and CYP3A4 induction on APAP-induced hepatotoxicity, mice humanized for PXR and CYP3A4 (TgCYP3A4/hPXR) were treated with APAP and rifampicin. Human PXR activation and CYP3A4 induction enhanced APAP-induced hepatotoxicity as revealed by hepatic alanine aminotransferase (ALT) and aspartate aminotransferase (AST) activities elevated in serum, and hepatic necrosis after coadministration of rifampicin and APAP, compared with APAP administration alone. In contrast, hPXR mice, wild-type mice, and Pxr-null mice exhibited significantly lower ALT/AST levels compared with TgCYP3A4/hPXR mice after APAP administration. Toxicity was coincident with depletion of hepatic glutathione and increased production of hydrogen peroxide, suggesting increased oxidative stress upon hPXR activation. Moreover, mRNA analysis demonstrated that CYP3A4 and other PXR target genes were significantly induced by rifampicin treatment. Urinary metabolomic analysis indicated that cysteine-APAP and its metabolite S-(5-acetylamino-2-hydroxyphenyl)mercaptopyruvic acid were the major contributors to the toxic phenotype. Quantification of plasma APAP metabolites indicated that the APAP dimer formed coincident with increased oxidative stress. In addition, serum metabolomics revealed reduction of lysophosphatidylcholine in the APAP-treated groups. These findings demonstrated that human PXR is involved in regulation of APAP-induced toxicity through CYP3A4-mediated hepatic metabolism of APAP in the presence of PXR ligands.
Resumo:
Fenofibrate, widely used for the treatment of dyslipidemia, activates the nuclear receptor, peroxisome proliferator-activated receptor alpha. However, liver toxicity, including liver cancer, occurs in rodents treated with fibrate drugs. Marked species differences occur in response to fibrate drugs, especially between rodents and humans, the latter of which are resistant to fibrate-induced cancer. Fenofibrate metabolism, which also shows species differences, has not been fully determined in humans and surrogate primates. In the present study, the metabolism of fenofibrate was investigated in cynomolgus monkeys by ultraperformance liquid chromatography-quadrupole time-of-flight mass spectrometry (UPLC-QTOFMS)-based metabolomics. Urine samples were collected before and after oral doses of fenofibrate. The samples were analyzed in both positive-ion and negative-ion modes by UPLC-QTOFMS, and after data deconvolution, the resulting data matrices were subjected to multivariate data analysis. Pattern recognition was performed on the retention time, mass/charge ratio, and other metabolite-related variables. Synthesized or purchased authentic compounds were used for metabolite identification and structure elucidation by liquid chromatographytandem mass spectrometry. Several metabolites were identified, including fenofibric acid, reduced fenofibric acid, fenofibric acid ester glucuronide, reduced fenofibric acid ester glucuronide, and compound X. Another two metabolites (compound B and compound AR), not previously reported in other species, were characterized in cynomolgus monkeys. More importantly, previously unknown metabolites, fenofibric acid taurine conjugate and reduced fenofibric acid taurine conjugate were identified, revealing a previously unrecognized conjugation pathway for fenofibrate.
Resumo:
PURPOSE To explore whether population-related pharmacogenomics contribute to differences in patient outcomes between clinical trials performed in Japan and the United States, given similar study designs, eligibility criteria, staging, and treatment regimens. METHODS We prospectively designed and conducted three phase III trials (Four-Arm Cooperative Study, LC00-03, and S0003) in advanced-stage, non-small-cell lung cancer, each with a common arm of paclitaxel plus carboplatin. Genomic DNA was collected from patients in LC00-03 and S0003 who received paclitaxel (225 mg/m(2)) and carboplatin (area under the concentration-time curve, 6). Genotypic variants of CYP3A4, CYP3A5, CYP2C8, NR1I2-206, ABCB1, ERCC1, and ERCC2 were analyzed by pyrosequencing or by PCR restriction fragment length polymorphism. Results were assessed by Cox model for survival and by logistic regression for response and toxicity. Results Clinical results were similar in the two Japanese trials, and were significantly different from the US trial, for survival, neutropenia, febrile neutropenia, and anemia. There was a significant difference between Japanese and US patients in genotypic distribution for CYP3A4*1B (P = .01), CYP3A5*3C (P = .03), ERCC1 118 (P < .0001), ERCC2 K751Q (P < .001), and CYP2C8 R139K (P = .01). Genotypic associations were observed between CYP3A4*1B for progression-free survival (hazard ratio [HR], 0.36; 95% CI, 0.14 to 0.94; P = .04) and ERCC2 K751Q for response (HR, 0.33; 95% CI, 0.13 to 0.83; P = .02). For grade 4 neutropenia, the HR for ABCB1 3425C-->T was 1.84 (95% CI, 0.77 to 4.48; P = .19). CONCLUSION Differences in allelic distribution for genes involved in paclitaxel disposition or DNA repair were observed between Japanese and US patients. In an exploratory analysis, genotype-related associations with patient outcomes were observed for CYP3A4*1B and ERCC2 K751Q. This common-arm approach facilitates the prospective study of population-related pharmacogenomics in which ethnic differences in antineoplastic drug disposition are anticipated.
Resumo:
Although – or because – social work education in Italy has for some 15 years now been exclusively in the domain of the university the relationship between the academic world and that of practice has been highly tenuous. Research is indeed being conducted by universities, but rarely on issues that are of immediate practice relevance. This means that forms of practice develop and become established habitually which are not checked against rigorous standards of research and that the creation of knowledge at academic level pays scant attention to the practice implications of social changes. This situation has been made even worse by the dwindling resources both in social services and at the level of the universities which means that bureaucratic procedures or imports of specialisations from other disciplines frequently dominate the development of practice instead of a theory-based approach to methodology. This development does not do justice to the actual requirements of Italian society faced with ever increasing post-modern complexity which is reflected also in the nature of social problems because it implies a continuation of a faith in modernity with its idea of technical, clear-cut solutions while social relations have decidedly moved beyond that belief. This discrepancy puts even greater strain on the personnel of welfare agencies and does ultimately not satisfy the ever increasing demands for quality and accountability of services on the part of users and the general public. Social workers badly lack fundamental theoretical reference points which could guide them in their difficult work to arrive at autonomous, situation-specific methodological answers not based on procedures but on analytical knowledge. Thirty years ago, in 1977, a Presidential Decree created the legal basis for the establishment of social service departments at the level of municipalities which created opportunities for the direct involvement of the community in the fight against exclusion. For this potential to be fully utilized it would have required the bringing together of three dimensions, the organizational structure, the opportunities for learning and research in the territory and the contribution by the professional community. As this did not occur social services in Italy still often retain the character of charity which does not concern itself with the actual causes of poverty and exclusion. This in turn affects the relationship with citizens in general who cannot develop trust in those services. Through uncritical processes of interaction Edgar Morin’s dictum manifests itself which is that without resorting to critical reflection on complexity interventions can often have an effect that totally the opposite to the original intention. An important element in setting up a dynamic interchange between academia and practice is the placement on professional social work courses. Here the looping of theory to practice and back to theory etc. can actually take place under the right organizational and conceptual conditions, more so than in abstract, and for practitioners often useless debates about the theory-practice connection. Furthermore, research projects at the University of Florence Social Work Department for instance aim at fostering theoretical reflection at the level of and with the involvement of municipal social service agencies. With a general constructive disposition towards research and some financial investment students were facilitated to undertake social service practice related research for their degree theses for instance in the city of Pistoia. In this way it was also possible to strengthen the confidence and professional identity of social workers as they became aware of the contribution their own discipline can make to practice-relevant research instead of having to move over to disciplines like psychology for those purposes. Examples of this fruitful collaboration were presented at a conference in Pistoia on 25 June 2007. One example is a thesis entitled ‘The object of social work’ and examines the difficult development of definitions of social work and comes to the conclusion that ‘nothing is more practical than a theory’. Another is on coping abilities as a necessary precondition for the utilization of resources supplied by social services in exceptional circumstances. Others deal with the actual sequence of interventions in crisis situations, and one very interestingly looks at time and how it is being constructed often differently by professionals and clients. At the same time as this collaboration on research gathers momentum in the Toscana, supervision is also being demanded more forcefully as complementary to research and with the same aim of profiling more strongly the professional identity of social work. Collaboration between university and social service filed is for mutual benefit. At a time when professional practice is under threat of being defined from the outside through bureaucratic prescriptions a sound grounding in theory is a necessary precondition for competent practice.
Resumo:
Radio Frequency Identification (RFID) beeinflusst unbestritten zahlreiche Anwendungsgebiete und schafft die Grundlage für die zukünftige Entwicklung logistischer Systeme. Von besonderer Bedeutung ist in diesem Zusammenhang die systematische Identifikation von Einsatzpotenzialen für diese Technologie. Bislang existiert hierfür noch keine allgemein verbreitete Methodik. Diese Problematik greift der folgende Beitrag auf und zeigt, wie aus den technischen Grundlagen und analysierten Praxisanwendungen Identifikationskriterien abgeleitet werden können. Die so erarbeiteten Kriterien werden in ihrer Anwendung anhand eines fiktiven Beispiels erläutert und damit exemplarisch eine mögliche Analysemethodik vorgestellt. 1. Einleitung Die produktionswirtschaftlichen Anforderungen an die Unternehmen sind zunehmend geprägt durch Globalisierung und damit durch eine zunehmende Komplexität sowie vertiefte Arbeitsteiligkeit. Es entsteht eine zunehmend breitere Streuung der Fertigungsstandorte und Kooperationsbeziehungen. Es gibt letztlich mehr Lager- und Umschlagprozesse in der Lieferkette. Andererseits bringt der erhöhte Qualitäts- und Kostendruck steigende Fixkosten mit sich, er zwingt zur ständigen Rationalisierung der Materialwirtschaft. Es besteht der Zwang zum Einsatz neuer technisch-elektronischer Mittel zur Kontrolle und Steuerung der logistischen Ketten. Im Lager bedeutet das eine zunehmende Nutzung der Informations- und Kommunikationstechnik zur Lager- und Fertigungssteuerung, auch in Verbindung mit Forderungen der Rückverfolgbarkeit der Produkte. An die Logistikleistungen werden damit Anforderungen wie Schnelligkeit, Qualität und Kostenminimierung gestellt. Letztlich bestehen die Warenbereitstellungs- und Verteilsysteme aus der technischen Grundstruktur, dem Lagertyp und dessen Geometrie sowie der dabei einsetzbaren Bedientechnik und deren kinematischen Daten. Der organisatorische Rahmen dieser Systeme ist gekennzeichnet durch die Nutzung diverser Ein- und Auslagerstrategien, die auch wesentlich Kosten und Leistungen (Umschlagleistung) des zu betrachtenden Lagersystems bestimmen. Aufgrund der genannten Forderungen muss es gelingen, aus dem eingesetzten technischen System durch organisatorisch effizienten Betrieb maximale Leistung bei gleichzeitig minimal eingesetzten Kosten zu erzielen. Neben den Investitionskosten sind bei der Planung von automatischen Lagersystemen die erreichbaren mittleren Spielzeiten der Bedientechnik von entscheidender Bedeutung, um die erforderliche Umschlagleistung des Lagers zu gewährleisten. Hierzu existieren eine Reihe von Berechnungsvorschriften und –normen. Diese Berechnungen berücksichtigen jedoch nicht die Auswirkungen der Lagerorganisation, wie beispielsweise fahrzeitminimale Kombinationen von Ein- und Auslageraufträgen bei Doppelspielen, Zonierungsmaßnahmen, die Auswirkungen von verschiedenen Füllgraden des Lagers oder Lagerplatzstrategien. 2. Stand der Technik 2.1. Lagertypen Abbildung 1: Systematische Einteilung der Lagertypen In Abbildung 1 sind verschiedene Lagertypen dargestellt und nach Kriterien eingeteilt. Soll eine Einschränkung hinsichtlich am Markt häufig vorkommender automatischer Palettenlager getroffen werden, so sind besonders die in der Abbildung hervorgehobenen Typen zu nennen. Eine Auswahl der einzelnen Lagertypen erfolgt dann anhand von Kosten, Umschlagleistung und bei Kompaktlagern vorrangig anhand von Flächen- und Raumnutzungsgrad. Werden die Kostenunterschiede bei Personal, Rechentechnik und Steuerungssoftware in den verschiedenen Lagertypen und -ausführungen der jeweiligen Typen vernachlässigt, unterscheiden sich die Gesamtkosten der Lager lediglich in der Bedientechnik sowie in den statisch bedingten Kosten der Regalkonstruktion. Die wichtigsten Kosteneinflüsse auf die Regale sind wiederum Bauhöhe und Bauart (Regalkonstruktion oder selbsttragendes Bauwerk). Abbildung 2 zeigt die zu erwartenden Umschlagleistungen1) der verschiedenen Lagertypen in Abhängigkeit der benötigten Stellplatzanzahl. Die darauf folgende Abbildung 3 zeigt die zu erwartenden Investitionskosten1) je Stellplatz. Die berücksichtigten Kenngrößen sind nachstehend dargestellt. Die abgebildeten Kurven machen deutlich, dass insbesondere Umschlagleistung der Lager und deren Flächen- bzw. Raumnutzungsgrad gegensätzlich verlaufen. Somit sind auch die Einsatzgebiete der Lagertypen voneinander abgrenzbar. Während Hochregallager für Anwendungsfälle mit hohem Gutumschlag in Frage kommen, werden die Kompaktlager eher in Objekten mit begrenztem Platz oder hohen Raumkosten (bspw. Kühllager) eingesetzt. Somit sind Kompaktlager auch häufig für die Umplanung bzw. der notwendigen Vergrößerung der Lagerkapazität innerhalb einer bestehenden baulichen Hülle interessant. Abbildung 2: Umschlagleistungen der verschiedenen Lagertypen Abbildung 3: Investitionskosten der einzelnen Lagertypen 2.2. Einzel-/ Doppelspiele Um anhand der Technik und der geometrischen Verhältnisse im Lager die höchstmögliche Umschlagleistung zu erzielen, ist es sinnvoll, Doppelspiele (DS) zu generieren. Somit ist nicht wie bei Einzelspielen (ES) je umgeschlagene Ladeeinheit eine Leerfahrt erforderlich, sondern nur je zweiter Ladeeinheit. Das Bediengerät fährt also vom Einlagerpunkt direkt zum Auslagerpunkt, ohne zum Übergabepunkt zurückkehren zu müssen. Diese Vorgehensweise setzt die Kenntnis der nächsten Fahraufträge und gegebenenfalls die Möglichkeit der Veränderung derer Reihenfolge voraus. Für eine Optimierung der Umschlagleistung ist die bei DS entstehende Leerfahrt (Zwischenfahrstrecke) und damit die Zwischenfahrzeit zu minimieren (vgl. 3.5). Nachfolgend beschriebene Untersuchungen beziehen sich jeweils auf Doppelspiele. Abbildung 4: Darstellung der anzufahrenden Lagerplätze in der Regalwand,links: Einzelspiel, rechts: Doppelspiel 2.3. Berechnungsvorschriften für Umschlagleistungen von Lagern Es existieren eine Reihe von Vorschriften zur Berechnung der Umschlagleistung von Lagern, exemplarisch sind drei Berechnungsvorschriften dargestellt. Die Richtlinie VDI 3561 [VDI3561] ermöglicht die Berechnung der Spielzeit auch für Doppelspiele. Dazu werden zwei Referenzpunkte festgelegt, die den Aus- bzw. Einlagerpunkt darstellen. Ein Doppelspiel besteht dann aus der Summe folgender Einzelzeiten: • der Hinfahrt vom Übergabepunkt zum Einlagerpunkt (P1), • der Leerfahrt vom Ein- zum Auslagerpunkt (P2) und der • Rückfahrt vom Auslagerpunkt zum Übergabepunkt (vgl. Abb.4 rechts). Die Summe dieser Einzelzeiten wird danach mit der Summe der Übergabezeiten addiert. Der Unterschied der Richtlinie und der Berechnungsvorschrift nach [Gud00] bestehen im wesentlichen aus der Lage der Ein- und Auslagerpunkte. Fahrzeitberechnung nach VDI 3561 P1 ; P2 Fahrzeitberechnung nach Gudehus 1) P1 ; P2 1)Annahme: Vernachlässigung von Totzeiten, Lastaufnahmefaktor = 1 Wird davon ausgegangen, dass in Abhängigkeit der Gassengeometrie immer nur eine der beiden Fahrzeitanteile (vertikal bzw. horizontal) spielzeitbestimmend ist, so ergeben sich beide Fahrstrecken zu 4/3 der jeweiligen Gesamtabmessung. Der Unterschied der beiden Berechnungsvorschriften liegt lediglich in der Aufteilung der Gesamtfahrstrecke auf die Teilfahrstrecken Hin-, Rück- bzw. Zwischenfahrt. Da jedoch die Fahrzeit zu den Anfahrpunkten in der Regel nicht von der gleichen Fahrzeitkomponente bestimmt wird, kommt es in der Praxis zu Unterschieden im Berechnungsergebnis. Die unter dem Titel „Leistungsnachweis für Regalbediengeräte, Spielzeiten“ stehende Norm FEM 9.851 [FEM9.851] beschäftigt sich ebenfalls mit der Berechnung von Spielzeiten von Regalbediengeräten (RBG). Dabei werden sechs verschiedene Anwendungsfälle generiert, die am häufigsten in der Praxis vorkommen. Diese unterscheiden sich insbesondere in der Lage der Übergabepunkte für die Ein- und Auslagerung. Dabei werden die Punkte sowohl horizontal als auch vertikal verschoben. Es werden hierbei auch Fälle betrachtet, in denen der Auslagerpunkt nicht mit dem Einlagerpunkt übereinstimmt, sich beispielsweise auch an dem gegenüberliegenden Gassenende befinden kann. Wird der einfachste Fall betrachtet, dass sich der Übergabepunkt für die Ein- und Auslagerung übereinstimmend an einer unteren Ecke der Gasse befindet, stimmen die Berechnungsformeln mit [Gud00] weitgehend überein. 2.4. Kritik und Untersuchungsansatz Die Berechnung der mittleren Spielzeit der einzelnen Lagergassen durch die beschriebenen Normen erfolgt in der Regel ohne die Berücksichtigung der Geschwindigkeitsdiagonalen, deren Steigung c durch nachstehendes Verhältnis gegeben ist. 1. Einleitung Eine umfassende Prozessanalyse ist die Grundlage einer jeden erfolgreichen RFID-Anwendung [o.Verf. 2006]. Die Merkmale, die bei einer solchen Untersuchung zu beachten sind, werden allerdings nicht öffentlich diskutiert. Wie Resch in seinem Ansatz zeigt, ist aber gerade die Analysephase von entscheidender Bedeutung für den späteren Erfolg einer RFID-Anwendung (vgl. Abb. 1). Abbildung 1: Fehlende Methodiken der Prozessanalyse [Resch2005] In dieser Phase besteht der größte Gestaltungsfreiraum für die spätere Umsetzung. Da in dieser Phase das größte Optimierungspotenzial einer RFID-Anwendung festgelegt wird, entscheidet sich bereits zu Beginn eines Projektes wie groß der maximal erreichbare Nutzen einer Lösung sein kann. Bisher existieren keine allgemein verbreiteten Methoden und Kriterien zur Identifikation dieser Einsatz-/Nutzenpotenziale. Die Prozessanalyse ist die Basis zukünftiger RFID-Anwendungen und ist daher entsprechend umfangreich durch zu führen. RFID-Einsatzpotenziale werden aktuell nur in Funktionsbereichen kommuniziert. Diese Pauschalisierung engt die Sicht auf potenzielle Anwendungen allerdings sehr stark ein. Dadurch besteht die Gefahr, dass die vorhandenen Nutzenpotenziale indirekt beteiligter Prozesse nicht beachtet werden. Es ist daher zwingend notwendig möglichst alle material- und informationsflussbezogenen Prozesse auf ein RFID-Einsatzpotenzial hin zu untersuchen. D.h. sowohl die Prozesse mit direktem Materialflussbezug (bspw. Wareneingang) als auch die Prozesse, die nur indirekt, über den Informationsfluss, mit dem Materialfluss verknüpft sind (bspw. Disposition). Der vorliegende Beitrag stellt daher einen ersten Ansatz für die Ermittlung allgemeingültiger Analysekriterien für RFID-Einsatzpotenziale. Die vorgestellte Methodik und der daraus entwickelte Kriterienkatalog sollen es ermöglichen, RFID-Anwendungen in der Analysephase auf ein möglichst vollständiges Nutzengerüst zu stellen und so den maximalen Nutzen einer Anwendung systematisch zu ermitteln. 2. Identifikationskriterien 2.1. Methodik Basierend auf der Überlegung die Kriterien sowohl theoretisch als auch auf Basis von Praxiserfahrungen zu entwickeln, dienen neben der Betrachtung technischer Grundlagen auch Analysen von realisierten Anwendungen und Pilotprojekten als Basis der Kriterienentwicklung. Abbildung 2 zeigt die grundsätzliche Methodik hinter der Entwicklung der Kriterien. Dabei zeigt sich, dass aus dem gewählten Ansatz zwangsläufig zwei differierende Typen von Kriterien entwickelt werden müssen. Technische Kriterien, aus den Grundlagen der RFID beziehen sich vor allem auf das vorherrschende Prozessumfeld. Frequenzspezifische Eigenschaften (Leistungsdaten) und allgemeine, also frequenzübergreifende Eigenschaften der RFID-Technik bilden die Ausgangsbasis für diese Kriteriengruppe. Dabei werden diese technologischen Eigenschaften in Prozessmerkmale überführt, anhand derer im konkreten Prozessumfeld eine Technologieauswahl durchgeführt werden kann. So können potenzielle RFID-Anwendungen auf eine prinzipielle Anwendbarkeit hin überprüft werden. Abbildung. 2: Vorgehen zur Entwicklung der Identifikationskriterien [Resch2005] Die zweite Gruppe der Kriterien, die organisatorischen Kriterien, werden aus Praxiserfahrungen abgeleitet. Basis dieser Analyse sind Prozesse aus realisierten Anwendungen und Pilotprojekten. Dieser praxisbasierte Teil stellt prozessbezogene Merkmale zusammen, deren Schwerpunkt auf prozessspezifischen organisatorischen Merkmalen, bspw. Durchsatz, oder auch Dokumentationsaufwand liegt. Die ausgewählten Praxisbeispiele sind nach ihren individuellen Prozessmerkmalen analysiert worden. Die Ergebnisse wurden stichpunktartig zusammengefasst, in übergeordnete Kategorien gruppiert und abschließend nach ihrem Flussbezug gegliedert. RFID-Anwendungen beeinflussen sowohl materialflussbezogene Prozesse, als auch direkt oder auch indirekt verknüpfte informationsflussbezogene Prozesse. Daher erfolgt eine Ordnung der identifizierten Kriteriengruppen nach ihrem Flussbezug, um so einem Anwender die Betrachtungsweise nachhaltig zu verdeutlichen und die Analyse zu vereinfachen. 2.2. Praxisbeispiele Die analysierten Praxisbeispiele sind zum Großteil in der Automobilindustrie realisiert (vgl. Abb. 3). Die weiteren Anwendungen sind aus der Instandhaltung sicherheitsrelevanter technischer Gebäudeausrüstung, aus einem Hochregallager eines Logistikdienstleisters sowie aus der Luftfahrtindustrie. Abbildung 3: Branchenspezifische Verteilung der Praxisbeispiele Die Auswahl der Praxisbeispiele ist bewusst auf die Automobilindustrie fokussiert. Dieser Industriezweig hat in Deutschland bereits einige Anwendungen und eine Vielzahl an Pilotprojekten initiiert. Die Bandbreite der realisierten Projekte ist sehr groß und deckt daher viele verschiedene Anwendungsfälle ab. Die Ergebnisse der Untersuchung sind aber auch auf andere Branchen übertragbar, da die untersuchten Praxisprojekte Situationen abbilden, die ebenfalls leicht zu übertragen sind. Die analysierten Anwendungen bilden ein sehr breites Feld an Einsatzszenarien ab. Anwendungen mit massenhaften Stückzahlen sind ebenso vertreten, wie Anwendungen mit hohem Spezialisierungscharakter. Die Anwendungen reichen dabei von einfachen Pilotprojekten im Ladungsträgermanagement, bis hin zu komplexen Anwendungen im Bereich der Produktionssteuerung und der unternehmensübergreifenden Koordination von Materialflüssen. Insgesamt verteilen sich die analysierten Anwendungen auf drei Schwerpunktbereiche. Abbildung 4 stellt die Anwendungsbereiche in einer Übersicht zusammen. Abbildung 4: Übersicht der Anwendungsgebiete aus den Praxisanwendungen Anwendungen aus den Bereichen der Produktionssteuerung und des Materialflusses sind dabei am häufigsten vertreten. Während die Anwendungen aus dem Bereich der Instandhaltung, bzw. dem Qualitätsmanagement, meist mit der Hauptanwendung aus dem Bereich der Produktionssteuerung verknüpft sind. So wird bspw. die Dokumentationen der einzelnen Fertigungsstationen i.d.R. sowohl zur Fertigungssteuerung als auch zur Qualitätssicherung genutzt. 2.3. Ergebnisse der Praxisanalyse Die Analyse der Praxisanwendungen brachte in einem ersten Schritt eine Fülle an spezifischen Merkmalen zusammen. Jeder analysierte Prozess wies seine eigenen Merkmale auf, die aber dem Grundsatz nach systematisiert werden konnten. Die so erarbeiteten Merkmale wurden in einem zweiten Schritt gruppiert. Insgesamt ergaben sich fünf Gruppen, die jeweils nach einer, durch die RFID-Technik durchgeführte Funktion benannt sind. Um eine Prozessanalyse mit Hilfe der Kriterien zu erleichtern, ist jede Gruppe ihrem übergeordneten Flusssystem zugeordnet worden. Nachstehende Abbildung 5 zeigt die einzelnen Gruppierungen mit ihrem jeweiligen Flussbezug. Dabei sind jeder Gruppe beispielhafte Merkmale zugeordnet. Abbildung 5: Organisatorische Kriterien zur Identifikation von RFID-Einsatzpotenzialen Die vorliegende Systematisierung von Identifikationskriterien deckt sowohl Aspekte des reinen Materialflusses, als auch die Aspekte der zugehörigen Informationsflüsse ab. Dabei verhält sich der Flussbezug in jeder Kriteriengruppe unterschiedlich. Die Kriterien der Gruppe Identifikation befassen sich ausschließlich mit dem Identifikationsvorgang. Dabei können die erarbeiteten Kriterien in zwei Arten unterschieden werden, quantitative und qualitative Kriterien. Qualitativ messbar sind Kriterien, die sich auf die Anzahl der Identifikationsvorgänge beziehen. Bspw. die Anzahl der Identifikationsvorgänge im betrachteten Prozessverlauf, bezogen auf ein Identifikationsobjekt oder die Anzahl der Identifikationsvorgänge pro Zeiteinheit an einem Identifikationspunkt innerhalb des Prozessverlaufs. Gleichzeitig umfasst diese Gruppe aber auch Kriterien, die nur qualitativ zu bewerten sind. Kriterien wie die Bedeutung einer exakten Identifikation einzelner Teile im Prozess oder auch der aktuelle Aufwand der Identifikation im Prozess lassen sich nur bedingt oder nicht quantifizieren. Diese Kriteriengruppe fokussiert mit ihren Merkmalen vor allem den Materialfluss. Die einzelnen Merkmale beziehen sich auf den tatsächlichen Identifikationsvorgang und nicht auf die zugehörigen Informationsflüsse. Unter dem Begriff Transparenz sind Kriterien gruppiert, die sich mit der Verfolgbarkeit und Übersichtlichkeit von Prozessen befassen. Dabei gilt es sowohl die Bedeutung für den aktuellen Prozess als auch für die abhängigen Prozesse zu ermitteln. Transparenz bzw. die fehlende Transparenz ist der Kern dieser Kriteriengruppe. Qualitative Kriterien sind in dieser Kategorie besonders stark vertreten, da vor allem die Bedeutung bestimmter Aspekte der Prozesstransparenz als Kriterium dient. Prozesstransparenz liegt i.d.R. nicht vor oder wird nur über komplexe Systeme erreicht. Die Bewertung dieser Kriteriengruppe ist höchst variabel, da Prozesstransparenz in ihrer Bedeutung höchst individuell ist, d.h. von Prozess zu Prozess stark variiert. Die Gruppe Konfiguration fasst Merkmale zusammen, die auf objektspezifische Anpassungsarbeiten im Prozessverlauf hinweisen. Diese Tätigkeiten sind i.d.R. mit einem quantifizierbaren Aufwand verbunden und können so leicht erfasst werden. Die RFID-Technologie eröffnet hier, ähnlich wie im Bereich der Identifikation, Chancen zur Automatisierung bestehender Prozesse. Die Kriterien konzentrieren sich in ihrer Zielrichtung daher schwerpunktmäßig auf die Untersuchung von Potenzialen hinsichtlich der Automation von Konfigurationsvorgängen. Ähnlich wie die vorstehende Gruppe der Transparenz, besitzt diese Gruppe ebenfalls einen starken Bezug zu beiden Flusssystemen. In beiden Gruppen liegt der Fokus der betrachteten Merkmale sowohl auf dem Materialfluss und den physischen Aktionen als auch auf den zugehörigen Informationsflüssen mit entsprechenden Tätigkeiten. Die vierte Gruppe Zuordnung enthält primär Merkmale, die sich auf den Informationsfluss beziehen. Im Vordergrund steht die Art und Weise in der innerhalb eines Prozesses Materialflüsse zwischen Quelle und Senke koordiniert werden. Diese Gruppe enthält ebenfalls sowohl qualitativ als auch quantitativ zu bewertenden Merkmale. RFID-Technik kann hier zu einer deutlichen Komplexitätsreduktion, einer Automation sowie der Reduktion von Stillstands- u. Wartezeiten führen. Die letzte Gruppe Datenverwendung und Dokumentation befasst sich beinahe ausschließlich mit Aspekten des Informationsflusses. Als beinahe Komplementär zur Gruppe der Identifikation stehen hier die informationsflussbezogenen Handlungen, ausgelöst durch einen zugehörigen Materialfluss in der Betrachtung. Dabei stehen vor allem Fehlerraten, manuelle Aufwende der Datenverarbeitung und die Anzahl an Medienbrüchen im Informationsfluss im Vordergrund. Auch hier existiert wiederum ein Geflecht aus qualitativen und quantitativen Kriterien, deren Bewertung individuell durchzuführen ist. 2.4. Technische Kriterien Ergänzt werden die organisatorischen Kriterien um die technischen Kriterien. Diese Kriterien leiten sich aus den technischen Grundlagen der RFID-Technik ab. Diese Grundlagen sind zum einen die Eigenschaft der kontakt- und sichtlosen Übertragung von Energie und Daten, zum anderen der physische Aufbau der Komponenten eines RFID-Systems, dem Reader und dem Transponder. Des Weiteren definieren die frequenzspezifischen Eigenschaften der verschiedenen RFID-Systeme unterschiedliche Leistungsparameter, aus denen technische Kriterien abgeleitet werden können. Daraus ergibt sich die logische Trennung in frequenzabhängige und frequenzunabhängige Kriterien. Auszüge dieser Kriterien zeigt nachstehende Abbildung 6 Abbildung 6: Technische Kriterien Die technischen Kriterien dienen eher zur Technologieauswahl, als zu einer reinen Potenzialidentifikation, da ausschließlich limitierende Aspekte der Technologie betrachtet werden. Einflüsse, bedingt durch die genutzte technische Ausrüstung (bspw. metallische Lagertechnik) oder verfahrensbedingte Einflüsse (elektromagnetische Felder, Schweißroboter, o.ä.), werden über diese Kriterien abgebildet und finden so Berücksichtigung in den zu entwickelnden RFID-Szenarien. Die Wirkung dieser Kriterien hängt stark von dem jeweiligen Stand der Technik ab. Galt bspw. der Einsatz von 13,56 MHz Transpondern direkt auf Metall vor fünf Jahren noch als nicht möglich, so ist die Technik mittlerweile so weit entwickelt, dass auch Lösungen in diesem Bereich angeboten werden. Daher muss festgehalten werden, dass die frequenzabhängigen technischen Kriterien im Zeitverlauf variabel in ihrer Wirkung sind und sich mit dem technischen Fortschritt der RFID-Hardware verändern. Atmosphärische Einflüsse auf die RFID-Hardware sind generell für alle Varianten (unabhängig von der Betriebsfrequenz) der RFID-Technik zu beachten. Der Einfluss der Umgebungsbedingungen auf die Integrität der Hardware ist immer zu berücksichtigen. Temperatur, Druck und Staubbelastung sind hier die Hauptgruppen äußerer Einflüsse auf die RFID-Hardware. Auch diese Gruppe der technischen Kriterien muss mit der sich verändernden technischen Leistungsfähigkeit in ihrer Bewertung angepasst werden. 3. Anwendung der Kriterien 3.1. Anwendungsbeispiel Die Anwendung der Kriterien wird im Folgendem anhand eines kurzen Beispiels erläutert. Nachstehende Abbildung 7 zeigt Ausschnitte aus einem fiktiven Prozess innerhalb eines Großlagers. Abbildung 7: Fiktiver Prozess Von der Entladung des LKW bis zur Einlagerung der Paletten ist der Prozess in vier grobe Phasen strukturiert. Zur Identifikation von RFID-Einsatzpotenzialen werden die einzelnen Prozesselemente nach dem in Tabelle 1dargestellten Schema untersucht. Tabelle 1: Exemplarische Anwendung der Kriterien an einem ausgewählten Beispiel Kriteriengruppe Kriterium Einheit Prozesselement Entladen des LKW Bezugsobjekt LKW Palette Identifikation Anzahl ID - Vorgänge pro Objekt 1/Stck. 2 1 Anzahl ID - Objekte im Zeitraum Stck./ZE 25/h 10/min Transparenz Bedeutung exakter Prozesszeiterfassung Qual. Hoch Hoch intransparente Prozessabschnitte ja/nein Ja Ja Konfiguration Anzahl objektspez. Konfigurationsarbeiten 1/Stck. 0 0 Manueller Anteil der Konfiguration Qual. - - Zuordnung Fehleranteil der Zuordnung Q/S Qual. Mittel Gering Komplexität der Zuordnung Q/S Qual. Hoch Hoch Datenverwendung und Dokumentation Anzahl der Änderungen objektspezifischer Daten im Prozess 1/Stck. 8 (6-7) 2 Anzahl der Medienbrüche im Prozess 1/Stck. - - Die Tabelle zeigt, wie einzelne Prozesselemente mit Hilfe der Identifikationskriterien analysiert werden können. Dabei ergeben sich aus den Ausprägungen der einzelnen Kriterien die Nutzenpotenziale auf deren Basis sich eine spätere RFID-Anwendung gestalten und bewerten lässt. Für die Analyse der einzelnen Prozesselemente ist es notwendig, die Kriterien auf ein Bezugsobjekt zu beziehen. Dieses Bezugsobjekt stellt den potenziellen Träger des Transponders dar. Dabei ist zu beachten, dass innerhalb eines Prozesses mehrere Bezugsobjekte vorhanden sein können. Die Analyse muss daher für jedes Bezugsobjekt einzeln durchgeführt werden. Die Zusammenfassung der Analyseergebnisse pro Bezugsobjekt, über die zusammengehörigen Prozesselemente zeigt die Nutzenpotenziale innerhalb der einzelnen Prozesse. 3.2. Verwendung der Ergebnisse und Bewertungsmöglichkeiten identifizierter Einsatzpotenziale Im vorstehenden Absatz wurde gezeigt, wie die erarbeiteten Kriterien zur Prozessanalyse genutzt werden können. Aus der Analyse ergeben sich Nutzenpotenziale für den RFID-Einsatz. Inwieweit diese erkannten Potenziale tatsächlich zu einer wirtschaftlichen RFID-Anwendung führen, muss in einem zweiten Schritt geprüft werden. Dabei muss festgestellt werden, dass es keine RFID-Lösung „von der Stange“ gibt [Lammers2006]. Jede Anwendung muss individuell auf Wirtschaftlichkeit geprüft werden. Dabei spielen vor allem die Kriterien eine starke Rolle, die nur qualitativ erfasst werden können, z. B. die Bedeutung einer exakten Erfassung der Prozesszeit. Quantitativ erfassbare Kriterien sind vergleichsweise einfach in der wirtschaftlichen Beurteilung, obwohl auch für diese Art Kriterium keine allgemein gültigen Richtwerte zur Beurteilung existieren. Zu groß sind hier die Unterschiede zwischen einzelnen Prozessen und den möglichen Einspareffekten, bedingt durch differierende Kostentreiber und Anforderungen an Leistungsfähigkeiten. Weiterhin müssen sowohl qualitative als auch quantitative Kriterien immer im Zusammenhang gesehen werden. Nur dann kann der potenzielle Nutzen einer RFID-Anwendung vollständig ermittelt werden. Erst aus der Kombination dieser beiden Faktorgruppen ergibt sich das maximale Nutzenpotenzial einer RFID-Anwendung. Vor diesem Hintergrund sind die einzelnen Nutzenpotenziale zu erfassen, daraus mögliche RFID-Szenarien zu entwickeln und diese Szenarien einer abschließenden, detaillierten Wirtschaftlichkeitsanalyse zu unterziehen.