997 resultados para enchimento do grão


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Flachwassergleichungen (SWE) sind ein hyperbolisches System von Bilanzgleichungen, die adäquate Approximationen an groß-skalige Strömungen der Ozeane, Flüsse und der Atmosphäre liefern. Dabei werden Masse und Impuls erhalten. Wir unterscheiden zwei charakteristische Geschwindigkeiten: die Advektionsgeschwindigkeit, d.h. die Geschwindigkeit des Massentransports, und die Geschwindigkeit von Schwerewellen, d.h. die Geschwindigkeit der Oberflächenwellen, die Energie und Impuls tragen. Die Froude-Zahl ist eine Kennzahl und ist durch das Verhältnis der Referenzadvektionsgeschwindigkeit zu der Referenzgeschwindigkeit der Schwerewellen gegeben. Für die oben genannten Anwendungen ist sie typischerweise sehr klein, z.B. 0.01. Zeit-explizite Finite-Volume-Verfahren werden am öftersten zur numerischen Berechnung hyperbolischer Bilanzgleichungen benutzt. Daher muss die CFL-Stabilitätsbedingung eingehalten werden und das Zeitinkrement ist ungefähr proportional zu der Froude-Zahl. Deswegen entsteht bei kleinen Froude-Zahlen, etwa kleiner als 0.2, ein hoher Rechenaufwand. Ferner sind die numerischen Lösungen dissipativ. Es ist allgemein bekannt, dass die Lösungen der SWE gegen die Lösungen der Seegleichungen/ Froude-Zahl Null SWE für Froude-Zahl gegen Null konvergieren, falls adäquate Bedingungen erfüllt sind. In diesem Grenzwertprozess ändern die Gleichungen ihren Typ von hyperbolisch zu hyperbolisch.-elliptisch. Ferner kann bei kleinen Froude-Zahlen die Konvergenzordnung sinken oder das numerische Verfahren zusammenbrechen. Insbesondere wurde bei zeit-expliziten Verfahren falsches asymptotisches Verhalten (bzgl. der Froude-Zahl) beobachtet, das diese Effekte verursachen könnte.Ozeanographische und atmosphärische Strömungen sind typischerweise kleine Störungen eines unterliegenden Equilibriumzustandes. Wir möchten, dass numerische Verfahren für Bilanzgleichungen gewisse Equilibriumzustände exakt erhalten, sonst können künstliche Strömungen vom Verfahren erzeugt werden. Daher ist die Quelltermapproximation essentiell. Numerische Verfahren die Equilibriumzustände erhalten heißen ausbalanciert.rnrnIn der vorliegenden Arbeit spalten wir die SWE in einen steifen, linearen und einen nicht-steifen Teil, um die starke Einschränkung der Zeitschritte durch die CFL-Bedingung zu umgehen. Der steife Teil wird implizit und der nicht-steife explizit approximiert. Dazu verwenden wir IMEX (implicit-explicit) Runge-Kutta und IMEX Mehrschritt-Zeitdiskretisierungen. Die Raumdiskretisierung erfolgt mittels der Finite-Volumen-Methode. Der steife Teil wird mit Hilfe von finiter Differenzen oder au eine acht mehrdimensional Art und Weise approximniert. Zur mehrdimensionalen Approximation verwenden wir approximative Evolutionsoperatoren, die alle unendlich viele Informationsausbreitungsrichtungen berücksichtigen. Die expliziten Terme werden mit gewöhnlichen numerischen Flüssen approximiert. Daher erhalten wir eine Stabilitätsbedingung analog zu einer rein advektiven Strömung, d.h. das Zeitinkrement vergrößert um den Faktor Kehrwert der Froude-Zahl. Die in dieser Arbeit hergeleiteten Verfahren sind asymptotisch erhaltend und ausbalanciert. Die asymptotischer Erhaltung stellt sicher, dass numerische Lösung das "korrekte" asymptotische Verhalten bezüglich kleiner Froude-Zahlen besitzt. Wir präsentieren Verfahren erster und zweiter Ordnung. Numerische Resultate bestätigen die Konvergenzordnung, so wie Stabilität, Ausbalanciertheit und die asymptotische Erhaltung. Insbesondere beobachten wir bei machen Verfahren, dass die Konvergenzordnung fast unabhängig von der Froude-Zahl ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

One of the fundamental interactions in the Standard Model of particle physicsrnis the strong force, which can be formulated as a non-abelian gauge theoryrncalled Quantum Chromodynamics (QCD). rnIn the low-energy regime, where the QCD coupling becomes strong and quarksrnand gluons are confined to hadrons, a perturbativernexpansion in the coupling constant is not possible.rnHowever, the introduction of a four-dimensional Euclidean space-timernlattice allows for an textit{ab initio} treatment of QCD and provides arnpowerful tool to study the low-energy dynamics of hadrons.rnSome hadronic matrix elements of interest receive contributionsrnfrom diagrams including quark-disconnected loops, i.e. disconnected quarkrnlines from one lattice point back to the same point. The calculation of suchrnquark loops is computationally very demanding, because it requires knowledge ofrnthe all-to-all propagator. In this thesis we use stochastic sources and arnhopping parameter expansion to estimate such propagators.rnWe apply this technique to study two problems which relay crucially on therncalculation of quark-disconnected diagrams, namely the scalar form factor ofrnthe pion and the hadronic vacuum polarization contribution to the anomalousrnmagnet moment of the muon.rnThe scalar form factor of the pion describes the coupling of a charged pion torna scalar particle. We calculate the connected and the disconnected contributionrnto the scalar form factor for three different momentum transfers. The scalarrnradius of the pion is extracted from the momentum dependence of the form factor.rnThe use ofrnseveral different pion masses and lattice spacings allows for an extrapolationrnto the physical point. The chiral extrapolation is done using chiralrnperturbation theory ($chi$PT). We find that our pion mass dependence of thernscalar radius is consistent with $chi$PT at next-to-leading order.rnAdditionally, we are able to extract the low energy constant $ell_4$ from thernextrapolation, and ourrnresult is in agreement with results from other lattice determinations.rnFurthermore, our result for the scalar pion radius at the physical point isrnconsistent with a value that was extracted from $pipi$-scattering data. rnThe hadronic vacuum polarization (HVP) is the leading-order hadronicrncontribution to the anomalous magnetic moment $a_mu$ of the muon. The HVP canrnbe estimated from the correlation of two vector currents in the time-momentumrnrepresentation. We explicitly calculate the corresponding disconnectedrncontribution to the vector correlator. We find that the disconnectedrncontribution is consistent with zero within its statistical errors. This resultrncan be converted into an upper limit for the maximum contribution of therndisconnected diagram to $a_mu$ by using the expected time-dependence of therncorrelator and comparing it to the corresponding connected contribution. Wernfind the disconnected contribution to be smaller than $approx5%$ of thernconnected one. This value can be used as an estimate for a systematic errorrnthat arises from neglecting the disconnected contribution.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The excitation spectrum is one of the fundamental properties of every spatially extended system. The excitations of the building blocks of normal matter, i.e., protons and neutrons (nucleons), play an important role in our understanding of the low energy regime of the strong interaction. Due to the large coupling, perturbative solutions of quantum chromodynamics (QCD) are not appropriate to calculate long-range phenomena of hadrons. For many years, constituent quark models were used to understand the excitation spectra. Recently, calculations in lattice QCD make first connections between excited nucleons and the fundamental field quanta (quarks and gluons). Due to their short lifetime and large decay width, excited nucleons appear as resonances in scattering processes like pion nucleon scattering or meson photoproduction. In order to disentangle individual resonances with definite spin and parity in experimental data, partial wave analyses are necessary. Unique solutions in these analyses can only be expected if sufficient empirical information about spin degrees of freedom is available. The measurement of spin observables in pion photoproduction is the focus of this thesis. The polarized electron beam of the Mainz Microtron (MAMI) was used to produce high-intensity, polarized photon beams with tagged energies up to 1.47 GeV. A "frozen-spin" Butanol target in combination with an almost 4π detector setup consisting of the Crystal Ball and the TAPS calorimeters allowed the precise determination of the helicity dependence of the γp → π0p reaction. In this thesis, as an improvement of the target setup, an internal polarizing solenoid has been constructed and tested. A magnetic field of 2.32 T and homogeneity of 1.22×10−3 in the target volume have been achieved. The helicity asymmetry E, i.e., the difference of events with total helicity 1/2 and 3/2 divided by the sum, was determined from data taken in the years 2013-14. The subtraction of background events arising from nucleons bound in Carbon and Oxygen was an important part of the analysis. The results for the asymmetry E are compared to existing data and predictions from various models. The results show a reasonable agreement to the models in the energy region of the ∆(1232)-resonance but large discrepancies are observed for energy above 600 MeV. The expansion of the present data in terms of Legendre polynomials, shows the sensitivity of the data to partial wave amplitudes up to F-waves. Additionally, a first, preliminary multipole analysis of the present data together with other results from the Crystal Ball experiment has been as been performed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis assesses the question, whether accounting for non-tradable goods sectors in a calibrated Auerbach-Kotlikoff multi-regional overlapping-generations-model significantly affects this model’s results when simulating the economic impact of demographic change. Non-tradable goods constitute a major part of up to 80 percent of GDP of modern economies. At the same time, multi-regional overlapping-generations-models presented by literature on demographic change so far ignored their existence and counterfactually assumed perfect tradability between model regions. Moreover, this thesis introduces the assumption of an increasing preference share for non-tradable goods of old generations. This fact-based as-sumption is also not part of models in relevant literature. rnThese obvious simplifications of common models vis-à-vis reality notwithstanding, this thesis concludes that differences in results between a model featuring non-tradable goods and a common model with perfect tradability are very small. In other words, the common simplifi-cation of ignoring non-tradable goods is unlikely to lead to significant distortions in model results. rnIn order to ensure that differences in results between the ‘new’ model, featuring both non-tradable and tradable goods, and the common model solely reflect deviations due to the more realistic structure of the ‘new’ model, both models are calibrated to match exactly the same benchmark data and thus do not show deviations in their respective baseline steady states.rnA variation analysis performed in this thesis suggests that differences between the common model and a model with non-tradable goods can theoretically be large, but only if the bench-mark tradable goods sector is assumed to be unrealistically small.rnFinally, this thesis analyzes potential real exchange rate effects of demographic change, which could occur due to regional price differences of non-tradable goods. However, results show that shifts in real exchange rate based on these price differences are negligible.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Arnt van Tricht, gest. 1570, unterhielt bis in die späten 50er Jahre des 16. Jahrhunderts, wahrschein-lich aus Antwerpen kommend, in Kalkar am Niederrhein eine sehr erfolgreiche Werkstatt. Die bis dahin vorherrschende spätgotische Formensprache der langjährig ansässigen Bildhauer löste er durch die der Renaissance ab, führte jedoch deren Arbeitsfelder und Materialwahl weiter. Arnt van Tricht schuf Arbeiten sowohl religiöser als auch profaner Natur innerhalb des Gebiets der damals sehr bedeutenden Vereinigten Herzogtümer Kleve-Mark-Jülich-Berg und Geldern. Seine wohlhabenden Auftraggeber entstammten dem Klerus, der Bürgerschaft und dem Adel.rnIm Rahmen der Arbeit zeigte sich, dass sich für den Künstler die Verlegung der herzoglichen Residenz nach Düsseldorf und der wirtschaftliche Niedergang der Region letztlich stärker auswirkte als die religiösen Veränderungen durch die Reformation.rnArnt van Tricht schuf die meisten seiner religiösen Bildwerke für die Stiftskirche St. Viktor in Xanten, die durch die Bürgerschaft ausgestattete Pfarrkirche von St. Nicolai in Kalkar und umliegende Gemeinden. Einzelne Stücke sind, wohl über familiäre Verflechtungen vermittelt, in einem weiteren Radius zu finden. Van Tricht arbeitete Schnitzretabel mitsamt ihrer ornamentalen und figuralen Aus-stattung sowie Skulpturen(-gruppen) in Eichenholz. Daneben finden sich im Werk zahlreiche in Sandstein gearbeitete Skulpturen, die teilweise an Pfeilern und Portalen der Kirchen architektur-gebunden sind. Neben diesen rundplastischen Werken schuf Arnt van Tricht eine große Anzahl an steinernen Reliefarbeiten. Hierbei nehmen die überwiegend für die lokalen Kanoniker gearbeiteten Epitaphien mit biblischem Reliefbild in Ornamentrahmen den größten Teil ein.rnEin zweiter, gleichwertiger Werkkomplex, überwiegend in Sandstein gearbeitet, ist profaner Natur und fällt durch die Größe der Aufträge ins Gewicht. Arnt van Tricht war an einigen groß angelegten Modernisierungsprojekten an Stadthäusern und Kastellen des lokalen Adels beschäftigt. Für mehrere aufwendig gestaltete Fassadendekorationen arbeitete er Architekturglieder mit figürlicher Darstellung oder Ornament, Büsten und freiplastische Skulpturen. Arnt van Tricht war aber auch an der Aus-gestaltung der Innenräume beteiligt. Aufwendig skulptierte und reliefverzierte Kaminverkleidungen stehen dabei neben reduzierteren Arbeiten für offensichtlich weniger repräsentative Räume. Neben in Eichenholz gearbeiteter Vertäfelung schuf Arnt van Tricht hölzerne figurale Handtuchhalter. Diese zeigen, wie auch die Reliefbilder der Kamine, die darüber hinaus Wappen und Porträts der Bauherren aufnehmen, eine religiöse oder profane, auch antikisierende Thematik, bei der ein moralisierender Unterton mitschwingt.rnIn dieser Arbeit werden erstmals alle Werkstücke des Künstlers zusammengeführt dargestellt, so dass ein Werkkatalog mit einem Überblick über das sehr breit gefächerte Spektrum des Opus Arnt van Trichts vorliegt. Häufig durch bloße Nennung mit Arnt van Tricht in Verbindung gebrachte Arbeiten werden bewertet und die Zu- oder Abschreibung begründet. Auch können einige Stücke neu zugeschrieben werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zusammenfassung: Die vorliegende Untersuchung zum deutschen Kriegsgefangenenwesen (KGW) im Zweiten Weltkrieg schließt eine wichtige Lücke innerhalb der geschichtswissenschaftlichen Forschungen zum Themenkreis der Kriegsgefangenschaft in deutschem Gewahrsam. Bisherige Studien (bis einschließlich 1997) behandeln vor allem sozial- und kulturgeschichtliche Aspekte der Kriegsgefangenen (Kgf.), der Lagergesellschaft und dem Alltag von Soldaten in Kriegsgefangenschaft. Der Verfasser indes legt mit seiner Magisterarbeit erstmals eine Organisations- und Strukturgeschichte des deutschen Kriegsgefangenenwesens von 1939 bis 1945 vor, welche fundamentale Grundlagen der deutschen militärischen Lagerorganisation und Verwaltung dokumentiert. So wird die Entwicklung von den Vorkriegsplanungen bis zum Kriegsende anhand der zentralen Dienststellen herausgearbeitet und im Kontext des Genfer Kriegsgefangenenabkommens von 1929 und völkerrechtlicher Implikationen gewichtet. Hiermit untrennbar verbundene Einflußnahmen nichtmilitärischer Stellen in die Entscheidungsgewalt der Streitkräfte im Heimatkriegsgebiet und in den Wehrmachtbefehlshaberbereichen werden nicht zuletzt auch anhand mehrerer Organigramme veranschaulicht. Zudem dokumentiert und analysiert die Untersuchung die im Kriegsverlauf stetig verschärften Maßnahmen zur Fluchtprävention und der konzertierten Fahndung nach geflohenen Kriegsgefangenen: Die Machterosion des Oberkommandos der Wehrmacht (OKW) zugunsten des Reichsführers-SS, des Reichssicherheitshauptamts und nicht zuletzt der Parteikanzlei der NSDAP wird so augenfällig. Trotz eminenter Schriftgutverluste kann der Verfasser vor allem anhand einer nahezu vollständig erhaltenen Schlüsselquelle die Stellenbesetzung und Organisationsstruktur der mit Kriegsgefangenenfragen befassten Stellen im OKW rekonstruieren. Die Auswertung dieser Sammelmitteilungen / Befehlssammlung für das Kriegsgefangenenwesen sowie an anderer Stelle überlieferter Organisationsbefehle ermöglicht wichtige Änderungen am derzeitigen Forschungsstand. Darüber hinaus beschäftigt sich die vorliegende Untersuchung mit dem Arbeitseinsatz Kriegsgefangener in der deutschen Wirtschaft als in der zweiten Kriegshälfte zentralem Element der Kriegsgefangenschaft. Außerdem wird beleuchtet, welche politischen, (rassen)ideologischen oder reziprok konnotierten Faktoren den Stellenwert gefangener Soldaten unterschiedlicher Nationalität innerhalb der Gefangenenhierarchie im deutschen Kriegsgefangenenwesen bestimmten. Inhalt: 1. Einführung; 2. Die Entwicklung des Kriegsvölkerrechts und das Genfer Kriegsgefangenenabkommen von 1929; 3. Einleitende Bemerkungen zum deutschen Kriegsgefangenenwesen: Quellenlage, Grundlagen; 4. Organisationsstruktur und Aufgaben des KGW: Zuständigkeiten für Kgf. in OKW und OKH, Abt. Wehrmachtverluste und Kriegsgefangene, der General z.b.V. für das KGW 1939 bis Ende 1941, Allgemeine und Organisationsabteilung seit Januar 1942, Generalinspekteur und Inspekteur des KGW von Juli 1943 bis Oktober 1944, das Kriegsgefangenenwesen unter Himmler seit Oktober 1944; 5. Die Kriegsgefangenenlager: Lagertypen, Anzahl und Verwendung, die Gesamtzahl Kgf. und Belegstärken ausgewählter Lager; 6. Richtlinien für KGL: Die Sammelmitteilungen / Befehlssammlung für das KGW, Lagerorganisation und Behandlung Kriegsgefangener; 7. Die Post der Kriegsgefangenen: Tätigkeit von Auslandsbriefprüfstelle, Abwehr III Referat Kgf. und Abwehrstellen der Wehrkreise, Vorgaben für Postüberwachung und Stimmungsberichte der Asten, Befehle zur Kgf-Post und Kooperation mit Hilfsorganisationen und Schutzmächten; 8. Fluchtprävention: Bestimmungen und Maßnahmen zur Fluchtvereitelung, der Fluchterlass vom 22.09.1942, der Sonderfahndungsplan der Sicherheitspolizei und des SD vom 28.09.1942, Erlass zur Kriegsfahndung vom 5.12.1942, der Fluchterlaß vom 02.07.1943, der Erlaß zur Mitarbeit NSDAP bei Groß- und Kriegsfahndungen vom 10.07.1943, Schulung zur Fluchtprävention auf Wehrkreisebene 1944, Preisausschreiben "Wie verhindere ich Fluchten?" vom 09.04.1945, Anwerbung von V-Leuten durch die Abwehr; 9. Arbeitseinsatz Kriegsgefangener in der deutschen Wirtschaft und beteiligte Stellen; 10. Der Status Kriegsgefangener unterschiedlicher Nationalitäten im Vergleich; 11. Schluss

Relevância:

10.00% 10.00%

Publicador:

Resumo:

„Intelligent, anpassungsfähig, verschwiegen und zuverlässig“ – so charakterisierte der Bundesnachrichtendienst seinen Agenten „ADLER“ in dessen Abschaltmeldung. rnEin halbes Jahr – von Mai bis Dezember 1966 – hatte „ADLER“ in Diensten des westdeutschen Auslandsnachrichtendienstes gestanden und seine Vorgesetzten für ein monatliches Salär von 500 DM mit Informationen über linksgerichtete Entwicklungstendenzen in Bolivien versorgt. rnBereits zwölf Jahre zuvor, im November 1954, war der deutsche Agent, der nun für den BND in Lateinamerika spionierte, vom Ständigen Militärgericht in Lyon aufgrund seiner während des Zweiten Weltkrieges begangenen Kriegsverbrechen in Abwesenheit zum Tode verurteilt worden. rnDoch Klaus Barbie, der sich in seiner Funktion als Gestapo-Offizier zwischen 1942 und 1944 am Mord hunderter Mitglieder der französischen Résistance schuldig gemacht hatte, war zu diesem Zeitpunkt bereits „verschwunden“. Deutsche und französische Ermittlungsbehörden vermuteten ihn in Deutschland, dann wieder in Ägypten. Erst zu Beginn der siebziger Jahre wurde der in Bolivien lebende Geschäftsmann „Klaus Altmann“ als ehemaliger Gestapo-Chef von Lyon identifiziert. rnSchon damals stellten Serge und Beate Klarsfeld, die mit ihren Ermittlungen den „Fall Barbie“ über Nacht auf die Titelseiten der internationalen Presse katapultierten, die berechtigte Frage, wie es möglich war, dass der NS-Kriegsverbrecher nach 1945 nach Lateinamerika entkommen konnte. Sie nährten damit bereits existierende Gerüchte, der amerikanische Geheimdienst sei an der Protektion Barbies nicht unbeteiligt gewesen. Die Auslieferungsbemühungen verliefen zunächst im Sande. rnZu groß war die Unterstützung, die der NS-Verbrecher von Seiten bolivianischer Militärdiktaturen genoss. Erst 1983 sollte Barbie an Frankreich ausgewiesen und vor Gericht gestellt werden. Die Flut internationaler Presseartikel im Vorfeld des „Jahrhundert-Prozesses“, die eine Beziehung Barbies mit westlichen Geheimdiensten nahelegte, gab schließlich Anlass für einen Offenbarungseid. Aus Angst, Barbie könne vor Gericht für einen Skandal sorgen, flüchtete die US-Regierung nach vorne: Gestützt auf hunderte Seiten teils streng geheimer Dokumente der US-Armee konnte der im August 1983 von Seiten des US-Justizministeriums vorgelegte Untersuchungsbericht belegen, dass das Counter Intelligence Corps, der Heeresgeheimdienst der US-Armee, den NS-Täter im April 1947 als Informanten angeworben, ihn vor den französischen Ermittlern versteckt und ihn 1951 mit Hilfe einer geheimen „Rattenlinie“ unter dem Aliasnamen „Altmann“ aus Europa nach Bolivien geschleust hatte.rnDie vorliegende Dissertation rekapituliert erstmals vollständig die Beziehungen zwischen Barbie und westlichen Geheimdiensten nach 1945 auf Basis des mittlerweile zugänglichen Aktenmaterials in deutschen, französischen, britischen, bolivianischen und US-amerikanischen Archiven. Im Mittelpunkt steht dabei die Analyse der einzelnen Faktoren, die die Rekrutierung von NS-Tätern durch westliche Nachrichtendienste nach 1945 begünstigten. rn rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Respiratory virus infections play an important role in cystic fibrosis (CF) exacerbations, but underlying pathophysiological mechanisms are poorly understood. We aimed to assess whether an exaggerated inflammatory response of the airway epithelium on virus infection could explain the increased susceptibility of CF patients towards respiratory viruses. We used primary bronchial and nasal epithelial cells obtained from 24 healthy control subjects and 18 CF patients. IL-6, IL-8/CXCL8, IP-10/CXCL10, MCP-1/CCL2, RANTES/CCL5 and GRO-α/CXCL1 levels in supernatants and mRNA expression in cell lysates were measured before and after infection with rhinoviruses (RV-16 and RV-1B) and RSV. Cytotoxicity was assessed by lactate dehydrogenate assay and flow cytometry. All viruses induced strong cytokine release in both control and CF cells. The inflammatory response on virus infection was heterogeneous and depended on cell type and virus used, but was not increased in CF compared with control cells. On the contrary, there was a marked trend towards lower cytokine production associated with increased cell death in CF cells. An exaggerated inflammatory response to virus infection in bronchial epithelial cells does not explain the increased respiratory morbidity after virus infection in CF patients.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The role of platelets as inflammatory cells is demonstrated by the fact that they can release many growth factors and inflammatory mediators, including chemokines, when they are activated. The best known platelet chemokine family members are platelet factor 4 (PF4) and beta-thromboglobulin (beta-TG), which are synthesized in megakaryocytes, stored as preformed proteins in alpha-granules and released from activated platelets. However, platelets also contain many other chemokines such as interleukin-8 (IL-8), growth-regulating oncogene-alpha(GRO-alpha), epithelial neutrophil-activating protein 78 (ENA-78), regulated on activation normal T expressed and secreted (RANTES), macrophage inflammatory protein-1alpha (MIP-1alpha), and monocyte chemotactic protein-3 (MCP-3). They also express chemokine receptors such as CCR4, CXCR4, CCR1 and CCR3. Platelet activation is a feature of many inflammatory diseases such as heparin-induced thrombocytopenia, acquired immunodeficiency syndrome, and congestive heart failure. Substantial amounts of PF4, beta-TG and RANTES are released from platelets on activation, which may occur during storage. Although very few data are available on the in vivo effects of transfused chemokines, it has been suggested that the high incidence of adverse reactions often observed after platelet transfusions may be attributed to the chemokines present in the plasma of stored platelet concentrates.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Platelets are known to contain platelet factor 4 and beta-thromboglobulin, alpha-chemokines containing the CXC motif, but recent studies extended the range to the beta-family characterized by the CC motif, including RANTES and Gro-alpha. There is also evidence for expression of chemokine receptors CCR4 and CXCR4 in platelets. This study shows that platelets have functional CCR1, CCR3, CCR4, and CXCR4 chemokine receptors. Polymerase chain reaction detected chemokine receptor messenger RNA in platelet RNA. CCR1, CCR3, and especially CCR4 gave strong signals; CXCR1 and CXCR4 were weakly positive. Flow cytometry with specific antibodies showed the presence of a clear signal for CXCR4 and weak signals for CCR1 and CCR3, whereas CXCR1, CXCR2, CXCR3, and CCR5 were all negative. Immunoprecipitation and Western blotting with polyclonal antibodies to cytoplasmic peptides clearly showed the presence of CCR1 and CCR4 in platelets in amounts comparable to monocytes and CCR4 transfected cells, respectively. Chemokines specific for these receptors, including monocyte chemotactic protein 1, macrophage inflammatory peptide 1alpha, eotaxin, RANTES, TARC, macrophage-derived chemokine, and stromal cell-derived factor 1, activate platelets to give Ca(++) signals, aggregation, and release of granule contents. Platelet aggregation was dependent on release of adenosine diphosphate (ADP) and its interaction with platelet ADP receptors. Part, but not all, of the Ca(++) signal was due to ADP release feeding back to its receptors. Platelet activation also involved heparan or chondroitin sulfate associated with the platelet surface and was inhibited by cleavage of these glycosaminoglycans or by heparin or low molecular weight heparin. These platelet receptors may be involved in inflammatory or allergic responses or in platelet activation in human immunodeficiency virus infection.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Interesse am Deutschlandbild der Polen hat unter den aus Groß- und Zentralpolen, Galizien und Wolhynien stammenden Deutschen eine historische Dimension. Während es in den Jahren bis 1945 darum ging, welches Bild sich die polnischen von ihren deutschen Mitbürgern machen, so hat sich dies anschließend gewandelt. Das Bild des ehemaligen Nachbarn verschmilzt auf Seite der Polen mit kollektiven Vorstellungen vom Nachbarstaat und seinen Bürgern. Daneben tritt eine polnische (Teil-)Wahrnehmung der ehemaligen deutschen Mitbürger als Verräter, Eindringlinge, Kolonisten oder Volksdeutsche. Eine andere Kategorie stellen Persönlichkeiten aus der vornationalen Zeit - Veit Stoß und Nikolaus Kopernikus - dar, die sowohl von den Deutschen als auch von den Polen für ihre Kultur beansprucht werden. Das vorliegende Buch, das aus einer Tagung in Herne im Herbst 2007 hervorgegangen ist, liefert zehn Beiträge zur musealen Darstellung der Geschichte der Deutschen in Polen und zum polnischen Deutschlandbild, die chronologisch von der Sachsenzeit über das 19. Jahrhundert und die Zeit des Nationalsozialismus bis zur unmittelbaren Gegenwart reichen und lokal betrachtet so verschiedene Orte umfassen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Radio Frequency Identification (RFID) beeinflusst unbestritten zahlreiche Anwendungsgebiete und schafft die Grundlage für die zukünftige Entwicklung logistischer Systeme. Von besonderer Bedeutung ist in diesem Zusammenhang die systematische Identifikation von Einsatzpotenzialen für diese Technologie. Bislang existiert hierfür noch keine allgemein verbreitete Methodik. Diese Problematik greift der folgende Beitrag auf und zeigt, wie aus den technischen Grundlagen und analysierten Praxisanwendungen Identifikationskriterien abgeleitet werden können. Die so erarbeiteten Kriterien werden in ihrer Anwendung anhand eines fiktiven Beispiels erläutert und damit exemplarisch eine mögliche Analysemethodik vorgestellt. 1. Einleitung Die produktionswirtschaftlichen Anforderungen an die Unternehmen sind zunehmend geprägt durch Globalisierung und damit durch eine zunehmende Komplexität sowie vertiefte Arbeitsteiligkeit. Es entsteht eine zunehmend breitere Streuung der Fertigungsstandorte und Kooperationsbeziehungen. Es gibt letztlich mehr Lager- und Umschlagprozesse in der Lieferkette. Andererseits bringt der erhöhte Qualitäts- und Kostendruck steigende Fixkosten mit sich, er zwingt zur ständigen Rationalisierung der Materialwirtschaft. Es besteht der Zwang zum Einsatz neuer technisch-elektronischer Mittel zur Kontrolle und Steuerung der logistischen Ketten. Im Lager bedeutet das eine zunehmende Nutzung der Informations- und Kommunikationstechnik zur Lager- und Fertigungssteuerung, auch in Verbindung mit Forderungen der Rückverfolgbarkeit der Produkte. An die Logistikleistungen werden damit Anforderungen wie Schnelligkeit, Qualität und Kostenminimierung gestellt. Letztlich bestehen die Warenbereitstellungs- und Verteilsysteme aus der technischen Grundstruktur, dem Lagertyp und dessen Geometrie sowie der dabei einsetzbaren Bedientechnik und deren kinematischen Daten. Der organisatorische Rahmen dieser Systeme ist gekennzeichnet durch die Nutzung diverser Ein- und Auslagerstrategien, die auch wesentlich Kosten und Leistungen (Umschlagleistung) des zu betrachtenden Lagersystems bestimmen. Aufgrund der genannten Forderungen muss es gelingen, aus dem eingesetzten technischen System durch organisatorisch effizienten Betrieb maximale Leistung bei gleichzeitig minimal eingesetzten Kosten zu erzielen. Neben den Investitionskosten sind bei der Planung von automatischen Lagersystemen die erreichbaren mittleren Spielzeiten der Bedientechnik von entscheidender Bedeutung, um die erforderliche Umschlagleistung des Lagers zu gewährleisten. Hierzu existieren eine Reihe von Berechnungsvorschriften und –normen. Diese Berechnungen berücksichtigen jedoch nicht die Auswirkungen der Lagerorganisation, wie beispielsweise fahrzeitminimale Kombinationen von Ein- und Auslageraufträgen bei Doppelspielen, Zonierungsmaßnahmen, die Auswirkungen von verschiedenen Füllgraden des Lagers oder Lagerplatzstrategien. 2. Stand der Technik 2.1. Lagertypen Abbildung 1: Systematische Einteilung der Lagertypen In Abbildung 1 sind verschiedene Lagertypen dargestellt und nach Kriterien eingeteilt. Soll eine Einschränkung hinsichtlich am Markt häufig vorkommender automatischer Palettenlager getroffen werden, so sind besonders die in der Abbildung hervorgehobenen Typen zu nennen. Eine Auswahl der einzelnen Lagertypen erfolgt dann anhand von Kosten, Umschlagleistung und bei Kompaktlagern vorrangig anhand von Flächen- und Raumnutzungsgrad. Werden die Kostenunterschiede bei Personal, Rechentechnik und Steuerungssoftware in den verschiedenen Lagertypen und -ausführungen der jeweiligen Typen vernachlässigt, unterscheiden sich die Gesamtkosten der Lager lediglich in der Bedientechnik sowie in den statisch bedingten Kosten der Regalkonstruktion. Die wichtigsten Kosteneinflüsse auf die Regale sind wiederum Bauhöhe und Bauart (Regalkonstruktion oder selbsttragendes Bauwerk). Abbildung 2 zeigt die zu erwartenden Umschlagleistungen1) der verschiedenen Lagertypen in Abhängigkeit der benötigten Stellplatzanzahl. Die darauf folgende Abbildung 3 zeigt die zu erwartenden Investitionskosten1) je Stellplatz. Die berücksichtigten Kenngrößen sind nachstehend dargestellt. Die abgebildeten Kurven machen deutlich, dass insbesondere Umschlagleistung der Lager und deren Flächen- bzw. Raumnutzungsgrad gegensätzlich verlaufen. Somit sind auch die Einsatzgebiete der Lagertypen voneinander abgrenzbar. Während Hochregallager für Anwendungsfälle mit hohem Gutumschlag in Frage kommen, werden die Kompaktlager eher in Objekten mit begrenztem Platz oder hohen Raumkosten (bspw. Kühllager) eingesetzt. Somit sind Kompaktlager auch häufig für die Umplanung bzw. der notwendigen Vergrößerung der Lagerkapazität innerhalb einer bestehenden baulichen Hülle interessant. Abbildung 2: Umschlagleistungen der verschiedenen Lagertypen Abbildung 3: Investitionskosten der einzelnen Lagertypen 2.2. Einzel-/ Doppelspiele Um anhand der Technik und der geometrischen Verhältnisse im Lager die höchstmögliche Umschlagleistung zu erzielen, ist es sinnvoll, Doppelspiele (DS) zu generieren. Somit ist nicht wie bei Einzelspielen (ES) je umgeschlagene Ladeeinheit eine Leerfahrt erforderlich, sondern nur je zweiter Ladeeinheit. Das Bediengerät fährt also vom Einlagerpunkt direkt zum Auslagerpunkt, ohne zum Übergabepunkt zurückkehren zu müssen. Diese Vorgehensweise setzt die Kenntnis der nächsten Fahraufträge und gegebenenfalls die Möglichkeit der Veränderung derer Reihenfolge voraus. Für eine Optimierung der Umschlagleistung ist die bei DS entstehende Leerfahrt (Zwischenfahrstrecke) und damit die Zwischenfahrzeit zu minimieren (vgl. 3.5). Nachfolgend beschriebene Untersuchungen beziehen sich jeweils auf Doppelspiele. Abbildung 4: Darstellung der anzufahrenden Lagerplätze in der Regalwand,links: Einzelspiel, rechts: Doppelspiel 2.3. Berechnungsvorschriften für Umschlagleistungen von Lagern Es existieren eine Reihe von Vorschriften zur Berechnung der Umschlagleistung von Lagern, exemplarisch sind drei Berechnungsvorschriften dargestellt. Die Richtlinie VDI 3561 [VDI3561] ermöglicht die Berechnung der Spielzeit auch für Doppelspiele. Dazu werden zwei Referenzpunkte festgelegt, die den Aus- bzw. Einlagerpunkt darstellen. Ein Doppelspiel besteht dann aus der Summe folgender Einzelzeiten: • der Hinfahrt vom Übergabepunkt zum Einlagerpunkt (P1), • der Leerfahrt vom Ein- zum Auslagerpunkt (P2) und der • Rückfahrt vom Auslagerpunkt zum Übergabepunkt (vgl. Abb.4 rechts). Die Summe dieser Einzelzeiten wird danach mit der Summe der Übergabezeiten addiert. Der Unterschied der Richtlinie und der Berechnungsvorschrift nach [Gud00] bestehen im wesentlichen aus der Lage der Ein- und Auslagerpunkte. Fahrzeitberechnung nach VDI 3561 P1 ; P2 Fahrzeitberechnung nach Gudehus 1) P1 ; P2 1)Annahme: Vernachlässigung von Totzeiten, Lastaufnahmefaktor = 1 Wird davon ausgegangen, dass in Abhängigkeit der Gassengeometrie immer nur eine der beiden Fahrzeitanteile (vertikal bzw. horizontal) spielzeitbestimmend ist, so ergeben sich beide Fahrstrecken zu 4/3 der jeweiligen Gesamtabmessung. Der Unterschied der beiden Berechnungsvorschriften liegt lediglich in der Aufteilung der Gesamtfahrstrecke auf die Teilfahrstrecken Hin-, Rück- bzw. Zwischenfahrt. Da jedoch die Fahrzeit zu den Anfahrpunkten in der Regel nicht von der gleichen Fahrzeitkomponente bestimmt wird, kommt es in der Praxis zu Unterschieden im Berechnungsergebnis. Die unter dem Titel „Leistungsnachweis für Regalbediengeräte, Spielzeiten“ stehende Norm FEM 9.851 [FEM9.851] beschäftigt sich ebenfalls mit der Berechnung von Spielzeiten von Regalbediengeräten (RBG). Dabei werden sechs verschiedene Anwendungsfälle generiert, die am häufigsten in der Praxis vorkommen. Diese unterscheiden sich insbesondere in der Lage der Übergabepunkte für die Ein- und Auslagerung. Dabei werden die Punkte sowohl horizontal als auch vertikal verschoben. Es werden hierbei auch Fälle betrachtet, in denen der Auslagerpunkt nicht mit dem Einlagerpunkt übereinstimmt, sich beispielsweise auch an dem gegenüberliegenden Gassenende befinden kann. Wird der einfachste Fall betrachtet, dass sich der Übergabepunkt für die Ein- und Auslagerung übereinstimmend an einer unteren Ecke der Gasse befindet, stimmen die Berechnungsformeln mit [Gud00] weitgehend überein. 2.4. Kritik und Untersuchungsansatz Die Berechnung der mittleren Spielzeit der einzelnen Lagergassen durch die beschriebenen Normen erfolgt in der Regel ohne die Berücksichtigung der Geschwindigkeitsdiagonalen, deren Steigung c durch nachstehendes Verhältnis gegeben ist. 1. Einleitung Eine umfassende Prozessanalyse ist die Grundlage einer jeden erfolgreichen RFID-Anwendung [o.Verf. 2006]. Die Merkmale, die bei einer solchen Untersuchung zu beachten sind, werden allerdings nicht öffentlich diskutiert. Wie Resch in seinem Ansatz zeigt, ist aber gerade die Analysephase von entscheidender Bedeutung für den späteren Erfolg einer RFID-Anwendung (vgl. Abb. 1). Abbildung 1: Fehlende Methodiken der Prozessanalyse [Resch2005] In dieser Phase besteht der größte Gestaltungsfreiraum für die spätere Umsetzung. Da in dieser Phase das größte Optimierungspotenzial einer RFID-Anwendung festgelegt wird, entscheidet sich bereits zu Beginn eines Projektes wie groß der maximal erreichbare Nutzen einer Lösung sein kann. Bisher existieren keine allgemein verbreiteten Methoden und Kriterien zur Identifikation dieser Einsatz-/Nutzenpotenziale. Die Prozessanalyse ist die Basis zukünftiger RFID-Anwendungen und ist daher entsprechend umfangreich durch zu führen. RFID-Einsatzpotenziale werden aktuell nur in Funktionsbereichen kommuniziert. Diese Pauschalisierung engt die Sicht auf potenzielle Anwendungen allerdings sehr stark ein. Dadurch besteht die Gefahr, dass die vorhandenen Nutzenpotenziale indirekt beteiligter Prozesse nicht beachtet werden. Es ist daher zwingend notwendig möglichst alle material- und informationsflussbezogenen Prozesse auf ein RFID-Einsatzpotenzial hin zu untersuchen. D.h. sowohl die Prozesse mit direktem Materialflussbezug (bspw. Wareneingang) als auch die Prozesse, die nur indirekt, über den Informationsfluss, mit dem Materialfluss verknüpft sind (bspw. Disposition). Der vorliegende Beitrag stellt daher einen ersten Ansatz für die Ermittlung allgemeingültiger Analysekriterien für RFID-Einsatzpotenziale. Die vorgestellte Methodik und der daraus entwickelte Kriterienkatalog sollen es ermöglichen, RFID-Anwendungen in der Analysephase auf ein möglichst vollständiges Nutzengerüst zu stellen und so den maximalen Nutzen einer Anwendung systematisch zu ermitteln. 2. Identifikationskriterien 2.1. Methodik Basierend auf der Überlegung die Kriterien sowohl theoretisch als auch auf Basis von Praxiserfahrungen zu entwickeln, dienen neben der Betrachtung technischer Grundlagen auch Analysen von realisierten Anwendungen und Pilotprojekten als Basis der Kriterienentwicklung. Abbildung 2 zeigt die grundsätzliche Methodik hinter der Entwicklung der Kriterien. Dabei zeigt sich, dass aus dem gewählten Ansatz zwangsläufig zwei differierende Typen von Kriterien entwickelt werden müssen. Technische Kriterien, aus den Grundlagen der RFID beziehen sich vor allem auf das vorherrschende Prozessumfeld. Frequenzspezifische Eigenschaften (Leistungsdaten) und allgemeine, also frequenzübergreifende Eigenschaften der RFID-Technik bilden die Ausgangsbasis für diese Kriteriengruppe. Dabei werden diese technologischen Eigenschaften in Prozessmerkmale überführt, anhand derer im konkreten Prozessumfeld eine Technologieauswahl durchgeführt werden kann. So können potenzielle RFID-Anwendungen auf eine prinzipielle Anwendbarkeit hin überprüft werden. Abbildung. 2: Vorgehen zur Entwicklung der Identifikationskriterien [Resch2005] Die zweite Gruppe der Kriterien, die organisatorischen Kriterien, werden aus Praxiserfahrungen abgeleitet. Basis dieser Analyse sind Prozesse aus realisierten Anwendungen und Pilotprojekten. Dieser praxisbasierte Teil stellt prozessbezogene Merkmale zusammen, deren Schwerpunkt auf prozessspezifischen organisatorischen Merkmalen, bspw. Durchsatz, oder auch Dokumentationsaufwand liegt. Die ausgewählten Praxisbeispiele sind nach ihren individuellen Prozessmerkmalen analysiert worden. Die Ergebnisse wurden stichpunktartig zusammengefasst, in übergeordnete Kategorien gruppiert und abschließend nach ihrem Flussbezug gegliedert. RFID-Anwendungen beeinflussen sowohl materialflussbezogene Prozesse, als auch direkt oder auch indirekt verknüpfte informationsflussbezogene Prozesse. Daher erfolgt eine Ordnung der identifizierten Kriteriengruppen nach ihrem Flussbezug, um so einem Anwender die Betrachtungsweise nachhaltig zu verdeutlichen und die Analyse zu vereinfachen. 2.2. Praxisbeispiele Die analysierten Praxisbeispiele sind zum Großteil in der Automobilindustrie realisiert (vgl. Abb. 3). Die weiteren Anwendungen sind aus der Instandhaltung sicherheitsrelevanter technischer Gebäudeausrüstung, aus einem Hochregallager eines Logistikdienstleisters sowie aus der Luftfahrtindustrie. Abbildung 3: Branchenspezifische Verteilung der Praxisbeispiele Die Auswahl der Praxisbeispiele ist bewusst auf die Automobilindustrie fokussiert. Dieser Industriezweig hat in Deutschland bereits einige Anwendungen und eine Vielzahl an Pilotprojekten initiiert. Die Bandbreite der realisierten Projekte ist sehr groß und deckt daher viele verschiedene Anwendungsfälle ab. Die Ergebnisse der Untersuchung sind aber auch auf andere Branchen übertragbar, da die untersuchten Praxisprojekte Situationen abbilden, die ebenfalls leicht zu übertragen sind. Die analysierten Anwendungen bilden ein sehr breites Feld an Einsatzszenarien ab. Anwendungen mit massenhaften Stückzahlen sind ebenso vertreten, wie Anwendungen mit hohem Spezialisierungscharakter. Die Anwendungen reichen dabei von einfachen Pilotprojekten im Ladungsträgermanagement, bis hin zu komplexen Anwendungen im Bereich der Produktionssteuerung und der unternehmensübergreifenden Koordination von Materialflüssen. Insgesamt verteilen sich die analysierten Anwendungen auf drei Schwerpunktbereiche. Abbildung 4 stellt die Anwendungsbereiche in einer Übersicht zusammen. Abbildung 4: Übersicht der Anwendungsgebiete aus den Praxisanwendungen Anwendungen aus den Bereichen der Produktionssteuerung und des Materialflusses sind dabei am häufigsten vertreten. Während die Anwendungen aus dem Bereich der Instandhaltung, bzw. dem Qualitätsmanagement, meist mit der Hauptanwendung aus dem Bereich der Produktionssteuerung verknüpft sind. So wird bspw. die Dokumentationen der einzelnen Fertigungsstationen i.d.R. sowohl zur Fertigungssteuerung als auch zur Qualitätssicherung genutzt. 2.3. Ergebnisse der Praxisanalyse Die Analyse der Praxisanwendungen brachte in einem ersten Schritt eine Fülle an spezifischen Merkmalen zusammen. Jeder analysierte Prozess wies seine eigenen Merkmale auf, die aber dem Grundsatz nach systematisiert werden konnten. Die so erarbeiteten Merkmale wurden in einem zweiten Schritt gruppiert. Insgesamt ergaben sich fünf Gruppen, die jeweils nach einer, durch die RFID-Technik durchgeführte Funktion benannt sind. Um eine Prozessanalyse mit Hilfe der Kriterien zu erleichtern, ist jede Gruppe ihrem übergeordneten Flusssystem zugeordnet worden. Nachstehende Abbildung 5 zeigt die einzelnen Gruppierungen mit ihrem jeweiligen Flussbezug. Dabei sind jeder Gruppe beispielhafte Merkmale zugeordnet. Abbildung 5: Organisatorische Kriterien zur Identifikation von RFID-Einsatzpotenzialen Die vorliegende Systematisierung von Identifikationskriterien deckt sowohl Aspekte des reinen Materialflusses, als auch die Aspekte der zugehörigen Informationsflüsse ab. Dabei verhält sich der Flussbezug in jeder Kriteriengruppe unterschiedlich. Die Kriterien der Gruppe Identifikation befassen sich ausschließlich mit dem Identifikationsvorgang. Dabei können die erarbeiteten Kriterien in zwei Arten unterschieden werden, quantitative und qualitative Kriterien. Qualitativ messbar sind Kriterien, die sich auf die Anzahl der Identifikationsvorgänge beziehen. Bspw. die Anzahl der Identifikationsvorgänge im betrachteten Prozessverlauf, bezogen auf ein Identifikationsobjekt oder die Anzahl der Identifikationsvorgänge pro Zeiteinheit an einem Identifikationspunkt innerhalb des Prozessverlaufs. Gleichzeitig umfasst diese Gruppe aber auch Kriterien, die nur qualitativ zu bewerten sind. Kriterien wie die Bedeutung einer exakten Identifikation einzelner Teile im Prozess oder auch der aktuelle Aufwand der Identifikation im Prozess lassen sich nur bedingt oder nicht quantifizieren. Diese Kriteriengruppe fokussiert mit ihren Merkmalen vor allem den Materialfluss. Die einzelnen Merkmale beziehen sich auf den tatsächlichen Identifikationsvorgang und nicht auf die zugehörigen Informationsflüsse. Unter dem Begriff Transparenz sind Kriterien gruppiert, die sich mit der Verfolgbarkeit und Übersichtlichkeit von Prozessen befassen. Dabei gilt es sowohl die Bedeutung für den aktuellen Prozess als auch für die abhängigen Prozesse zu ermitteln. Transparenz bzw. die fehlende Transparenz ist der Kern dieser Kriteriengruppe. Qualitative Kriterien sind in dieser Kategorie besonders stark vertreten, da vor allem die Bedeutung bestimmter Aspekte der Prozesstransparenz als Kriterium dient. Prozesstransparenz liegt i.d.R. nicht vor oder wird nur über komplexe Systeme erreicht. Die Bewertung dieser Kriteriengruppe ist höchst variabel, da Prozesstransparenz in ihrer Bedeutung höchst individuell ist, d.h. von Prozess zu Prozess stark variiert. Die Gruppe Konfiguration fasst Merkmale zusammen, die auf objektspezifische Anpassungsarbeiten im Prozessverlauf hinweisen. Diese Tätigkeiten sind i.d.R. mit einem quantifizierbaren Aufwand verbunden und können so leicht erfasst werden. Die RFID-Technologie eröffnet hier, ähnlich wie im Bereich der Identifikation, Chancen zur Automatisierung bestehender Prozesse. Die Kriterien konzentrieren sich in ihrer Zielrichtung daher schwerpunktmäßig auf die Untersuchung von Potenzialen hinsichtlich der Automation von Konfigurationsvorgängen. Ähnlich wie die vorstehende Gruppe der Transparenz, besitzt diese Gruppe ebenfalls einen starken Bezug zu beiden Flusssystemen. In beiden Gruppen liegt der Fokus der betrachteten Merkmale sowohl auf dem Materialfluss und den physischen Aktionen als auch auf den zugehörigen Informationsflüssen mit entsprechenden Tätigkeiten. Die vierte Gruppe Zuordnung enthält primär Merkmale, die sich auf den Informationsfluss beziehen. Im Vordergrund steht die Art und Weise in der innerhalb eines Prozesses Materialflüsse zwischen Quelle und Senke koordiniert werden. Diese Gruppe enthält ebenfalls sowohl qualitativ als auch quantitativ zu bewertenden Merkmale. RFID-Technik kann hier zu einer deutlichen Komplexitätsreduktion, einer Automation sowie der Reduktion von Stillstands- u. Wartezeiten führen. Die letzte Gruppe Datenverwendung und Dokumentation befasst sich beinahe ausschließlich mit Aspekten des Informationsflusses. Als beinahe Komplementär zur Gruppe der Identifikation stehen hier die informationsflussbezogenen Handlungen, ausgelöst durch einen zugehörigen Materialfluss in der Betrachtung. Dabei stehen vor allem Fehlerraten, manuelle Aufwende der Datenverarbeitung und die Anzahl an Medienbrüchen im Informationsfluss im Vordergrund. Auch hier existiert wiederum ein Geflecht aus qualitativen und quantitativen Kriterien, deren Bewertung individuell durchzuführen ist. 2.4. Technische Kriterien Ergänzt werden die organisatorischen Kriterien um die technischen Kriterien. Diese Kriterien leiten sich aus den technischen Grundlagen der RFID-Technik ab. Diese Grundlagen sind zum einen die Eigenschaft der kontakt- und sichtlosen Übertragung von Energie und Daten, zum anderen der physische Aufbau der Komponenten eines RFID-Systems, dem Reader und dem Transponder. Des Weiteren definieren die frequenzspezifischen Eigenschaften der verschiedenen RFID-Systeme unterschiedliche Leistungsparameter, aus denen technische Kriterien abgeleitet werden können. Daraus ergibt sich die logische Trennung in frequenzabhängige und frequenzunabhängige Kriterien. Auszüge dieser Kriterien zeigt nachstehende Abbildung 6 Abbildung 6: Technische Kriterien Die technischen Kriterien dienen eher zur Technologieauswahl, als zu einer reinen Potenzialidentifikation, da ausschließlich limitierende Aspekte der Technologie betrachtet werden. Einflüsse, bedingt durch die genutzte technische Ausrüstung (bspw. metallische Lagertechnik) oder verfahrensbedingte Einflüsse (elektromagnetische Felder, Schweißroboter, o.ä.), werden über diese Kriterien abgebildet und finden so Berücksichtigung in den zu entwickelnden RFID-Szenarien. Die Wirkung dieser Kriterien hängt stark von dem jeweiligen Stand der Technik ab. Galt bspw. der Einsatz von 13,56 MHz Transpondern direkt auf Metall vor fünf Jahren noch als nicht möglich, so ist die Technik mittlerweile so weit entwickelt, dass auch Lösungen in diesem Bereich angeboten werden. Daher muss festgehalten werden, dass die frequenzabhängigen technischen Kriterien im Zeitverlauf variabel in ihrer Wirkung sind und sich mit dem technischen Fortschritt der RFID-Hardware verändern. Atmosphärische Einflüsse auf die RFID-Hardware sind generell für alle Varianten (unabhängig von der Betriebsfrequenz) der RFID-Technik zu beachten. Der Einfluss der Umgebungsbedingungen auf die Integrität der Hardware ist immer zu berücksichtigen. Temperatur, Druck und Staubbelastung sind hier die Hauptgruppen äußerer Einflüsse auf die RFID-Hardware. Auch diese Gruppe der technischen Kriterien muss mit der sich verändernden technischen Leistungsfähigkeit in ihrer Bewertung angepasst werden. 3. Anwendung der Kriterien 3.1. Anwendungsbeispiel Die Anwendung der Kriterien wird im Folgendem anhand eines kurzen Beispiels erläutert. Nachstehende Abbildung 7 zeigt Ausschnitte aus einem fiktiven Prozess innerhalb eines Großlagers. Abbildung 7: Fiktiver Prozess Von der Entladung des LKW bis zur Einlagerung der Paletten ist der Prozess in vier grobe Phasen strukturiert. Zur Identifikation von RFID-Einsatzpotenzialen werden die einzelnen Prozesselemente nach dem in Tabelle 1dargestellten Schema untersucht. Tabelle 1: Exemplarische Anwendung der Kriterien an einem ausgewählten Beispiel Kriteriengruppe Kriterium Einheit Prozesselement Entladen des LKW Bezugsobjekt LKW Palette Identifikation Anzahl ID - Vorgänge pro Objekt 1/Stck. 2 1 Anzahl ID - Objekte im Zeitraum Stck./ZE 25/h 10/min Transparenz Bedeutung exakter Prozesszeiterfassung Qual. Hoch Hoch intransparente Prozessabschnitte ja/nein Ja Ja Konfiguration Anzahl objektspez. Konfigurationsarbeiten 1/Stck. 0 0 Manueller Anteil der Konfiguration Qual. - - Zuordnung Fehleranteil der Zuordnung Q/S Qual. Mittel Gering Komplexität der Zuordnung Q/S Qual. Hoch Hoch Datenverwendung und Dokumentation Anzahl der Änderungen objektspezifischer Daten im Prozess 1/Stck. 8 (6-7) 2 Anzahl der Medienbrüche im Prozess 1/Stck. - - Die Tabelle zeigt, wie einzelne Prozesselemente mit Hilfe der Identifikationskriterien analysiert werden können. Dabei ergeben sich aus den Ausprägungen der einzelnen Kriterien die Nutzenpotenziale auf deren Basis sich eine spätere RFID-Anwendung gestalten und bewerten lässt. Für die Analyse der einzelnen Prozesselemente ist es notwendig, die Kriterien auf ein Bezugsobjekt zu beziehen. Dieses Bezugsobjekt stellt den potenziellen Träger des Transponders dar. Dabei ist zu beachten, dass innerhalb eines Prozesses mehrere Bezugsobjekte vorhanden sein können. Die Analyse muss daher für jedes Bezugsobjekt einzeln durchgeführt werden. Die Zusammenfassung der Analyseergebnisse pro Bezugsobjekt, über die zusammengehörigen Prozesselemente zeigt die Nutzenpotenziale innerhalb der einzelnen Prozesse. 3.2. Verwendung der Ergebnisse und Bewertungsmöglichkeiten identifizierter Einsatzpotenziale Im vorstehenden Absatz wurde gezeigt, wie die erarbeiteten Kriterien zur Prozessanalyse genutzt werden können. Aus der Analyse ergeben sich Nutzenpotenziale für den RFID-Einsatz. Inwieweit diese erkannten Potenziale tatsächlich zu einer wirtschaftlichen RFID-Anwendung führen, muss in einem zweiten Schritt geprüft werden. Dabei muss festgestellt werden, dass es keine RFID-Lösung „von der Stange“ gibt [Lammers2006]. Jede Anwendung muss individuell auf Wirtschaftlichkeit geprüft werden. Dabei spielen vor allem die Kriterien eine starke Rolle, die nur qualitativ erfasst werden können, z. B. die Bedeutung einer exakten Erfassung der Prozesszeit. Quantitativ erfassbare Kriterien sind vergleichsweise einfach in der wirtschaftlichen Beurteilung, obwohl auch für diese Art Kriterium keine allgemein gültigen Richtwerte zur Beurteilung existieren. Zu groß sind hier die Unterschiede zwischen einzelnen Prozessen und den möglichen Einspareffekten, bedingt durch differierende Kostentreiber und Anforderungen an Leistungsfähigkeiten. Weiterhin müssen sowohl qualitative als auch quantitative Kriterien immer im Zusammenhang gesehen werden. Nur dann kann der potenzielle Nutzen einer RFID-Anwendung vollständig ermittelt werden. Erst aus der Kombination dieser beiden Faktorgruppen ergibt sich das maximale Nutzenpotenzial einer RFID-Anwendung. Vor diesem Hintergrund sind die einzelnen Nutzenpotenziale zu erfassen, daraus mögliche RFID-Szenarien zu entwickeln und diese Szenarien einer abschließenden, detaillierten Wirtschaftlichkeitsanalyse zu unterziehen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wendelfördersysteme werden vorrangig in Kläranlagen für Rechengut und Klärschlamm, in der Abfallverwertung und -entsorgung, in der Holzindustrie (Späne und Hackschnitzel), in der Lebensmittelindustrie und Landwirtschaft (Saatgut), in der Zellstoff-, Papier- und Bauindustrie (Mörtel) u. a. eingesetzt. In der modernen Kreislaufwirtschaft und in der Altlastensanierung (Altdeponieaufbereitung u. a.) ist der Einsatz von Wendelförderern besonders angezeigt. Somit ist die Bedeutung des Wendelförderers als Gliedes in der logistischen Kette der Abfallverwertungsbetriebe sehr groß. Der Vortrag erläutert die Rolle des Wendelförderers in der logistischen Kette der Entsorgungswirtschaft. Es werden die Ergebnisse der experimentellen Untersuchung sowie der DEM-Simulation von Wendelförderern vorgestellt und diskutiert, welche Chancen und Möglichkeiten sich für eine verbesserte Auslegung des Wendelförderers ergeben.