6 resultados para Steuerungssystem
Resumo:
Die in den Betrieben häufig mit hohem gerätetechnischen und organisatorischem Aufwand installierten EDV-gestützten Informationssysteme zur Planung und Steuerung des Fertigungsprozesses genügen im allgemeinen nicht den an sie gestellten Anforderungen. Die Gründe dafür liegen in der Hauptsache in einem falschen Modellansatz und der mangelnden Datenqualität der eingesetzten Daten, verbunden mit einer unzureichenden Rückkopplung zwischen Vorgabe und Rückmeldung. Hinzu kommen das Fehlen geeigneter Aussagen (Kenngrößen) zur gezielten Beeinflussung des Prozesses und Akzeptanzprobleme der Mitarbeiter beim Umgang mit der EDV. Die genannten Schwachstellen geben die Richtung der Zielsetzung dieser Arbeit vor. Dieses Ziel bestand zunächst darin, eine Methode zu entwickeln, mit der die Anforderungen an die in einem Industriebetrieb zur Planung, Steuerung und Überwachung verwendeten Daten zu formulieren sind, um dann eine anforderungsgerechte Abstimmung dieser Daten im betrieblichen Datenfluß im Sinne eines kybernetischen Regelkreises vorzunehmen und Aussagen über die betrieblichen Zielgrößen zu erhalten. Aus der Vielzahl betrieblicher Vorgänge und Funktionsbereiche wurde der Fertigungsprozeß bei der Werkstättenfertigung im Produktionsbetrieb deshalb ausgewählt, weil hier in der Praxis wegen der Komplexität der Abläufe die höchsten Anforderungen an die Daten gestellt werden und deshalb auch die meisten Probleme bei der Erfüllung dieser Anforderungen auftreten. Außerdem ist die Fertigung nach dem Werkstättenprinzip am häufigsten in der Praxis anzutreffen. Als erstes war es nötig, die zeitlichen, quantitativen und qualitativen Anforderungen an die Daten aus einer Vielzahl durchgeführter Schwachstellenanalysen herauszuarbeiten und zu definieren. Die nächste Aufgabe bestand darin, die Einflußgrößen auf die Datenanforderungen, hier unterteilt in innere (datumsbezogene) und äußere (prozeßbezogene) zu bestimmen und in ihren Auswirkungen zu untersuchen. Die Betrachtung der Einflußgrößen ergab, daß die Aufgabe und die Verwendung des Datums im Prozeß für die Ermittlung der Anforderungen exakt bestimmt werden müssen. Aus diesem Grund war der Prozeß primär- und sekundärseitig in Abhängigkeit der Aufgabenstellung ausführlich zu beschreiben. Die Einflüsse der Aufbauorganisation waren ebenso wie die der Ablauforganisation zu berücksichtigen, darunter fielen auch die Auswirkungen der Automatisierungsansätze, z.B. durch den Einsatz flexibler Fertigungssysteme im Primärprozeß. Der Ansatz, von dem hier ausgegangen wurde, baut sich deshalb im ersten Schritt der vorgeschlagenen Vorgehensweise auf dem Modell eines Produktionssystems auf, das aus den Erkenntnissen von in mehreren Firmen durchgeführten Prozeßanalysen entwickelt wurde. In diesem Modell ist der Datenfluß und organisatorische Ablauf im Fertigungsprozeß in Matrixform festgehalten. Für jedes einzelne Prozeßdatum sind in der Matrix, bezogen auf die Aufgabenstellung, detailliert die Verwendungs- und Verflechtungsbeziehungen aufgezeichnet. Im zweiten Schritt erfolgt auf der Grundlage dieses Modells eine bedarfsgerechte Prozeßdatenauswahl. Die zeitliche Struktur des Datenflusses im Prozeß wird in Schritt drei mit Hilfe eines Ereignis-Zeitgraphens dargestellt. Die eigentliche zeitliche, quantitative und qualitative Anforderungsermittlung findet im vierten und gleichzeitig letzten Schritt anhand einer dafür entworfenen Datenanforderungsliste statt. Die Ergebnisse dieser anforderungsgerechten Datenanalyse nach der hier entwikkelten Systematik können in vielerlei Hinsicht Verwendung finden. Im Hinblick auf die eingangs genannten Problemstellungen sind beispielsweise folgende Einsatzmöglichkeiten denkbar und an Beispielen im einzelnen erläutert. - Verbesserung der Datenqualität - Rückkopplung im Sinne des kybernetischen Regelkreismodells - Bilden von Prozeßkenngrößen - Transparenz der EDV-Prozeßabläufe
Resumo:
The main concern of the A4 parity violation experiment at the Mainzer Microtron accelerator facility is to study the electric and magnetic contributions of strange quarks to the charge and magnetism of the nucleons at the low momentum transfer region. More precisely, the A4 collaboration investigates the strange quarks' contribution to the electric and magnetic vector form factors of the nucleons. Thus, it is important that the A4 experiment uses an adequate and precise non-destructive online monitoring tool for the electron beam polarization when measuring single spin asymmetries in elastic scattering of polarized electrons from unpolarized nucleons. As a consequence, the A4 Compton backscattering polarimeter was designed and installed such that we can take the absolute measurement of the electron beam polarization without interruption to the parity violation experiment. The present study shows the development of an electron beam line that is called the chicane for the A4 Compton backscattering polarimeter. The chicane is an electron beam transport line and provides an interaction region where the electron beam and the laser beam overlap. After studying the properties of beam line components carefully, we developed an electron beam control system that makes a beam overlap between the electron beam and the laser beam. Using the system, we can easily achieve the beam overlap in a short time. The electron control system, of which the performance is outstanding, is being used in production beam times. And the study presents the development of a scintillating fiber electron detector that reduces the statistical error in the electron polarization measurement. We totally redesigned the scintillating fiber detector. The data that were taken during a 2008 beam time shows a huge background suppression, approximately 80 percent, while leaving the Compton spectra almost unchanged when a coincidence between the fiber detector and the photon detector is used. Thus, the statistical error of the polarization measurement is reduced by about 40 percent in the preliminary result. They are the significant progress in measuring a degree of polarization of the electron beam.
Resumo:
Mit der Erweiterung des Elektronenbeschleunigers MAMI um eine dritte Stufe ist es möglich geworden, am Institut für Kernphysik Teilchen mit offener Strangeness zu produzieren. Für deren Nachweis ist die Drei-Spektrometeranlage der Kollaboration A1 um das von der GSI in Darmstadt übernommene KAOS-Spektrometer erweitert worden. Untersucht wird damit die elementare Reaktion p(e,e' K+)Lambda/Sigma0 wobei das auslaufende Elektron und das Kaon nachgewiesen werden müssen. Wird als Target nicht Wasserstoff verwendet, besteht die Möglichkeit dass sich ein Hyperkern bildet. Spektroskopische Untersuchungen an diesen bieten die Möglichkeit das Potential von Hyperonen in Atomkernen und die Hyperon-Nukleon-Wechselwirkung zu untersuchen. Aufgrund der hervorragenden Strahlqualität bei der Elektroproduktion können hier Massenauflösungen von einigen hundert keV/c² erreicht werden. Mit Hilfe von GEANT4 wurden die Detektoren und die Abbildungseigenschaften des Spektrometers simuliert. Geeignete Ereignisgeneratoren wurden implementiert. Es wurde untersucht, wie mögliche Treffermuster in den Detektoren aussehen, die von einem Trigger auf FPGA-Basis selektiert werden müssen. Ebenso konnte hieraus eine erste Abbildung der Spurkoordinaten auf die Targetkoordinaten und den Teilchenimpuls gewonnen werden. Für das Hyperkernprogramm muss KAOS unter 0° Vorwärtsrichung betrieben werden und der Primärstrahl mit Hilfe einer Schikane durch den Dipol gelenkt werden. Die Simulation zeigt hier eine nur moderate Erhöhung der Strahlenbelastung, vor allem im Bereich des Strahlfängers. Somit ist es möglich, KAOS als doppelseitiges Spektrometer in der Spektrometerhalle zu betreiben. Im Rahmen dieser Arbeit wurden die für sämtliche Detektoren nötige Auslese- und Steuerungselektronik in das vorhandene Datenerfassungssystem und das Steuerungssystem eingebunden. In zwei Strahlzeiten im Herbst 2008 wurden Kaonen im Winkelbereich von 20°-40° mit Impulsen zwischen 400MeV/c und 600MeV/c nachgewiesen. Die aus der Simulation gewonnenen Daten zum Trigger und zur Abbildung kamen zum Einsatz. Es konnte die für eine gute Teilchenidentifikation nötige Zeitauflösung von ca. 1ns FWHM erreicht werden. Die erreichte Winkel- und Impulsauflösung war ausreichend um Lambda und Sigma0-Hyperonen im Spektrum der fehlenden Masse leicht trennen zu können.
Resumo:
Die Steuerung logistischer und produktionstechnischer Systeme ist heute durchgängig hierarchisch organisiert. Auch dezentrale und wandelbare Systeme mit eingebetteten fraktalen oder adaptiven Elementen oder Regelkreisen lassen sich in ihrer Gesamtheit stets auf eine zeitgenaue zentrale Planung zurückführen. „Realtime Logistics“ bezeichnet im Gegensatz hierzu die echtzeitnahe Materialflusssteuerung auf Basis einer autonomen, selbstgesteuerten Abwicklung der im einzelnen logistischen Objekt implementierten Mission. Hierzu werden mobile Softwareagenten eingesetzt, die zunächst synchron zum Objekt, und in Zukunft eingebettet im logistischen Objekt, laufen werden.
Resumo:
Der Lehrstuhl Förder- und Lagerwesen der Universität Dortmund hat zusammen mit einem Industriepartner ein neuartiges, dezentrales Steuerungssystem entwickelt. In diesem modularen, hochflexiblen System wird der gesamte Material¬fluss durch dezentral organisierte, autonome Einheiten in Echtzeit gesteuert. Das System wurde erfolgreich in eine am Lehrstuhl betriebene Stückgutförder- und Sortieranlage integriert, welche als Prototyp dient und für weitere Forschungen im Bereich dezentrale Automatisierung zur Verfügung stehen wird. Dieses Dokument beschreibt die Zielsetzung und Implementierung des dezentralen Steuerungssystems.
Resumo:
Rezension von: Andreas Knoke / Anja Durdel (Hrsg.): Steuerung im Bildungswesen, Zur Zusammenarbeit von Ministerien, Schulaufsicht und Schulleitungen, Wiesbaden: VS Verlag für Sozialwissenschaften 2011 (166 S.; ISBN 978-3-531-17888-2)