992 resultados para Königliche Lyceum und Gymnasium zu Aschaffenburg.
Resumo:
Das operative Torbelegungsproblem (TBP) z. B. an einem Distributions- oder Cross-dockingzentrum ist ein logistisches Problem, bei dem es gilt, an- und abfahrende Fahrzeuge zeitlich und räumlich so auf die Warenein- und -ausgangstore zu verteilen, dass eine mög-lichst kostengünstige Abfertigung ermöglicht wird. Bisherige Arbeiten, die sich mit dem TBP beschäftigen, lassen Aspekte der Kooperation außer Acht. Dieser Beitrag stellt ein Verfahren vor, durch das der Nachteil einseitig optimaler Torbelegungen überwunden werden kann. Dabei wird auf das Mittel der kombinatorischen Auktionen zurückgegriffen und das TBP als Allokationsproblem modelliert, bei dem Frachtführer um Bündel konsekutiver Einheitszeit-intervalle an den Toren konkurrieren. Mittels eines Vickrey-Clarke-Groves-Mechanismus wird einerseits die Anreizkompatibilität, andererseits die individuelle Rationalität des Auk-tionsverfahrens sichergestellt. Das Verfahren wurde in ILOG OPL Studio 3.6.1 implemen-tiert und die durch Testdaten gewonnenen Ergebnisse zeigen, dass die Laufzeiten gering genug sind, um das Verfahren für die operative (kurzfristige) Planung einzusetzen und so transportlogistische Prozesse für alle Beteiligten wirtschaftlicher zu gestalten.
Resumo:
Calciumphosphate werden auf Grund ihrer chemischen und strukturellen Ähnlichkeit mit der mineralischen Phase des humanen Knochens und ihrer osteokonduktiven Eigenschaften seit langem als Implantatmaterialien eingesetzt. Auf Basis dieser Stoffklasse war es unser Ziel, patientenspezifische Implantate mit individuell angepasster, komplexer Geometrie und Strukturierung zu entwickeln, die sich möglichst exakt in den Knochendefekt einpassen lassen und damit zu einer Stabilisierung des Knochenlagers beitragen.
Resumo:
Die enormen Fortschritte der Rechentechnik in den vergangenen 60 Jahren ermöglichten vielfältige Berechnungen, Simulationen und nicht zu letzt 3D-Konstruktionen sowie deren einheitliches Beschreiben mittels 3D-Flächendaten. Ebenso wurde es möglich real existierende Gegenstände zu vermessen und als 3D-Geometrie datentechnisch zu hinterlegen.
Resumo:
Rapid Manufacturing (RM) wurde als Schlagwort in der letzten Zeit insbesondere aus dem Bereich des Selective Laser Sintering (SLS) bekannt. In dieser inzwischen über 15-jährigen Technologieentwicklung wurden in den vergangenen Jahren bedeutende Fortschritte erzielt, die die Bauteileigenschaften nahe an die Anforderungen für End-Teile heran brachten. So ist das RM denn auch weniger aus der Sicht grösserer Losgrösse zu verstehen. Viel mehr bedeutet Rapid Manufacturing, dass die Bauteile nach einer generativen Fertigung direkt im Endprodukt resp. der Endanwendung zum Einsatz kommt. Das Selective Laser Melting, mit welchem aus metallischen Pulvermaterialien direkt Metallteile in Standardmaterialien hergestellt werden können, ist aufgrund der guten Materialeigenschaften für RM prädestiniert. In den ersten Anwendungsfeldern des SLM–Verfahrens standen die Herstellung von Werkzeugeinsätzen mit konturnaher Kühlung (Conformal Cooling) im Vordergrund, wobei diese Werkzeuge unter dem Begriff RM verstanden werden müssen, da die Werkzeuge direkt für die Endanwendung - den Spritzgussprozess - verwendet werden. Aktuelle Trends gehen jedoch in Richtung der Fertigung von Funktionsteilen z.B. für den Maschinenbau. Obwohl sich in der Fertigung komplexer Funktionsteile noch Probleme, z.B. mit in Bezug auf die generative Baurichtung überhängender Bauteilstrukturen ergeben, zeigen sich trotzdem erhebliche Vorteile eines RM mittels SLM. Neben klaren Vorteilen durch das mögliche Customizing von Bauteilen können bei kleineren Bauteilgrössen auch erhebliche Kostenvorteile erzielt werden. Allerdings zeigen die Grenzen der aktuellen Möglichkeiten, in welchen Bereichen das SLM-Verfahren weiterer Entwicklung bedarf. Themen wie Produktivität, die Problematik der nach wie vor notwendigen Supportstrukturen wie auch Qualitätssicherung müssen in den nächsten Jahren angegangen werden, wenn dieses Verfahren den Schritt hin zu einem etablierten Produktionsverfahren und damit zu breiterer Akzeptanz und Anwendung finden soll
Resumo:
Der Schlüssel zu Produktivität und Qualität in zahlreichen abformenden Prozessen ist eine optimale Temperierung, die bedingt, dass die Kühl- und Heißkanäle der Oberfläche angepasst sind. Eine Hauptrolle um Durchlaufzeiten und Werkzeugkosten zu senken und die Qualität zu steigern spielt die wirtschaftliche Erwärmung und Kühlung der Teile. Konventionelle Arten der Temperierung können diesen Anforderungen nicht gerecht werden. Der vorliegende Beitrag beschäftigt sich mit zwei neuen Prozesskombinationen: a) Intelligente Werkzeugtechnik mit erfolgreicher industrieller Anwendung, hauptsächlich für Spritz- und Druckgusswerkzeuge. b) Neue Prozessketten für Formen mit geöffnetem Formstück oder RTM (englisch: Resin Transfer Moulding) mit Verwendung der inkrementellen Blechumformung
Resumo:
Der Schlüssel zu Produktivität und Qualität in zahlreichen abformenden Prozessen ist eine optimale Temperierung, die bedingt, dass die Kühl- und Heißkanäle der Oberfläche angepasst sind. Eine Hauptrolle um Durchlaufzeiten und Werkzeugkosten zu senken und die Qualität zu steigern spielt die wirtschaftliche Erwärmung und Kühlung der Teile. Konventionelle Arten der Temperierung können diesen Anforderungen nicht gerecht werden. Der vorliegende Beitrag beschäftigt sich mit zwei neuen Prozesskombinationen: a) Intelligente Werkzeugtechnik mit erfolgreicher industrieller Anwendung, hauptsächlich für Spritz- und Druckgusswerkzeuge. b) Neue Prozessketten für Formen mit geöffnetem Formstück oder RTM (englisch: Resin Transfer Moulding) mit Verwendung der inkrementellen Blechumformung.
Resumo:
Ein auf Basis von Prozessdaten kalibriertes Viskositätsmodell wird vorgeschlagen und zur Vorhersage der Viskosität einer Polyamid 12 (PA12) Kunststoffschmelze als Funktion von Zeit, Temperatur und Schergeschwindigkeit angewandt. Im ersten Schritt wurde das Viskositätsmodell aus experimentellen Daten abgeleitet. Es beruht hauptsächlich auf dem drei-parametrigen Ansatz von Carreau, wobei zwei zusätzliche Verschiebungsfaktoren eingesetzt werden. Die Temperaturabhängigkeit der Viskosität wird mithilfe des Verschiebungsfaktors aT von Arrhenius berücksichtigt. Ein weiterer Verschiebungsfaktor aSC (Structural Change) wird eingeführt, der die Strukturänderung von PA12 als Folge der Prozessbedingungen beim Lasersintern beschreibt. Beobachtet wurde die Strukturänderung in Form einer signifikanten Viskositätserhöhung. Es wurde geschlussfolgert, dass diese Viskositätserhöhung auf einen Molmassenaufbau zurückzuführen ist und als Nachkondensation verstanden werden kann. Abhängig von den Zeit- und Temperaturbedingungen wurde festgestellt, dass die Viskosität als Folge des Molmassenaufbaus exponentiell gegen eine irreversible Grenze strebt. Die Geschwindigkeit dieser Nachkondensation ist zeit- und temperaturabhängig. Es wird angenommen, dass die Pulverbetttemperatur einen Molmassenaufbau verursacht und es damit zur Kettenverlängerung kommt. Dieser fortschreitende Prozess der zunehmenden Kettenlängen setzt molekulare Beweglichkeit herab und unterbindet die weitere Nachkondensation. Der Verschiebungsfaktor aSC drückt diese physikalisch-chemische Modellvorstellung aus und beinhaltet zwei zusätzliche Parameter. Der Parameter aSC,UL entspricht der oberen Viskositätsgrenze, wohingegen k0 die Strukturänderungsrate angibt. Es wurde weiterhin festgestellt, dass es folglich nützlich ist zwischen einer Fließaktivierungsenergie und einer Strukturänderungsaktivierungsenergie für die Berechnung von aT und aSC zu unterscheiden. Die Optimierung der Modellparameter erfolgte mithilfe eines genetischen Algorithmus. Zwischen berechneten und gemessenen Viskositäten wurde eine gute Übereinstimmung gefunden, so dass das Viskositätsmodell in der Lage ist die Viskosität einer PA12 Kunststoffschmelze als Folge eines kombinierten Lasersinter Zeit- und Temperatureinflusses vorherzusagen. Das Modell wurde im zweiten Schritt angewandt, um die Viskosität während des Lasersinter-Prozesses in Abhängigkeit von der Energiedichte zu berechnen. Hierzu wurden Prozessdaten, wie Schmelzetemperatur und Belichtungszeit benutzt, die mithilfe einer High-Speed Thermografiekamera on-line gemessen wurden. Abschließend wurde der Einfluss der Strukturänderung auf das Viskositätsniveau im Prozess aufgezeigt.
Resumo:
Die Autoren gehen davon aus, dass es soziale und kulturräumliche Unterschiede in den Wahrnehmungsweisen von zukünftigen Klimarisiken gibt und begründen ihre Annahme in theoretischer Hinsicht unter Hinzuziehung der sozialen Konstruktion der Wirklichkeit. Berichtet wird aus einem Forschungsprojekt, das die gesellschaftliche Verarbeitung von Klimarisiken in Küstenstädten der südlichen Nord- und Ostsee im Hinblick darauf untersucht, welche Vorstellungen von einer Vulnerabilität und Resilienz vorliegen. Ausführlich wird das methodische Design der Studie dargestellt. Im Rahmen einer Methodentriangulation wird eine standardisierte Delphi-Expertenbefragung mit einer wissenssoziologischen Diskursanalyse verbunden, um sowohl bisherige als auch zukünftige Vorstellungen von Vulnerabilität und Resilienz zu erheben. Am Beispiel ausgewählter Ergebnisse wird empirisch nachgewiesen, dass Wahrnehmungsunterschiede von Klimarisiken größer sind als angenommen. Die Ergebnisse sind allein aus den Delphi-Daten nicht erklärbar. Ein möglicher Erklärungsansatz ergibt sich ergänzend aus den Erkenntnissen der wissenssoziologischen Diskursanalyse.
Resumo:
Der Anspruch an das Bauen in der DDR bewegte sich oftmals außerhalb des Koordinatensystems von Funktion und Repräsentation. Besonders in den Stadtzentren ging es darum, Gebäude und Räume zu schaffen, die die zukünftige kommunistische Gesellschaft vorwegnehmen und ihr so zum Durchbruch verhelfen sollten. Dieser metaphysisch angehauchte Auftrag an das Gebaute löste es aus Zeit und Raum heraus und hob die physische Vergänglichkeit der Steine auf. Das Beispiel des Chemnitzer Stadtzentrums illustriert diesen Zusammenhang und verdeutlicht die nur unter Schwierigkeiten mögliche ideelle Umcodierung von Architektur und Städtebau der DDR nach der Wiedervereinigung.
Resumo:
Die Möglichkeit, Lernen mit Hilfe digitaler Medien zu unterstützen, wird von der einschlägigen Forschungsliteratur mehrheitlich propagiert. Doch die Technik allein bringt nicht automatisch einen pädagogischen Mehrwert mit sich. Um Handlungsempfehlungen zum technologiebasierten Lehren und Lernen zu erstellen, fehlten bislang empirische Untersuchungen und Darstellungen der vielfältiger werdenden Praxis des didaktischen Handelns mit elektronischen Medien. Horst Rippien rekonstruiert mit leitfadengestützten Interviews sechs Fälle von Weiterbildungs-Organisationen und deren unterschiedliche Leistungen zur Anregung und Unterstützung des Lernens Erwachsener in technologisch gestützten Lehr-Lern-Settings. Der Ansatz der „Dienstleistung Weiterbildung“ betont die Rolle der Kooperation mit Auftraggebern und Lernenden, vergleicht die empirisch vorfindlichen flexiblen Organisationsprofile miteinander und führt sie zu einem wirkungsvollen eLearning zusammen.
Resumo:
Blindversuch ist eine dreiwöchige performative Arbeit im Rahmen meiner plastisch-künstlerischen Arbeit, die ich im Februar 2007 durchgeführt habe. Über einen Zeitraum von drei Wochen habe ich meine Augen verschlossen und das physische Sehen eingestellt. Damit verzichtete ich freiwillig auf mein wichtigstes künstlerisches Werkzeug. Ich gab vor, blind zu sein und trug die Zeichen des Blindseins: Brille, Armbinde und einen weißen Stock. Unter der Bedingung des Nicht-Sehens und in der Begleitung von Assistenten führte ich mein Leben und Arbeiten weiter. Während dieser Zeit ersetzte ich meine visuelle Wahrnehmung durch technische Mittel. Ohne zu sehen produzierte ich mit Fotoapparat und Videokamera visuelles Material. Diese Aufnahmen entstanden infolge motorisch-akustisch-haptischer Eindrücke und situativer Reflexionen. Ergänzt werden meine Aufnahmen durch visuelles Fremdmaterial. Verschiedene Personen wurden beauftragt, mich filmisch und fotografisch zu begleiten. Auch ich selbst erstellte eine Audiodokumentation meiner Erfahrungen und Reflexionen als Nicht-Sehende: Wahrnehmung, Untersuchung und Notierung der veränderten rezeptiven Bedingungen. Es fand eine bewusste Aneignung des Raums als Nicht-Sehende statt. Dazu habe ich meine Fähigkeiten sowohl im Atelier als auch im Außenraum trainiert. Darüber hinaus wurde der Blindversuch durch das Max-Planck-Institut für Hirnforschung in Frankfurt am Main wissenschaftlich begleitet.
Resumo:
Für den innerbetrieblichen Transport und besonders für die Materialversorgung in der Produktion werden zunehmend Routenzüge eingesetzt, die aus einem Schleppfahrzeug und bis zu fünf Anhängern bestehen. Um gute Manövrierbarkeit und einen geringen Platzbedarf zu gewährleisten, sollten Routenzuganhänger möglichst spurtreu sein. In diesem Beitrag wird die Spurtreue exemplarisch für zwei am Markt verfügbare Anhänger für Routenzüge mit zwei ungelenkten und vier gelenkten Rädern untersucht. Hierfür wird zunächst ein Gütekriterium definiert, das die maximale Abweichung von der Spurtreue quantitativ erfasst. Außerdem werden Testszenarien vorgeschlagen, um die verschiedenen Fahrwerks- und Lenkkonzepte vergleichen zu können. Mit Hilfe eines entwickelten analytischen Modells werden die Abweichungen in der Spurtreue bei stationärer Kreisfahrt für die zwei gewählten Konzepte berechnet und dargestellt. Zusätzlich wird eine Mehrkörper-Simulation, die eine tiefere physikalische Modellierung und die Untersuchung komplexerer Fahrmanöver erlaubt, durchgeführt und mit den analytischen Ergebnissen verglichen. Es kann gezeigt werden, dass neben der Lenkkinematik weitere Parameter wie das Schräglaufverhalten der Reifen Einfluss auf die Spurtreue haben.
Resumo:
Aufgrund sich schnell verändernder Anforderungen des Marktes sind Unternehmen ständig dazu aufgefordert, ihre eigenen Prozesse und Strukturen zu überdenken und ggf. anzupassen. Von diesen Entwicklungen ist auch die Kommissionierung als Teil eines Intralogistiksystems betroffen. Um allerdings geeignete Maßnahmen ergreifen zu können, müssen Systemleistungen und –kosten permanent gemessen werden. Hierzu eignet sich der Einsatz von Performance Measurement-Systemen als Weiterentwicklung traditioneller Kennzahlensysteme. In diesem Beitrag werden verschiedene Performance Measurement-Systeme gegenüber gestellt und hinsichtlich ihrer Eignung für den Einsatz in Kommissioniersystemen bewertet. Auf Basis der Ergebnisse der Bewertung erfolgt eine erste Konzeption eines Performance Measurement-Systems für die Kommissionierung unter Verwendung typischer Kennzahlen, die in der Literatur genannt werden. Abschließend werden Hinweise zur noch notwendigen detaillierten Umsetzung und Evaluation in der Praxis gegeben.
Resumo:
Mit der Idee eines generischen, an vielfältige Hochschulanforderungen anpassbaren Studierenden-App-Frameworks haben sich innerhalb des Arbeitskreises Web der ZKI ca. 30 Hochschulen zu einem Entwicklungsverbund zusammengefunden. Ziel ist es, an den beteiligten Einrichtungen eine umfassende Zusammenstellung aller elektronischen Studienservices zu evaluieren, übergreifende Daten- und Metadatenmodelle für die Beschreibung dieser Dienste zu erstellen und Schnittstellen zu den gängigen Campusmanagementsystemen sowie zu Infrastrukturen der elektronischen Lehre (LMS, Druckdienste, elektronischen Katalogen usw.) zu entwickeln. In einem abschließenden Schritt werden auf dieser Middleware aufsetzende Studienmanagement-Apps für Studierende erstellt, die die verschiedenen Daten- und Kommunikationsströme der standardisierten Dienste und Kommunikationskanäle bündeln und in eine für den Studierenden leicht zu durchschauende, navigationsfreundliche Aufbereitung kanalisiert. Mit der Konzeption eines dezentralen, über eine Vielzahl von Hochschulen verteilten Entwicklungsprojektes unter einer zentralen Projektleitung wird sichergestellt, dass redundante Entwicklungen vermieden, bundesweit standardisierte Serviceangebote angeboten und Wissenstransferprozesse zwischen einer Vielzahl von Hochschulen zur Nutzung mobiler Devices (Smartphones, Tablets und entsprechende Apps) angeregt werden können. Die Unterstützung der Realisierung klarer Schnittstellenspezifikationen zu Campusmanagementsystemen durch deren Anbieter kann durch diese breite Interessensgemeinschaft ebenfalls gestärkt werden. Weiterhin zentraler Planungsinhalt ist ein Angebot für den App-Nutzer zum Aufbau eines datenschutzrechtlich integeren, persönlichen E-Portfolios. Details finden sich im Kapitel Projektziele weiter unten.
Resumo:
Today, pupils at the age of 15 have spent their entire life surrounded by and interacting with diverse forms of computers. It is a routine part of their day-to-day life and by now computer-literacy is common at very early age. Over the past five years, technology for teens has become predominantly mobile and ubiquitous within every aspect of their lives. To them, being online is an implicitness. In Germany, 88% of youth aged between 12-19 years own a smartphone and about 20% use the Internet via tablets. Meanwhile, more and more young learners bring their devices into the classroom and pupils increasingly demand for innovative and motivating learning scenarios that strongly respond to their habits of using media. With this development, a shift of paradigm is slowly under way with regard to the use of mobile technology in education. By now, a large body of literature exists, that reports concepts, use-cases and practical studies for effectively using technology in education. Within this field, a steadily growing body of research has developed that especially examines the use of digital games as instructional strategy. The core concern of this thesis is the design of mobile games for learning. The conditions and requirements that are vital in order to make mobile games suitable and effective for learning environments are investigated. The base for exploration is the pattern approach as an established form of templates that provide solutions for recurrent problems. Building on this acknowledged form of exchanging and re-using knowledge, patterns for game design are used to classify the many gameplay rules and mechanisms in existence. This research draws upon pattern descriptions to analyze learning game concepts and to abstract possible relationships between gameplay patterns and learning outcomes. The linkages that surface are the starting bases for a series of game design concepts and their implementations are subsequently evaluated with regard to learning outcomes. The findings and resulting knowledge from this research is made accessible by way of implications and recommendations for future design decisions.