22 resultados para Discrete simulation


Relevância:

20.00% 20.00%

Publicador:

Resumo:

In der Mathematikdidaktik gibt es die weit verbreitete Auffassung, durch die Verwendung von Simulationen Lernprozesse zu unterstützen. Dies hat mich im Rahmen meiner Dissertation dazu bewogen, erstens eine Werkzeuganalyse des Simulationspotentials der Software Fathom durchzuführen und zweitens exemplarische Analysen dazu, wie Lernende mit der Software arbeiten. Bei der Werkzeuganalyse standen vor allem folgende zwei Fragen im Mittelpunkt: Was bietet die Software an Simulationspotential? Wie gut und leicht lassen sich Zufallsexperimente in Fathom realisieren? Dieses Wissen ist für die praktische Anwendung der Software und die diagnostische Kompetenz der Lehrkräfte, die Schüler bei der Arbeit mit der Software unterstützen wollen, essentiell. Mit dieser Werkzeuganalyse wurde ein allgemeineres Instrument entwickelt, mit dem man das Simulationspotential auch anderer Werkzeugsoftware wie Excel, Tinkerplots oder den TI-Nspire systematisch analysieren könnte. Im zweiten Teil werden die Ergebnisse einer Fallstudie zur Kompetenz von Studierenden beim Bearbeiten von stochastischen Simulations- und Modellierungsproblemen vorgestellt. Die insgesamt aufwendige Analyse von Mikroprozessen macht sehr viel relevante und wichtige Details im Umgang von Studierenden mit Simulationsaufgaben erkennbar. Auch ist als Ergebnis der Studie nicht nur einfach ein differenziertes Bild der Kompetenzen von Studierenden anzusehen. Vielmehr liegt ein wesentlicher Beitrag auch in der Konzeptualisierung unterschiedlicher Kompetenzen und ihrer Wechselwirkung, wie sie bei der Bearbeitung von mathematischen Aufgaben mit dem Computer auftreten.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In many real world contexts individuals find themselves in situations where they have to decide between options of behaviour that serve a collective purpose or behaviours which satisfy one’s private interests, ignoring the collective. In some cases the underlying social dilemma (Dawes, 1980) is solved and we observe collective action (Olson, 1965). In others social mobilisation is unsuccessful. The central topic of social dilemma research is the identification and understanding of mechanisms which yield to the observed cooperation and therefore resolve the social dilemma. It is the purpose of this thesis to contribute this research field for the case of public good dilemmas. To do so, existing work that is relevant to this problem domain is reviewed and a set of mandatory requirements is derived which guide theory and method development of the thesis. In particular, the thesis focusses on dynamic processes of social mobilisation which can foster or inhibit collective action. The basic understanding is that success or failure of the required process of social mobilisation is determined by heterogeneous individual preferences of the members of a providing group, the social structure in which the acting individuals are contained, and the embedding of the individuals in economic, political, biophysical, or other external contexts. To account for these aspects and for the involved dynamics the methodical approach of the thesis is computer simulation, in particular agent-based modelling and simulation of social systems. Particularly conductive are agent models which ground the simulation of human behaviour in suitable psychological theories of action. The thesis develops the action theory HAPPenInGS (Heterogeneous Agents Providing Public Goods) and demonstrates its embedding into different agent-based simulations. The thesis substantiates the particular added value of the methodical approach: Starting out from a theory of individual behaviour, in simulations the emergence of collective patterns of behaviour becomes observable. In addition, the underlying collective dynamics may be scrutinised and assessed by scenario analysis. The results of such experiments reveal insights on processes of social mobilisation which go beyond classical empirical approaches and yield policy recommendations on promising intervention measures in particular.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Bei der Auslegung von Trocknungsprozessen empfindlicher biologischer Güter spielt die Produktqualität eine zunehmend wichtige Rolle. Obwohl der Einfluss der Trocknungsparameter auf die Trocknungskinetik von Äpfeln bereits Gegenstand vieler Studien war, sind die Auswirkungen auf die Produktqualität bisher kaum bekannt. Die Untersuchung dieses Sachverhalts und die Entwicklung geeigneter Prozessstrategien zur Verbesserung der Qualität des resultierenden Produkts, waren das Ziel der vorliegenden Arbeit. In einem ersten Schritt wurden zunächst umfangreiche stationäre Grundlagenversuche durchgeführt, die zeigten, dass eine Lufttemperatur im höheren Bereich, eine möglichst hohe Luftgeschwindigkeit und eine niedrige Taupunkttemperatur zur geringsten Trocknungszeit bei gleichzeitig guter optischer Qualität führt. Die Beurteilung dieser Qualitätsveränderungen erfolgte mit Hilfe einer neu eingeführten Bezugsgröße, der kumulierten thermischen Belastung, die durch das zeitliche Integral über der Oberflächentemperatur repräsentiert wird und die Vergleichbarkeit der Versuchsergebnisse entscheidend verbessert. Im zweiten Schritt wurden die Ergebnisse der Einzelschichtversuche zur Aufstellung eines numerischen Simulationsmodells verwendet, welches sowohl die entsprechenden Transportvorgänge, als auch die Formveränderung des Trocknungsgutes berücksichtigt. Das Simulationsmodell sowie die experimentellen Daten waren die Grundlage zur anschließenden Entwicklung von Prozessstrategien für die konvektive Trocknung von Äpfeln, die die resultierende Produktqualität, repräsentiert durch die Produktfarbe und –form, verbessern und gleichzeitig möglichst energieeffizient sein sollten. In einem weiteren Schritt wurde die Übertragbarkeit auf den industriellen Maßstab untersucht, wobei die entsprechenden Prozessstrategien an einer neu entwickelten, kostengünstigen Trocknungsanlage erfolgreich implementiert werden konnten. Das Ziel einer verbesserten Produktqualität konnte mit Hilfe unterschiedlicher instationärer Trocknungsschemata sowohl am Einzelschichttrockner, als auch im größeren Maßstab erreicht werden. Das vorgestellte numerische Simulationsmodell zeigte auch bei der Vorhersage des instationären Trocknungsprozesses eine hohe Genauigkeit und war außerdem in der Lage, den Trocknungsverlauf im industriellen Maßstab zuverlässig voraus zu berechnen.

Relevância:

20.00% 20.00%

Publicador: