3 resultados para Cyber-rencontre

em Universitätsbibliothek Kassel, Universität Kassel, Germany


Relevância:

20.00% 20.00%

Publicador:

Resumo:

„Cyber-Mobbing-Tod eines Teenagers“ titelt Spiegel-Online 2007: auch auf Stern.de (2009) findet sich die Meldung: „15-jährige tötet sich nach Cyber-Mobbing“, Zeit Online (2009) berichtet ebenfalls über diesen Vorfall. In Deutschland sind bisher keine derartigen Extremfälle öffentlich bekannt, dennoch ist das Phänomen, vermutlich veranlasst durch diese oder ähnliche Vorfälle, in das Interesse der medialen Öffentlichkeit gerückt. Diese Arbeit geht daher der Frage auf den Grund, ob Cyber-Mobbing auch ein Problem an deutschen Schulen ist und in welchem Ausmaß es dort auftritt. Im Fokus stehen jedoch nicht die genannten Extremfälle, da sie glücklicherweise eher eine Seltenheit darstellen, sondern alltägliche Formen des Cyber-Mobbings, weil genau hier der Grundstein für solch furchtbare Ereignisse gelegt wird. Cyber-Mobbing ist ein recht neues und junges Phänomen, das noch nicht allzu lange im Fokus der wissenschaftlichen Welt steht. Daher gelten viele Facetten als noch nicht ausreichend erschlossen, um eindeutige Aussagen hinsichtlich bestimmter Kausalitäten zu machen. Eine Vielzahl der wissenschaftlichen Arbeiten orientiert sich daher am Konzept des Mobbings, um Unterschiede oder Gemeinsamkeiten zwischen diesen Spielarten der Gewalt herauszuarbeiten. Daher folgt die vorliegende Arbeit dieser Tradition in metaanalytischer Form, untersucht folglich bestehende Literatur und setzt diese in einen kausalen Zusammenhang. Leitend für die Literaturanalyse ist die Frage ob sich die Dimensionen schulischer Gewalt, in diesem Falle Mobbing, durch die neuen Kommunikationsmedien verändert haben. Die Beantwortung dieser Frage zielt primär darauf ab herauszufinden, ob Cyber-Mobbing ähnlichen Strukturen folgt, wie Mobbing oder aber spezifische Muster existieren und ob die Schüler, die in Cyber-Mobbing involviert sind, auch in Mobbing verwickelt sind oder von einer Verschiebung der Interaktionsmuster gesprochen werden kann. Handelt es sich bei Cyber-Mobbing also um eine neue Form des Mobbings, oder um ein eigenständiges und unabhängiges Phänomen?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1986 bis 1988 eintwickelte die Projektjektgruppe verfassungsverträgliche Technikgestaltung (provet) in einer konditionalen Prognose ein Szenario für die Entwicklung und Anwendung der Informationstechnik in Deutschland. Daraus wurden Thesen für die Verletzlichkeit der Gesellschaft und deren Folgen sowie Gestaltungsvorschläge abgeleitet, mit denen die Verletzlichkeit reduziert werden könne. Der Forschungsbericht "Die Verletzlichkeit der Informationsgesellschaft" wurde vor 25 Jahren publiziert. In dem vorliegenden Beitrag prüfen Mitglieder von provet, inwieweit das Szenario und die diesbezügliche angenommene Verletzlichkeit eingetreten sind, ob eine Gegensteuerung gegen zu viel Verletzlichkeit stattfand und welche Rolle die Gestaltungsvorschläge der Studie dabei spielten. Daraus lässt sich mittelbar auch erkennen, wie nützlich der methodische Ansatz der Technikfolgenforschung und die Gestaltungsvorschläge waren und heute sein können.