785 resultados para Forgery attacks
Resumo:
La non-violence fait référence à une idéologie et un ensemble de pratiques qui ont pour caractéristique commune de rejeter la violence sous toutes ses formes dans l’actualisation quotidienne. La non-violence est cependant devenue également un outil auquel certains recourrent dans des objectifs qui ne servent pas nécessairement le bien commun. En d’autres termes, la non-violence n’est pas systématiquement un outil de paix. Elle est un moyen d’obtenir ce que l’on veut, sans recourir à la violence. Cette thèse propose une vision de la non-violence au service du bien commun. Elle puise dans l’historicité de grands événements et acteurs qui ont utilisé la non-violence pour libérer une collectivité de formes d’oppression qui amenuisaient la dignité humaine. Elle fait référence à des auteurs et acteurs qui ont influencé le théologien processuel David Ray Griffin dans sa propre démarche d’enseignement et de recherche théologiques sur une quarantaine d’années, soient de la guerre du Vietnam à celle d’Iraq. Les dates survolées vont de 1968 à 2008. Une première démarche entreprise par la recherche est de comprendre le plus précisément possible quelles sont les avenues les plus récentes concernant la non-violence et d’explorer ses influences sur la vie et la carrière du théologien processuel États-Unien David Ray Griffin. En second lieu, une rétrospective historique des événements marquants aux États-Unis permet de cerner le contexte au sein duquel Griffin a évolué et comment son discours a laissé transparaître ces influences historiques, sociales et académiques. Une analyse plus centrée sur la politique extérieure des États-Unis en matière d’économie et de militarisme aiguille vers l’identification de signes que Griffin qualifie lui-même d’anti-théologiques, ce qui l’incite à élaborer une vision paradigmatique globalisante, équilibrée selon lui, où les ressources planétaires sont redistribuées dans un souci d’équité et de justice. Pour ce faire, un tribunal international, une religion globale, à l’image de ce que propose la pensée processuelle whiteheadienne-hartshornienne sont proposés. Griffin en brosse les grands traits dans un discours où l’exhortation s’assortit d’une méthodologie et d’une pédagogie éprouvés depuis 40 ans. Une grille d’analyse des textes griffiniens est par la suite élaborée, structurant les différentes composantes fondamentales de sa pensée. Un modèle d’intégration des valeurs de la non-violence est dégagé des lectures, applicable à d’autres disciplines. Appuyé sur une tradition authentique d’auteurs non-violents, David Ray Griffin présente les caractéristiques d’un homme de paix, duquel les idéaux débordent le cadre national pour rejoindre le planétaire, dans une visée résolument sotériologique. Cette visée devient urgente alors que les événements des attentats terroristes du World Trade Center du 11 septembre 2001 font dire à Griffin que non seulement les États-Unis sont engagés dans une démarche impérialiste démoniaque, mais qu’ils contribuent de manière accélérée à la destruction de la planète. Il faut absolument, croit-il, renverser le courant et devenir, pour le monde, un leader de la réparation des écosystèmes, des économies et des sociétés. S’adjoignant des auteurs d’autres disciplines, et toujours dans un cadre processuel, Griffin entreprend le long périple pédagogique qu’est celui de convaincre le plus grand nombre d’individus possible que le temps est venu d’agir.
Resumo:
Les alertes que nos logiciels antivirus nous envoient ou encore les différents reportages diffusés dans les médias nous font prendre conscience de l'existence des menaces dans le cyberespace. Que ce soit les pourriels, les attaques par déni de service ou les virus, le cyberespace regorge de menaces qui persistent malgré les efforts qui sont déployés dans leur lutte. Est-ce que cela a à voir avec l'efficacité des politiques en place actuellement pour lutter contre ce phénomène? Pour y répondre, l'objectif général du présent mémoire est de vérifier quelles sont les politiques de prévention (lois anti-pourriel, partenariats publics-privés et démantèlements de botnets) qui influencent le plus fortement le taux de menaces informatiques détectées, tout en s'attardant également à l'effet de différents facteurs socio-économiques sur cette variable. Les données collectées par le logiciel antivirus de la compagnie ESET ont été utilisées. Les résultats suggèrent que les partenariats publics-privés offrant une assistance personnalisée aux internautes s'avèrent être la politique de prévention la plus efficace. Les démantèlements de botnets peuvent également s'avérer efficaces, mais seulement lorsque plusieurs acteurs/serveurs importants du réseau sont mis hors d'état de nuire. Le démantèlement du botnet Mariposa en est un bon exemple. Les résultats de ce mémoire suggèrent que la formule partenariats-démantèlements serait le choix le plus judicieux pour lutter contre les cybermenaces. Ces politiques de prévention possèdent toutes deux des méthodes efficaces pour lutter contre les menaces informatiques et c'est pourquoi elles devraient être mises en commun pour assurer une meilleure défense contre ce phénomène.
Resumo:
Alice au pays des merveilles et Nietzsche n'ont en commun ni la dentelle ni la chanson. Quelque chose de beaucoup plus fort les unit toutefois; nous le découvrirons peut-être ce jour où voleront les cochons. Ou à la fin de cette pièce, selon le bon vouloir des principaux-ales intéressé-e-s. Pendant ce temps, du fin fond de leur enclos, ils et elles n'en peuvent plus d'attendre. Leur salut ? L'heure du glas ? Leur heure de gloire ? Grands incapables, pugilistes décadents qui se tuent à ne pas se tuer, se déchaînent dans le verbiage, s'érigeant malgré eux contre toute forme de verve. Combattre cet Autre qui s'immisce insidieusement en soi et qui conduit à la perte du moi. C'est dans une folle lucidité que les égos se dérangent sans échanger, s'attaquent sans s'atteindre, hurlent sans être entendus, dans l'espoir, peut-être, de se réveiller in the land of Nod. Comme l’indique le titre, Chroniques de maux (de l’extrême ordinaire) met en scène une suite de chroniques dans lesquelles les principaux-ales intéressé-e-s témoignent de leur mal-être, et ce, à travers l’exploration de lieux communs. La dramaturgie tente, entre autres, de mettre en place une poésie de l’invective et de l’humour; une esthétique du trash-talking et de la logorrhée. Une importance particulière est accordée au rythme et au langage. L’atmosphère alterne résolument lourdeur et ludisme. La pièce Rouge Gueule, d'Étienne Lepage, présente une mécanique visant manifestement à « attaquer » l'Autre, qu’il s’agisse d’un personnage ou du lecteur-spectateur. Les attaques se perpètrent d'une part par un humour cru, influencé par la culture populaire, le trivial; un humour qui fonctionne de manière plutôt classique en convoquant des procédés aisément repérables et sans cesse réutilisés par l'auteur. D’autre part, la mécanique de « combat » se manifeste par l'invective, ainsi que par une violence caractérisée, du début à la fin, par un manque dans la motivation des actions. Ainsi, l’étude Attaques à vide. Bousculer la situation théâtrale au confluent de l’humour et la violence s’intéresse à Rouge Gueule, aux relations qu'entretiennent l’humour et l'univers brutal de la pièce, dans la perspective où l’humour est inextricablement lié à la violence. Une attention particulière est portée sur le personnage type de Lepage de même que sur l’esthétique de « l'arsenal » trash. Cette dernière est analysée afin de mieux circonscrire les attaques : sont-elles des moyens, et le cas échéant, pour parvenir à quelle fin puisque la fable, et donc la « quête », dans le théâtre contemporain est souvent remise en question. Cette étude verra comment les attaques « à vide », sont, chez Lepage, la force motrice de ce que Hans-Thies Lehmann nomme la « situation théâtrale ».
Resumo:
La recherche portera sur la montée des vidéos de gay bashing depuis 2013. Par vidéo de gay bashing, nous entendons des vidéos documentant l’abus physique ou verbal d’individus perçus par les agresseurs comme étant gais, lesbiennes, bisexuels, transgenres ou queer, mais nous nous concentrerons spécifiquement sur des vidéos montrant des agressions envers des hommes. Ces vidéos peuvent être enregistrées par les agresseurs eux-mêmes ou par des témoins de la scène. Il s’agira de situer cette montée dans un contexte politique de retour de lois et sentiments anti-LGBT dans les pays d’où proviennent certaines des vidéos étudiées et par rapport aux différentes théories anthropologiques et socio-historiques concernant les sources et motivations derrière les actes de violence homophobe. Le corpus se composera de trois vidéos venant de Russie («Putin’s Crackdown on LGBT Teens un Russia»), de Lybie («Gay torture and violent in Lybia») et des États-Unis («Attack at gay pride event in Detroit»). L’analyse du corpus se fera en trois temps : d’abord l’analyse de la forme et du contenu des vidéos en tant que tels, ensuite, l’analyse de leur circulation et des différents utilisateurs qui distribuent les vidéos en ligne, et, finalement, l’analyse de la réception des vidéos en portant attention aux commentaires des utilisateurs. Il s’agira de montrer comment les vidéos de gay-bashing effectuent une rupture par rapport à une vision de YouTube, et autres médias sociaux, comme libérateurs et comme lieux d’expression de soi (particulièrement pour les membres des communautés LGBT) et les transforment en lieux d’une humiliation triplée par l’enregistrement de l’humiliation physique et sa diffusion sur le web. Il s’agira ensuite de voir comment la circulation et la redistribution de ces vidéos par différents groupes et utilisateurs les instrumentalisent selon différents agendas politiques et idéologiques, pour finalement se questionner, en s’inspirant du triangle de l’humiliation de Donald Klein, sur le rôle ambivalent du témoin (physique ou virtuel) dont la présence est nécessaire pour qu’il y ait humiliation. Finalement, nous nous intéresserons aux vidéos de témoignages de gay-bashing, vidéos faites par les victimes elles-mêmes, racontant leur traumatisme à la caméra, renouant ainsi avec les vidéos de coming out sous la forme de l’aveu et de la spectacularisation du soi. La présente recherche sera également l’occasion de développer des outils théoriques et méthodologiques propres aux nouveaux médias et aux nouvelles formes et contenus qui s’y développent.
Resumo:
L’environnement façonne la physiologie, la morphologie et le comportement des organismes par l’entremise de processus écologiques et évolutifs complexes et multidimensionnels. Le succès reproducteur des animaux est déterminé par la valeur adaptative d’un phénotype dans un environnement en modification constante selon une échelle temporelle d’une à plusieurs générations. De plus, les phénotypes sont façonnés par l’environnement, ce qui entraine des modifications adaptatives des stratégies de reproduction tout en imposant des contraintes. Dans cette thèse, considérant des punaises et leurs parasitoïdes comme organismes modèles, j’ai investigué comment plusieurs types de plasticité peuvent interagir pour influencer la valeur adaptative, et comment la plasticité des stratégies de reproduction répond à plusieurs composantes des changements environnementaux (qualité de l’hôte, radiation ultraviolette, température, invasion biologique). Premièrement, j’ai comparé la réponse comportementale et de traits d’histoire de vie à la variation de taille corporelle chez le parasitoïde Telenomus podisi Ashmead (Hymenoptera : Platygastridae), démontrant que les normes de réaction des comportements étaient plus souvent positives que celles des traits d’histoires de vie. Ensuite, j’ai démontré que la punaise prédatrice Podisus maculiventris Say (Hemiptera : Pentatomidae) peut contrôler la couleur de ses œufs, et que la pigmentation des œufs protège les embryons du rayonnement ultraviolet; une composante d’une stratégie complexe de ponte qui a évoluée en réponse à une multitude de facteurs environnementaux. Puis, j’ai testé comment le stress thermique affectait la dynamique de la mémoire du parasitoïde Trissolcus basalis (Wollaston) (Hymenoptera : Platygastridae) lors de l’apprentissage de la fiabilité des traces chimiques laissées par son hôte. Ces expériences ont révélé que des températures hautes et basses prévenaient l’oubli, affectant ainsi l’allocation du temps passé par les parasitoïdes dans des agrégats d’hôtes contenant des traces chimiques. J’ai aussi développé un cadre théorique général pour classifier les effets de la température sur l’ensemble des aspects comportementaux des ectothermes, distinguant les contraintes des adaptations. Finalement, j’ai testé l’habileté d’un parasitoïde indigène (T. podisi) à exploiter les œufs d’un nouveau ravageur invasif en agriculture, Halyomorpha halys Stål (Hemiptera : Pentatomidae). Les résultats ont montré que T. podisi attaque les œufs de H. halys, mais qu’il ne peut s’y développer, indiquant que le ravageur invasif s’avère un « piège évolutif » pour ce parasitoïde. Cela pourrait indirectement bénéficier aux espèces indigènes de punaises en agissant comme un puits écologique de ressources (œufs) et de temps pour le parasitoïde. Ces résultats ont des implications importantes sur la réponse des insectes, incluant ceux impliqués dans les programmes de lutte biologique, face aux changements environnementaux.
Resumo:
« Heavy Metal Generations » is the fourth volume in the series of papers drawn from the 2012 Music, Metal and Politics international conference (http://www.inter-disciplinary.net/publishing/product/heavy-metal-generations/).
Resumo:
Cryptosystem using linear codes was developed in 1978 by Mc-Eliece. Later in 1985 Niederreiter and others developed a modified version of cryptosystem using concepts of linear codes. But these systems were not used frequently because of its larger key size. In this study we were designing a cryptosystem using the concepts of algebraic geometric codes with smaller key size. Error detection and correction can be done efficiently by simple decoding methods using the cryptosystem developed. Approach: Algebraic geometric codes are codes, generated using curves. The cryptosystem use basic concepts of elliptic curves cryptography and generator matrix. Decrypted information takes the form of a repetition code. Due to this complexity of decoding procedure is reduced. Error detection and correction can be carried out efficiently by solving a simple system of linear equations, there by imposing the concepts of security along with error detection and correction. Results: Implementation of the algorithm is done on MATLAB and comparative analysis is also done on various parameters of the system. Attacks are common to all cryptosystems. But by securely choosing curve, field and representation of elements in field, we can overcome the attacks and a stable system can be generated. Conclusion: The algorithm defined here protects the information from an intruder and also from the error in communication channel by efficient error correction methods.
Resumo:
Internet today has become a vital part of day to day life, owing to the revolutionary changes it has brought about in various fields. Dependence on the Internet as an information highway and knowledge bank is exponentially increasing so that a going back is beyond imagination. Transfer of critical information is also being carried out through the Internet. This widespread use of the Internet coupled with the tremendous growth in e-commerce and m-commerce has created a vital need for infonnation security.Internet has also become an active field of crackers and intruders. The whole development in this area can become null and void if fool-proof security of the data is not ensured without a chance of being adulterated. It is, hence a challenge before the professional community to develop systems to ensure security of the data sent through the Internet.Stream ciphers, hash functions and message authentication codes play vital roles in providing security services like confidentiality, integrity and authentication of the data sent through the Internet. There are several ·such popular and dependable techniques, which have been in use widely, for quite a long time. This long term exposure makes them vulnerable to successful or near successful attempts for attacks. Hence it is the need of the hour to develop new algorithms with better security.Hence studies were conducted on various types of algorithms being used in this area. Focus was given to identify the properties imparting security at this stage. By making use of a perception derived from these studies, new algorithms were designed. Performances of these algorithms were then studied followed by necessary modifications to yield an improved system consisting of a new stream cipher algorithm MAJE4, a new hash code JERIM- 320 and a new message authentication code MACJER-320. Detailed analysis and comparison with the existing popular schemes were also carried out to establish the security levels.The Secure Socket Layer (SSL) I Transport Layer Security (TLS) protocol is one of the most widely used security protocols in Internet. The cryptographic algorithms RC4 and HMAC have been in use for achieving security services like confidentiality and authentication in the SSL I TLS. But recent attacks on RC4 and HMAC have raised questions about the reliability of these algorithms. Hence MAJE4 and MACJER-320 have been proposed as substitutes for them. Detailed studies on the performance of these new algorithms were carried out; it has been observed that they are dependable alternatives.
Resumo:
Modern computer systems are plagued with stability and security problems: applications lose data, web servers are hacked, and systems crash under heavy load. Many of these problems or anomalies arise from rare program behavior caused by attacks or errors. A substantial percentage of the web-based attacks are due to buffer overflows. Many methods have been devised to detect and prevent anomalous situations that arise from buffer overflows. The current state-of-art of anomaly detection systems is relatively primitive and mainly depend on static code checking to take care of buffer overflow attacks. For protection, Stack Guards and I-leap Guards are also used in wide varieties.This dissertation proposes an anomaly detection system, based on frequencies of system calls in the system call trace. System call traces represented as frequency sequences are profiled using sequence sets. A sequence set is identified by the starting sequence and frequencies of specific system calls. The deviations of the current input sequence from the corresponding normal profile in the frequency pattern of system calls is computed and expressed as an anomaly score. A simple Bayesian model is used for an accurate detection.Experimental results are reported which show that frequency of system calls represented using sequence sets, captures the normal behavior of programs under normal conditions of usage. This captured behavior allows the system to detect anomalies with a low rate of false positives. Data are presented which show that Bayesian Network on frequency variations responds effectively to induced buffer overflows. It can also help administrators to detect deviations in program flow introduced due to errors.
Resumo:
Biometrics deals with the physiological and behavioral characteristics of an individual to establish identity. Fingerprint based authentication is the most advanced biometric authentication technology. The minutiae based fingerprint identification method offer reasonable identification rate. The feature minutiae map consists of about 70-100 minutia points and matching accuracy is dropping down while the size of database is growing up. Hence it is inevitable to make the size of the fingerprint feature code to be as smaller as possible so that identification may be much easier. In this research, a novel global singularity based fingerprint representation is proposed. Fingerprint baseline, which is the line between distal and intermediate phalangeal joint line in the fingerprint, is taken as the reference line. A polygon is formed with the singularities and the fingerprint baseline. The feature vectors are the polygonal angle, sides, area, type and the ridge counts in between the singularities. 100% recognition rate is achieved in this method. The method is compared with the conventional minutiae based recognition method in terms of computation time, receiver operator characteristics (ROC) and the feature vector length. Speech is a behavioural biometric modality and can be used for identification of a speaker. In this work, MFCC of text dependant speeches are computed and clustered using k-means algorithm. A backpropagation based Artificial Neural Network is trained to identify the clustered speech code. The performance of the neural network classifier is compared with the VQ based Euclidean minimum classifier. Biometric systems that use a single modality are usually affected by problems like noisy sensor data, non-universality and/or lack of distinctiveness of the biometric trait, unacceptable error rates, and spoof attacks. Multifinger feature level fusion based fingerprint recognition is developed and the performances are measured in terms of the ROC curve. Score level fusion of fingerprint and speech based recognition system is done and 100% accuracy is achieved for a considerable range of matching threshold
Resumo:
In today's complicated computing environment, managing data has become the primary concern of all industries. Information security is the greatest challenge and it has become essential to secure the enterprise system resources like the databases and the operating systems from the attacks of the unknown outsiders. Our approach plays a major role in detecting and managing vulnerabilities in complex computing systems. It allows enterprises to assess two primary tiers through a single interface as a vulnerability scanner tool which provides a secure system which is also compatible with the security compliance of the industry. It provides an overall view of the vulnerabilities in the database, by automatically scanning them with minimum overhead. It gives a detailed view of the risks involved and their corresponding ratings. Based on these priorities, an appropriate mitigation process can be implemented to ensure a secured system. The results show that our approach could effectively optimize the time and cost involved when compared to the existing systems
Resumo:
With this document, we provide a compilation of in-depth discussions on some of the most current security issues in distributed systems. The six contributions have been collected and presented at the 1st Kassel Student Workshop on Security in Distributed Systems (KaSWoSDS’08). We are pleased to present a collection of papers not only shedding light on the theoretical aspects of their topics, but also being accompanied with elaborate practical examples. In Chapter 1, Stephan Opfer discusses Viruses, one of the oldest threats to system security. For years there has been an arms race between virus producers and anti-virus software providers, with no end in sight. Stefan Triller demonstrates how malicious code can be injected in a target process using a buffer overflow in Chapter 2. Websites usually store their data and user information in data bases. Like buffer overflows, the possibilities of performing SQL injection attacks targeting such data bases are left open by unwary programmers. Stephan Scheuermann gives us a deeper insight into the mechanisms behind such attacks in Chapter 3. Cross-site scripting (XSS) is a method to insert malicious code into websites viewed by other users. Michael Blumenstein explains this issue in Chapter 4. Code can be injected in other websites via XSS attacks in order to spy out data of internet users, spoofing subsumes all methods that directly involve taking on a false identity. In Chapter 5, Till Amma shows us different ways how this can be done and how it is prevented. Last but not least, cryptographic methods are used to encode confidential data in a way that even if it got in the wrong hands, the culprits cannot decode it. Over the centuries, many different ciphers have been developed, applied, and finally broken. Ilhan Glogic sketches this history in Chapter 6.
Resumo:
In recent times, increased emphasis has been placed on diversifying the types of trees to shade cacao (Theobroma cacao L.) and to achieve additional services. Agroforestry systems that include profitable and native timber trees are a viable alternative but it is necessary to understand the growth characteristics of these species under different environmental conditions. Thus, timber tree species selection should be based on plant responses to biotic and abiotic factors. The aims of this study were (1) to evaluate growth rates and leaf area indices of the four commercial timber species: Cordia thaisiana, Cedrela odorata, Swietenia macrophylla and Tabebuia rosea in conjunction with incidence of insect attacks and (2) to compare growth rates of four Venezuelan Criollo cacao cultivars planted under the shade of these four timber species during the first 36 months after establishment. Parameters monitored in timber trees were: survival rates, growth rates expressed as height and diameter at breast height and leaf area index. In the four Cacao cultivars: height and basal diameter. C. thaisiana and C. odorata had the fastest growth and the highest survival rates. Growth rates of timber trees will depend on their susceptibility to insect attacks as well as to total leaf area. All cacao cultivars showed higher growth rates under the shade of C. odorata. Growth rates of timber trees and cacao cultivars suggest that combinations of cacao and timber trees are a feasible agroforestry strategy in Venezuela.
Resumo:
Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.
Resumo:
In der algebraischen Kryptoanalyse werden moderne Kryptosysteme als polynomielle, nichtlineare Gleichungssysteme dargestellt. Das Lösen solcher Gleichungssysteme ist NP-hart. Es gibt also keinen Algorithmus, der in polynomieller Zeit ein beliebiges nichtlineares Gleichungssystem löst. Dennoch kann man aus modernen Kryptosystemen Gleichungssysteme mit viel Struktur generieren. So sind diese Gleichungssysteme bei geeigneter Modellierung quadratisch und dünn besetzt, damit nicht beliebig. Dafür gibt es spezielle Algorithmen, die eine Lösung solcher Gleichungssysteme finden. Ein Beispiel dafür ist der ElimLin-Algorithmus, der mit Hilfe von linearen Gleichungen das Gleichungssystem iterativ vereinfacht. In der Dissertation wird auf Basis dieses Algorithmus ein neuer Solver für quadratische, dünn besetzte Gleichungssysteme vorgestellt und damit zwei symmetrische Kryptosysteme angegriffen. Dabei sind die Techniken zur Modellierung der Chiffren von entscheidender Bedeutung, so das neue Techniken entwickelt werden, um Kryptosysteme darzustellen. Die Idee für das Modell kommt von Cube-Angriffen. Diese Angriffe sind besonders wirksam gegen Stromchiffren. In der Arbeit werden unterschiedliche Varianten klassifiziert und mögliche Erweiterungen vorgestellt. Das entstandene Modell hingegen, lässt sich auch erfolgreich auf Blockchiffren und auch auf andere Szenarien erweitern. Bei diesen Änderungen muss das Modell nur geringfügig geändert werden.