961 resultados para Kelley Bolton mining Company


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Semantic Web Mining aims at combining the two fast-developing research areas Semantic Web and Web Mining. The idea is to improve, on the one hand, the results of Web Mining by exploiting the new semantic structures in the Web; and to make use of Web Mining, on overview of where the two areas meet today, and sketches ways of how a closer integration could be profitable.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Formal Concept Analysis is an unsupervised learning technique for conceptual clustering. We introduce the notion of iceberg concept lattices and show their use in Knowledge Discovery in Databases (KDD). Iceberg lattices are designed for analyzing very large databases. In particular they serve as a condensed representation of frequent patterns as known from association rule mining. In order to show the interplay between Formal Concept Analysis and association rule mining, we discuss the algorithm TITANIC. We show that iceberg concept lattices are a starting point for computing condensed sets of association rules without loss of information, and are a visualization method for the resulting rules.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Semantic Web Mining aims at combining the two fast-developing research areas Semantic Web and Web Mining. This survey analyzes the convergence of trends from both areas: Growing numbers of researchers work on improving the results of Web Mining by exploiting semantic structures in the Web, and they use Web Mining techniques for building the Semantic Web. Last but not least, these techniques can be used for mining the Semantic Web itself. The second aim of this paper is to use these concepts to circumscribe what Web space is, what it represents and how it can be represented and analyzed. This is used to sketch the role that Semantic Web Mining and the software agents and human agents involved in it can play in the evolution of Web space.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Social bookmark tools are rapidly emerging on the Web. In such systems users are setting up lightweight conceptual structures called folksonomies. These systems provide currently relatively few structure. We discuss in this paper, how association rule mining can be adopted to analyze and structure folksonomies, and how the results can be used for ontology learning and supporting emergent semantics. We demonstrate our approach on a large scale dataset stemming from an online system.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Semantic Web Mining aims at combining the two fast-developing research areas Semantic Web and Web Mining. This survey analyzes the convergence of trends from both areas: an increasing number of researchers is working on improving the results of Web Mining by exploiting semantic structures in the Web, and they make use of Web Mining techniques for building the Semantic Web. Last but not least, these techniques can be used for mining the Semantic Web itself. The Semantic Web is the second-generation WWW, enriched by machine-processable information which supports the user in his tasks. Given the enormous size even of today’s Web, it is impossible to manually enrich all of these resources. Therefore, automated schemes for learning the relevant information are increasingly being used. Web Mining aims at discovering insights about the meaning of Web resources and their usage. Given the primarily syntactical nature of the data being mined, the discovery of meaning is impossible based on these data only. Therefore, formalizations of the semantics of Web sites and navigation behavior are becoming more and more common. Furthermore, mining the Semantic Web itself is another upcoming application. We argue that the two areas Web Mining and Semantic Web need each other to fulfill their goals, but that the full potential of this convergence is not yet realized. This paper gives an overview of where the two areas meet today, and sketches ways of how a closer integration could be profitable.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Association rules are a popular knowledge discovery technique for warehouse basket analysis. They indicate which items of the warehouse are frequently bought together. The problem of association rule mining has first been stated in 1993. Five years later, several research groups discovered that this problem has a strong connection to Formal Concept Analysis (FCA). In this survey, we will first introduce some basic ideas of this connection along a specific algorithm, TITANIC, and show how FCA helps in reducing the number of resulting rules without loss of information, before giving a general overview over the history and state of the art of applying FCA for association rule mining.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El fenómeno de la globalización es una realidad que caracteriza la política internacional mundial que hace referencia principalmente a los procesos económicos, y a las innovaciones tecnológicas, sociales y culturales que están transformando nuestra manera de percibir e interpretar el mundo. En Colombia se han dado cambios muy importantes para el reconocimiento de los derechos de los grupos afrocolombianos. Uno de los cambios importantes, es el derecho de las comunidades afrocolombianas en cuanto a su desarrollo social, cultural y económico. Dentro del contexto nacional, el Pacifico colombiano es un territorio caracterizado por ser un polo de desarrollo, una región reconocida por su riqueza biológica y cultural, donde se realizan grandes proyectos de desarrollo y de extracción de recursos naturales. Pero estos proyectos tiene una alta incidencia en la pérdida de control de las comunidades sobre su territorio e incluso sobre su propio destino. La Muriel Minning Company es una multinacional de los Estados Unidos que actualmente desarrolla el Mega proyecto minero "Mandé Norte"; el gobierno colombiano le otorgó nueve títulos mineros para explotar y comercializar las reservas de cobre y los subproductos de oro y molibdeno. Colombia, como muchos otros países del sur, esta siendo fuertemente afectada en términos de diversidad cultural, construcción de sociedades sustentables y preservación del medio ambiente, por la intervención que en nuestros territorios hacen las multinacionales a través de megaproyectos, que sólo están generando pobreza, perdida de la diversidad cultural y biológica, deterioro de las condiciones ambientales sustentables, desplazamiento forzado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This class introduces basics of web mining and information retrieval including, for example, an introduction to the Vector Space Model and Text Mining. Guest Lecturer: Dr. Michael Granitzer Optional: Modeling the Internet and the Web: Probabilistic Methods and Algorithms, Pierre Baldi, Paolo Frasconi, Padhraic Smyth, Wiley, 2003 (Chapter 4, Text Analysis)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabajo hace parte del proyecto de investigación de Thanatos Empresarial, el propósito del tema fue seleccionado con el fin de encontrar un factor o patrón común existente entre las empresas del sector minero colombiano, teniendo en cuenta aquellas que hayan sido liquidadas, estén cursando un proceso de liquidación obligatoria o aun estén desarrollando actividades. El trabajo fue dividido en tres partes principales. En la primera expresamos la problemática que cursa el país por la mortalidad prematura de empresas en el país, problemática que en lugar de disminuir sigue aumentando, pese a que desde hace más de cuatro décadas se han venido creando y modernizando leyes que buscan fomentar la creación de empresas sostenibles y de la misma manera ayudar a aquellas que se vean en la necesidad de entrar en un proceso de liquidación. La segunda parte de la investigación esta nutrida de datos recogidos por entidades, principalmente del estado, durante los últimos 15 años, por medio de los cuales se puede ver detalladamente las cifras de empresas que han venido entrando a procesos de liquidación, concordato, reorganización etc. y como pese a las leyes, muy pocas son las que logran sobrevivir a este proceso. Los resultados obtenidos mediante el análisis de estos datos corroboran de manera precisa esta premisa, las leyes existentes no están siendo suficientes para frenar la mortalidad de empresas en lo que respecta al sector minero nacional. Las empresas no toman decisiones por si solas, al mando de ellas están diferentes personas que como capitanes de un barco dirigen el rumbo de la misma, dependiendo de qué decisiones se tomen desde la dirección y la gerencia la empresa lograra recorrer el camino del éxito o del fracaso. Lamentablemente muchos de los emprendedores colombianos deciden dirigir su compañía sin buscar ayuda de algunos estamentos que fueron creados para ayudarlos y evitar la crisis de las empresas, tales como las cámaras de comercio, y por lo mismo debido a su inexperiencia o al abuso de toma de decisiones arriesgadas terminan por echar por la borda la empresa y poniendo en dificultades a todos los que de una u otra forma interactuaban con esta. Esta investigación cobra importancia cuando aquellas personas que desean crear empresa, buscan informarse con anterioridad sobre los problemas pueden cursar cuando entren en el mercado, encontrando en este trabajo una herramienta valiosísima en la gestión de la crisis la cual hace las veces de guía para evitar repetir el patrón que causa la muerte prematura de muchas empresas en el sector minero y en general en la economía Colombiana.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Relates to the following software for analysing Blackboard stats http://www.edshare.soton.ac.uk/11134/ Is supporting material for the following podcast: http://youtu.be/yHxCzjiYBoU