975 resultados para COMPUTER SCIENCE, THEORY


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Lannotation en rles smantiques est une tche qui permet dattribuer des tiquettes de rles telles que Agent, Patient, Instrument, Lieu, Destination etc. aux diffrents participants actants ou circonstants (arguments ou adjoints) dune lexie prdicative. Cette tche ncessite des ressources lexicales riches ou des corpus importants contenant des phrases annotes manuellement par des linguistes sur lesquels peuvent sappuyer certaines approches dautomatisation (statistiques ou apprentissage machine). Les travaux antrieurs dans ce domaine ont port essentiellement sur la langue anglaise qui dispose de ressources riches, telles que PropBank, VerbNet et FrameNet, qui ont servi alimenter les systmes dannotation automatiss. Lannotation dans dautres langues, pour lesquelles on ne dispose pas dun corpus annot manuellement, repose souvent sur le FrameNet anglais. Une ressource telle que FrameNet de langlais est plus que ncessaire pour les systmes dannotation automatis et lannotation manuelle de milliers de phrases par des linguistes est une tche fastidieuse et exigeante en temps. Nous avons propos dans cette thse un systme automatique pour aider les linguistes dans cette tche qui pourraient alors se limiter la validation des annotations proposes par le systme. Dans notre travail, nous ne considrons que les verbes qui sont plus susceptibles que les noms dtre accompagns par des actants raliss dans les phrases. Ces verbes concernent les termes de spcialit dinformatique et dInternet (ex. accder, configurer, naviguer, tlcharger) dont la structure actancielle est enrichie manuellement par des rles smantiques. La structure actancielle des lexies verbales est dcrite selon les principes de la Lexicologie Explicative et Combinatoire, LEC de Meluk et fait appel partiellement (en ce qui concerne les rles smantiques) la notion de Frame Element tel que dcrit dans la thorie Frame Semantics (FS) de Fillmore. Ces deux thories ont ceci de commun quelles mnent toutes les deux la construction de dictionnaires diffrents de ceux issus des approches traditionnelles. Les lexies verbales dinformatique et dInternet qui ont t annotes manuellement dans plusieurs contextes constituent notre corpus spcialis. Notre systme qui attribue automatiquement des rles smantiques aux actants est bas sur des rgles ou classificateurs entrans sur plus de 2300 contextes. Nous sommes limits une liste de rles restreinte car certains rles dans notre corpus nont pas assez dexemples annots manuellement. Dans notre systme, nous navons trait que les rles Patient, Agent et Destination dont le nombre dexemple est suprieur 300. Nous avons cre une classe que nous avons nomm Autre o nous avons rassembl les autres rles dont le nombre dexemples annots est infrieur 100. Nous avons subdivis la tche dannotation en sous-tches : identifier les participants actants et circonstants et attribuer des rles smantiques uniquement aux actants qui contribuent au sens de la lexie verbale. Nous avons soumis les phrases de notre corpus lanalyseur syntaxique Syntex afin dextraire les informations syntaxiques qui dcrivent les diffrents participants dune lexie verbale dans une phrase. Ces informations ont servi de traits (features) dans notre modle dapprentissage. Nous avons propos deux techniques pour lidentification des participants : une technique base de rgles o nous avons extrait une trentaine de rgles et une autre technique base sur lapprentissage machine. Ces mmes techniques ont t utilises pour la tche de distinguer les actants des circonstants. Nous avons propos pour la tche dattribuer des rles smantiques aux actants, une mthode de partitionnement (clustering) semi supervis des instances que nous avons compare la mthode de classification de rles smantiques. Nous avons utilis CHAMLON, un algorithme hirarchique ascendant.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Dans ce mmoire, je dmontre que la distribution de probabilits de l'tat quantique Greenberger-Horne-Zeilinger (GHZ) sous l'action locale de mesures de von Neumann indpendantes sur chaque qubit suit une distribution qui est une combinaison convexe de deux distributions. Les coefficients de la combinaison sont relis aux parties quatoriales des mesures et les distributions associes ces coefficients sont relies aux parties relles des mesures. Une application possible du rsultat est qu'il permet de scinder en deux la simulation de l'tat GHZ. Simuler, en pire cas ou en moyenne, un tat quantique comme GHZ avec des ressources alatoires, partages ou prives, et des ressources classiques de communication, ou mme des ressources fantaisistes comme les botes non locales, est un problme important en complexit de la communication quantique. On peut penser ce problme de simulation comme un problme o plusieurs personnes obtiennent chacune une mesure de von Neumann appliquer sur le sous-systme de l'tat GHZ qu'il partage avec les autres personnes. Chaque personne ne connat que les donnes dcrivant sa mesure et d'aucune faon une personne ne connat les donnes dcrivant la mesure d'une autre personne. Chaque personne obtient un rsultat alatoire classique. La distribution conjointe de ces rsultats alatoires classiques suit la distribution de probabilits trouve dans ce mmoire. Le but est de simuler classiquement la distribution de probabilits de l'tat GHZ. Mon rsultat indique une marche suivre qui consiste d'abord simuler les parties quatoriales des mesures pour pouvoir ensuite savoir laquelle des distributions associes aux parties relles des mesures il faut simuler. D'autres chercheurs ont trouv comment simuler les parties quatoriales des mesures de von Neumann avec de la communication classique dans le cas de 3 personnes, mais la simulation des parties relles rsiste encore et toujours.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Partant des travaux sminaux de Boole, Frege et Russell, le mmoire cherche clarifier lenjeu du pluralisme logique lre de la prolifration des logiques non-classiques et des dveloppements en informatique thorique et en thorie des preuves. Deux chapitres plus historiques sont lordre du jour : (1) le premier chapitre articule labsolutisme de Frege et Russell en prenant soin de montrer comment il exclut la possibilit denvisager des structures et des logiques alternatives; (2) le quatrime chapitre expose le chemin qui mena Carnap ladoption de la mthode syntaxique et du principe de tolrance, pour ensuite dgager linstrumentalisme carnapien en philosophie de la Logique et des mathmatiques. Passant par lanalyse dune interprtation intuitive de la logique linaire, le deuxime chapitre se tourne ensuite vers ltablissement dune forme logico-mathmatique de pluralisme logique laide de la thorie des relations dordre et la thorie des catgories. Le troisime chapitre dlimite le terrain de jeu des positions entourant le dbat entre monisme et pluralisme puis offre un argument contre la thse qui veut que le conflit entre logiques rivales soit apparent, le tout grce lutilisation du point de vue des logiques sous-structurelles. Enfin, le cinquime chapitre dmontre que chacune des trois grandes approches au concept de consquence logique (modle-thortique, preuve-thortique et dialogique) forme un cadre suffisamment gnral pour tablir un pluralisme. Bref, le mmoire est une dfense du pluralisme logique.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Thse numrise par la Division de la gestion de documents et des archives de l'Universit de Montral

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Un objectif principal du gnie logiciel est de pouvoir produire des logiciels complexes, de grande taille et fiables en un temps raisonnable. La technologie oriente objet (OO) a fourni de bons concepts et des techniques de modlisation et de programmation qui ont permis de dvelopper des applications complexes tant dans le monde acadmique que dans le monde industriel. Cette exprience a cependant permis de dcouvrir les faiblesses du paradigme objet (par exemples, la dispersion de code et le problme de traabilit). La programmation oriente aspect (OA) apporte une solution simple aux limitations de la programmation OO, telle que le problme des proccupations transversales. Ces proccupations transversales se traduisent par la dispersion du mme code dans plusieurs modules du systme ou lemmlement de plusieurs morceaux de code dans un mme module. Cette nouvelle mthode de programmer permet dimplmenter chaque problmatique indpendamment des autres, puis de les assembler selon des rgles bien dfinies. La programmation OA promet donc une meilleure productivit, une meilleure rutilisation du code et une meilleure adaptation du code aux changements. Trs vite, cette nouvelle faon de faire sest vue stendre sur tout le processus de dveloppement de logiciel en ayant pour but de prserver la modularit et la traabilit, qui sont deux proprits importantes des logiciels de bonne qualit. Cependant, la technologie OA prsente de nombreux dfis. Le raisonnement, la spcification, et la vrification des programmes OA prsentent des difficults dautant plus que ces programmes voluent dans le temps. Par consquent, le raisonnement modulaire de ces programmes est requis sinon ils ncessiteraient dtre rexamins au complet chaque fois quun composant est chang ou ajout. Il est cependant bien connu dans la littrature que le raisonnement modulaire sur les programmes OA est difficile vu que les aspects appliqus changent souvent le comportement de leurs composantes de base [47]. Ces mmes difficults sont prsentes au niveau des phases de spcification et de vrification du processus de dveloppement des logiciels. Au meilleur de nos connaissances, la spcification modulaire et la vrification modulaire sont faiblement couvertes et constituent un champ de recherche trs intressant. De mme, les interactions entre aspects est un srieux problme dans la communaut des aspects. Pour faire face ces problmes, nous avons choisi dutiliser la thorie des catgories et les techniques des spcifications algbriques. Pour apporter une solution aux problmes ci-dessus cits, nous avons utilis les travaux de Wiels [110] et dautres contributions telles que celles dcrites dans le livre [25]. Nous supposons que le systme en dveloppement est dj dcompos en aspects et classes. La premire contribution de notre thse est lextension des techniques des spcifications algbriques la notion daspect. Deuximement, nous avons dfini une logique, LA , qui est utilise dans le corps des spcifications pour dcrire le comportement de ces composantes. La troisime contribution consiste en la dfinition de loprateur de tissage qui correspond la relation dinterconnexion entre les modules daspect et les modules de classe. La quatrime contribution concerne le dveloppement dun mcanisme de prvention qui permet de prvenir les interactions indsirables dans les systmes orients aspect.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Nous introduisons un nouveau modle de la communication deux parties dans lequel nous nous intressons au temps que prennent deux participants effectuer une tche travers un canal avec dlai d. Nous tablissons quelques bornes suprieures et infrieures et comparons ce nouveau modle aux modles de communication classiques et quantiques tudis dans la littrature. Nous montrons que la complexit de la communication dune fonction sur un canal avec dlai est borne suprieurement par sa complexit de la communication modulo un facteur multiplicatif d/ lg d. Nous prsentons ensuite quelques exemples de fonctions pour lesquelles une stratgie astucieuse se servant du temps mort confre un avantage sur une implmentation nave dun protocole de communication optimal en terme de complexit de la communication. Finalement, nous montrons quun canal avec dlai permet de raliser un change de bit cryptographique, mais que, par lui-mme, est insufsant pour raliser la primitive cryptographique de transfert quivoque.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Dans ce mmoire, nous nous pencherons tout particulirement sur une primitive cryptographique connue sous le nom de partage de secret. Nous explorerons autant le domaine classique que le domaine quantique de ces primitives, couronnant notre tude par la prsentation dun nouveau protocole de partage de secret quantique ncessitant un nombre minimal de parts quantiques c.--d. une seule part quantique par participant. Louverture de notre tude se fera par la prsentation dans le chapitre prliminaire dun survol des notions mathmatiques sous-jacentes la thorie de linformation quantique ayant pour but primaire dtablir la notation utilise dans ce manuscrit, ainsi que la prsentation dun prcis des proprits mathmatique de ltat de Greenberger-Horne-Zeilinger (GHZ) frquemment utilis dans les domaines quantiques de la cryptographie et des jeux de la communication. Mais, comme nous lavons mentionn plus haut, cest le domaine cryptographique qui restera le point focal de cette tude. Dans le second chapitre, nous nous intresserons la thorie des codes correcteurs derreurs classiques et quantiques qui seront leur tour dextrme importances lors de lintroduction de la thorie quantique du partage de secret dans le chapitre suivant. Dans la premire partie du troisime chapitre, nous nous concentrerons sur le domaine classique du partage de secret en prsentant un cadre thorique gnral portant sur la construction de ces primitives illustrant tout au long les concepts introduits par des exemples prsents pour leurs intrts autant historiques que pdagogiques. Ceci prparera le chemin pour notre expos sur la thorie quantique du partage de secret qui sera le focus de la seconde partie de ce mme chapitre. Nous prsenterons alors les thormes et dfinitions les plus gnraux connus date portant sur la construction de ces primitives en portant un intrt particulier au partage quantique seuil. Nous montrerons le lien troit entre la thorie quantique des codes correcteurs derreurs et celle du partage de secret. Ce lien est si troit que lon considre les codes correcteurs derreurs quantiques taient de plus proches analogues aux partages de secrets quantiques que ne leur taient les codes de partage de secrets classiques. Finalement, nous prsenterons un de nos trois rsultats parus dans A. Broadbent, P.-R. Chouha, A. Tapp (2009); un protocole scuritaire et minimal de partage de secret quantique a seuil (les deux autres rsultats dont nous traiterons pas ici portent sur la complexit de la communication et sur la simulation classique de ltat de GHZ).

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les algorithmes d'apprentissage profond forment un nouvel ensemble de mthodes puissantes pour l'apprentissage automatique. L'ide est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un cot computationel plus elev et augmente aussi le nombre de paramtres du modle. Ainsi, l'utilisation de ces mthodes sur des problmes plus grande chelle demande de rduire leur cot et aussi d'amliorer leur rgularisation et leur optimization. Cette thse adresse cette question sur ces trois perspectives. Nous tudions tout d'abord le problme de rduire le cot de certains algorithmes profonds. Nous proposons deux mthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs dbruitants sur des distributions sparses haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux mthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'chantillonage par importance pour chantilloner l'objectif de ces modles. Nous observons que cela rduit significativement le temps d'entrainement. L'accleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuximement, nous introduisont un puissant rgularisateur pour les mthodes profondes. Les rsultats exprimentaux dmontrent qu'un bon rgularisateur est crucial pour obtenir de bonnes performances avec des gros rseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau rgularisateur qui combine l'apprentissage non-supervis et la propagation de tangente (Simard et al., 1992). Cette mthode exploite des principes gometriques et permit au moment de la publication d'atteindre des rsultats l'tat de l'art. Finalement, nous considrons le problme d'optimiser des surfaces non-convexes haute dimensionalit comme celle des rseaux de neurones. Tradionellement, l'abondance de minimum locaux tait considr comme la principale difficult dans ces problmes. Dans Dauphin et al. (2014a) nous argumentons partir de rsultats en statistique physique, de la thorie des matrices alatoires, de la thorie des rseaux de neurones et partir de rsultats exprimentaux qu'une difficult plus profonde provient de la prolifration de points-selle. Dans ce papier nous proposons aussi une nouvelle mthode pour l'optimisation non-convexe.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La thse est divise principalement en deux parties. La premire partie regroupe les chapitres 2 et 3. La deuxime partie regroupe les chapitres 4 et 5. La premire partie concerne l'chantillonnage de distributions continues non uniformes garantissant un niveau fixe de prcision. Knuth et Yao dmontrrent en 1976 comment chantillonner exactement n'importe quelle distribution discrte en n'ayant recours qu' une source de bits non biaiss indpendants et identiquement distribus. La premire partie de cette thse gnralise en quelque sorte la thorie de Knuth et Yao aux distributions continues non uniformes, une fois la prcision fixe. Une borne infrieure ainsi que des bornes suprieures pour des algorithmes gnriques comme l'inversion et la discrtisation figurent parmi les rsultats de cette premire partie. De plus, une nouvelle preuve simple du rsultat principal de l'article original de Knuth et Yao figure parmi les rsultats de cette thse. La deuxime partie concerne la rsolution d'un problme en thorie de la complexit de la communication, un problme qui naquit avec l'avnement de l'informatique quantique. tant donn une distribution discrte paramtre par un vecteur rel de dimension N et un rseau de N ordinateurs ayant accs une source de bits non biaiss indpendants et identiquement distribus o chaque ordinateur possde un et un seul des N paramtres, un protocole distribu est tabli afin d'chantillonner exactement ladite distribution.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les moteurs de recherche font partie de notre vie quotidienne. Actuellement, plus dun tiers de la population mondiale utilise lInternet. Les moteurs de recherche leur permettent de trouver rapidement les informations ou les produits qu'ils veulent. La recherche d'information (IR) est le fondement de moteurs de recherche modernes. Les approches traditionnelles de recherche d'information supposent que les termes d'indexation sont indpendants. Pourtant, les termes qui apparaissent dans le mme contexte sont souvent dpendants. Labsence de la prise en compte de ces dpendances est une des causes de lintroduction de bruit dans le rsultat (rsultat non pertinents). Certaines tudes ont propos dintgrer certains types de dpendance, tels que la proximit, la cooccurrence, la contigut et de la dpendance grammaticale. Dans la plupart des cas, les modles de dpendance sont construits sparment et ensuite combins avec le modle traditionnel de mots avec une importance constante. Par consquent, ils ne peuvent pas capturer correctement la dpendance variable et la force de dpendance. Par exemple, la dpendance entre les mots adjacents "Black Friday" est plus importante que celle entre les mots "road constructions". Dans cette thse, nous tudions diffrentes approches pour capturer les relations des termes et de leurs forces de dpendance. Nous avons propos des mthodes suivantes: Nous rexaminons l'approche de combinaison en utilisant diffrentes units d'indexation pour la RI monolingue en chinois et la RI translinguistique entre anglais et chinois. En plus dutiliser des mots, nous tudions la possibilit d'utiliser bi-gramme et uni-gramme comme unit de traduction pour le chinois. Plusieurs modles de traduction sont construits pour traduire des mots anglais en uni-grammes, bi-grammes et mots chinois avec un corpus parallle. Une requte en anglais est ensuite traduite de plusieurs faons, et un score classement est produit avec chaque traduction. Le score final de classement combine tous ces types de traduction. Nous considrons la dpendance entre les termes en utilisant la thorie dvidence de Dempster-Shafer. Une occurrence d'un fragment de texte (de plusieurs mots) dans un document est considre comme reprsentant l'ensemble de tous les termes constituants. La probabilit est assigne un tel ensemble de termes plutt qua chaque terme individuel. Au moment dvaluation de requte, cette probabilit est redistribue aux termes de la requte si ces derniers sont diffrents. Cette approche nous permet d'intgrer les relations de dpendance entre les termes. Nous proposons un modle discriminant pour intgrer les diffrentes types de dpendance selon leur force et leur utilit pour la RI. Notamment, nous considrons la dpendance de contigut et de cooccurrence de diffrentes distances, cest--dire les bi-grammes et les paires de termes dans une fentre de 2, 4, 8 et 16 mots. Le poids dun bi-gramme ou dune paire de termes dpendants est dtermin selon un ensemble des caractres, en utilisant la rgression SVM. Toutes les mthodes proposes sont values sur plusieurs collections en anglais et/ou chinois, et les rsultats exprimentaux montrent que ces mthodes produisent des amliorations substantielles sur l'tat de l'art.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Modern computer systems are plagued with stability and security problems: applications lose data, web servers are hacked, and systems crash under heavy load. Many of these problems or anomalies arise from rare program behavior caused by attacks or errors. A substantial percentage of the web-based attacks are due to buffer overflows. Many methods have been devised to detect and prevent anomalous situations that arise from buffer overflows. The current state-of-art of anomaly detection systems is relatively primitive and mainly depend on static code checking to take care of buffer overflow attacks. For protection, Stack Guards and I-leap Guards are also used in wide varieties.This dissertation proposes an anomaly detection system, based on frequencies of system calls in the system call trace. System call traces represented as frequency sequences are profiled using sequence sets. A sequence set is identified by the starting sequence and frequencies of specific system calls. The deviations of the current input sequence from the corresponding normal profile in the frequency pattern of system calls is computed and expressed as an anomaly score. A simple Bayesian model is used for an accurate detection.Experimental results are reported which show that frequency of system calls represented using sequence sets, captures the normal behavior of programs under normal conditions of usage. This captured behavior allows the system to detect anomalies with a low rate of false positives. Data are presented which show that Bayesian Network on frequency variations responds effectively to induced buffer overflows. It can also help administrators to detect deviations in program flow introduced due to errors.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

This thesis Entitled Journal productivity in fishery science an informetric analysis.The analyses and formulating results of the study, the format of the thesis was determined. The thesis is divided into different chapters mentioned below. Chapter 1 gives an overview on the topic of research. Introduction gives the relevance of topic, define the problem, objectives of the study, hypothesis, methods of data collection, analysis and layout of the thesis. Chapter 2 provides a detailed account of the subject Fishery science and its development. A comprehensive outline is given along with definition, scope, classification, development and sources of information.Method of study used in this research and its literature review form the content of this chapter. Chapter 4 Details of the method adopted for collecting samples for the study, data collection and organization of the data are given. The methods are based on availability of data, period and objectives of the research undertaken.The description, analyses and the results of the study are covered in this chapter.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Information communication technology (IC T) has invariably brought about fundamental changes in the way in which libraries gather. preserve and disseminate information. The study was carried out with an aim to estimate and compare the information seeking behaviour (ISB) of the academics of two prominent universities of Kerala in the context of advancements achieved through ICT. The study was motivated by the fast changing scenario of libraries with the proliferation of many high tech products and services. The main purpose of the study was to identify the chief source of information of the academics, and also to examine academics preference upon the form and format of information source. The study also tries to estimate the adequacy of the resources and services currently provided by the libraries.The questionnaire was the central instrument for data collection. An almost census method was adopted for data collection engaging various methods and tools for eliciting data.The total population of the study was 957, out of which questionnaire was distributed to 859 academics. 646 academics responded to the survey, of which 564 of them were sound responses. Data was coded and analysed using Statistical Package for Social Sciences (SPSS) software and also with the help of Microsofl Excel package. Various statistical techniques were engaged to analyse data. A paradigm shift is evident by the fact that academies push themselves towards information in internet i.e. they prefer electronic source to traditional source and the very shift is coupled itself with e-seeking of information. The study reveals that ISB of the academics is influenced priman'ly by personal factors and comparative analysis shows that the ISB ofthc academics is similar in both universities. The productivity of the academics was tested to dig up any relation with respect to their ISB, and it is found that productivity of the academics is extensively related with their ISB. Study also reveals that the users ofthe library are satisfied with the services provided but not with the sources and in conjunction, study also recommends ways and means to improve the existing library system.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wird die Konzeption und Realisierung der Persistenz-, Verteilungs- und Versionierungsbibliothek CoObRA 2 vorgestellt. Es werden zunchst die Anforderungen an ein solches Rahmenwerk aufgenommen und vorhandene Technologien fr dieses Anwendungsgebiet vorgestellt. Das in der neuen Bibliothek eingesetzte Verfahren setzt nderungsprotokolle beziehungsweise -listen ein, um Persistenzdaten fr Dokumente und Versionen zu definieren. Dieses Konzept wird dabei durch eine Abbildung auf Kontrukte aus der Graphentheorie gesttzt, um die Semantik von Modell, nderungen und deren Anwendung zu definieren. Bei der Umsetzung werden insbesondere das Design der Bibliothek und die Entscheidungen, die zu der gewhlten Softwarearchitektur fhrten, eingehend erlutert. Dies ist zentraler Aspekt der Arbeit, da die Flexibilitt des Rahmenwerks eine wichtige Anforderung darstellt. Abschlieend werden die Einsatzmglichkeiten an konkreten Beispielanwendungen erlutert und bereits gemachte Erfahrungen beim Einsatz in CASE-Tools, Forschungsanwendungen und Echtzeit-Simulationsumgebungen prsentiert.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Conceptual Information Systems unfold the conceptual structure of data stored in relational databases. In the design phase of the system, conceptual hierarchies have to be created which describe different aspects of the data. In this paper, we describe two principal ways of designing such conceptual hierarchies, data driven design and theory driven design and discuss advantages and drawbacks. The central part of the paper shows how Attribute Exploration, a knowledge acquisition tool developped by B. Ganter can be applied for narrowing the gap between both approaches.