761 resultados para query


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Henry Hope & Sons of Canada Ltd. were located at 45 King Street West, Toronto, Ont. at the writing of this letter in 1916. The company specialized in “weathertight casements in iron steel or gun-metal, unbreakable steel windows, fanlight opening-gear, leaded lights and stained glass, patent glass roofing, locks and door furniture, rainwater goods in cast lead and cast iron”. The letter is addressed to Mr. H.Y. [Harry Young] Grant, c/o Fenwick Farm, Lundy’s Lane, Niagara Falls, Ont. from R.W. Smith. The letter is in reply to a query about casement windows. Harry Young Grant (1860-1934), son of Sir James Alexander Grant and Maria Malloch of Ottawa, Ont. was a medical doctor specializing in the treatment of the eye, ear, nose and throat. After his retirement he became a member of the Niagara Parks Commission. He was married to Grace A. Smith, daughter of James R. Smith of Buffalo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A book called "Armory and Lineages Of Canada 1914" with the copyright year 1913. The book is signed by H.K. Woodruff and it is also signed by Margaret Woodruff Band. Within the back pages is a list of dates of births, weddings and deaths. The full text is available in the Brock University Special Collections and Archives. There are other full text copies of later editions available in the Internet Archive: https://archive.org/search.php?query=title%3A%28armory%20and%20lineages%20of%20canada%29

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Classical relational databases lack proper ways to manage certain real-world situations including imprecise or uncertain data. Fuzzy databases overcome this limitation by allowing each entry in the table to be a fuzzy set where each element of the corresponding domain is assigned a membership degree from the real interval [0…1]. But this fuzzy mechanism becomes inappropriate in modelling scenarios where data might be incomparable. Therefore, we become interested in further generalization of fuzzy database into L-fuzzy database. In such a database, the characteristic function for a fuzzy set maps to an arbitrary complete Brouwerian lattice L. From the query language perspectives, the language of fuzzy database, FSQL extends the regular Structured Query Language (SQL) by adding fuzzy specific constructions. In addition to that, L-fuzzy query language LFSQL introduces appropriate linguistic operations to define and manipulate inexact data in an L-fuzzy database. This research mainly focuses on defining the semantics of LFSQL. However, it requires an abstract algebraic theory which can be used to prove all the properties of, and operations on, L-fuzzy relations. In our study, we show that the theory of arrow categories forms a suitable framework for that. Therefore, we define the semantics of LFSQL in the abstract notion of an arrow category. In addition, we implement the operations of L-fuzzy relations in Haskell and develop a parser that translates algebraic expressions into our implementation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Turbulences et changements institutionnels au sein de la Société internationale : une perspective historique Cette recherche puise ses origines du constat que la présente société internationale apparaît plus que jamais mal outillée et en perte de légitimité pour gérer les nouveaux déséquilibres qui ébranlent sa sécurité. Nous voulons vérifier si les présentes difficultés à gérer l’ordre interétatique sont des signes précurseurs d’une période de turbulences systémiques qui ébranleraient ses fondations. Nous avançons comme principale hypothèse de recherche qu’une perte de légitimité dans les mécanismes d’ordre d’une société westphalienne engendre une période plus ou moins longue de turbulences systémiques, provoquant un retour à l’antihégémonie caractérisée par l’établissement d’un nouvel ordre sociétal. Pour vérifier cette hypothèse, nous nous associons au cadre théorique de l’École anglaise qui analyse les relations interétatiques en qualifiant le caractère de l’ordre qui les gouverne. Ses adeptes y parviennent en étudiant les forces qui engendrent le maintien d’un environnement international antihégémonique, ainsi que la nature des réciprocités interétatiques qui s’en dégage. Ainsi, en observant les diverses institutions créées pour gérer l’ordre, ils sont en mesure de mieux comprendre l’évolution, la diffusion et la pérennisation de l’établissement d’une société des États. Cette approche nous a permis de construire un modèle explicatif pour notre dynamique sociétale. Par la suite, afin de répondre à notre questionnement initial, nous proposons d’analyser le statut de diverses sociétés internationales lors d’époques caractérisées par une période systémique de grands chaos, suivie du retour d’un régime sociétal. Nous cherchons à établir si des analogies peuvent être faites sur leur processus de transformation pour, par la suite, vérifier si elles peuvent s’appliquer à la nature du changement qui s’opère dans la présente société internationale. L’analyse historique comparative s’avère un instrument tout désigné pour ce type de recherche. Les époques sélectionnées pour notre recherche couvrent la Guerre de Trente Ans, les Guerres napoléoniennes et la Première Guerre mondiale. La nature antihégémonique d’une société des États, en plus de maintenir un environnement anarchique, crée un climat de rivalités qui entraîne un processus de transformations dans la dynamique de l’ordre. Ce facteur de changement fut introduit sous le concept de progrès sociétal, lequel engendre une désuétude institutionnelle dans les mécanismes de l’ordre sociétal, pouvant entraîner une période de turbulences systémiques. Ainsi, pour mieux observer ce phénomène, nous avons adopté les institutions comme outils d’analyse. Elles nous permettent d’être plus critiques des phénomènes observés, tout en nous autorisant à les comparer entre elles, en raison de leur longévité. Nos recherches révèlent la pérennité d’une dynamique de transformation au sein des sociétés westphaliennes, dont la nature entraîne des déséquilibres sociétaux qui varient selon son intensité. Nous observons aussi que, malgré l’égalité légale que confère la souveraineté aux États, les Grandes puissances sont les principaux artisans d’un système international. Leur aptitude à l’unilatéralisme fut souvent associée à l’émergence de turbulences systémiques. Nos recherches montrent que l’interdépendance et la coopération interétatique sont aussi alimentées par la diffusion et le partage d’une économie libérale. C’est aussi cette même interdépendance qui, progressivement, rend la guerre entre Grandes puissances désuète. Plus l’interdépendance et le multilatéralisme s’intensifient dans un environnement sociétal, plus le progrès sociétal a tendance à se manifester sous les aspects d’une transformation systémique progressive (non violente) plutôt que révolutionnaire (période de turbulences systémiques). La présente société internationale est sous l’influence du progrès sociétal depuis son avènement. Sa stabilité est directement liée à la capacité de ses mécanismes d’ordre à contrer les déséquilibres que le progrès engendre, ainsi qu’à l’aptitude de ses Grandes puissances à limiter leur propension à l’unilatéralisme. Donc, ces mécanismes doivent pouvoir intégrer le progrès pour maintenir leur légitimité et éviter d’engendrer une période de turbulences systémiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est connu que les problèmes d'ambiguïté de la langue ont un effet néfaste sur les résultats des systèmes de Recherche d'Information (RI). Toutefois, les efforts de recherche visant à intégrer des techniques de Désambiguisation de Sens (DS) à la RI n'ont pas porté fruit. La plupart des études sur le sujet obtiennent effectivement des résultats négatifs ou peu convaincants. De plus, des investigations basées sur l'ajout d'ambiguïté artificielle concluent qu'il faudrait une très haute précision de désambiguation pour arriver à un effet positif. Ce mémoire vise à développer de nouvelles approches plus performantes et efficaces, se concentrant sur l'utilisation de statistiques de cooccurrence afin de construire des modèles de contexte. Ces modèles pourront ensuite servir à effectuer une discrimination de sens entre une requête et les documents d'une collection. Dans ce mémoire à deux parties, nous ferons tout d'abord une investigation de la force de la relation entre un mot et les mots présents dans son contexte, proposant une méthode d'apprentissage du poids d'un mot de contexte en fonction de sa distance du mot modélisé dans le document. Cette méthode repose sur l'idée que des modèles de contextes faits à partir d'échantillons aléatoires de mots en contexte devraient être similaires. Des expériences en anglais et en japonais montrent que la force de relation en fonction de la distance suit généralement une loi de puissance négative. Les poids résultant des expériences sont ensuite utilisés dans la construction de systèmes de DS Bayes Naïfs. Des évaluations de ces systèmes sur les données de l'atelier Semeval en anglais pour la tâche Semeval-2007 English Lexical Sample, puis en japonais pour la tâche Semeval-2010 Japanese WSD, montrent que les systèmes ont des résultats comparables à l'état de l'art, bien qu'ils soient bien plus légers, et ne dépendent pas d'outils ou de ressources linguistiques. La deuxième partie de ce mémoire vise à adapter les méthodes développées à des applications de Recherche d'Information. Ces applications ont la difficulté additionnelle de ne pas pouvoir dépendre de données créées manuellement. Nous proposons donc des modèles de contextes à variables latentes basés sur l'Allocation Dirichlet Latente (LDA). Ceux-ci seront combinés à la méthodes de vraisemblance de requête par modèles de langue. En évaluant le système résultant sur trois collections de la conférence TREC (Text REtrieval Conference), nous observons une amélioration proportionnelle moyenne de 12% du MAP et 23% du GMAP. Les gains se font surtout sur les requêtes difficiles, augmentant la stabilité des résultats. Ces expériences seraient la première application positive de techniques de DS sur des tâches de RI standard.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Par une approche analytique, cette étude en éthique clinique a examiné la problématique de la demande d’assistance médicalisée pour mourir formulée dans le cadre des soins de fin de vie. Partant du fait que cette demande sollicite les soignants dans leur savoir et leur savoir-faire, surtout dans leur savoir-être, cette étude rend d’abord compte d’un fait : bon gré mal gré l’interdit de l’euthanasie par la loi et la déontologie médicale, ainsi que le débat contradictoire à son sujet qui dure déjà voici quelques décennies, il arrive de temps à autres que les soignants œuvrant en soins de fin de vie, soient confrontés à une demande d’assistance médicalisée pour mourir. Cette demande qui émane de certaines personnes en fin de vie et / ou de leurs proches, est souvent source de malaise pour les soignants à l’endroit de qui elle crée des défis majeurs et fait naître des dilemmes éthiques importants. Plus particulièrement, cette demande interroge toujours la finalité même des soins de fin de vie : est-ce que l’aide pour mourir fait partie de ces soins ? En réponse à cette question difficile, cette démarche réflexive de soignant chercheur en éthique montre qu’il est difficile de donner une réponse binaire en forme de oui / non ; il est difficile de donner une réponse d’application universalisable, et de définir une généralisable conduite à tenir devant une telle demande, car chaque cas est singulier et unique à son genre. Cette étude montre prioritairement que l’humanisation de la mort est à la fois un enjeu éthique important et un défi majeur pour notre société où la vie des individus est médicalisée de la naissance à la mort. En conséquence, parce que la demande d’assistance médicalisée pour mourir sollicite les soignants dans leur savoir et leur savoir-faire, cette étude montre toute l’importance de la réflexivité et de la créativité que doivent développer les soignants pour apporter une réponse constructive à chaque demande : une réponse humanisant le mourir et la mort elle-même, c’est-à-dire une réponse qui soit, sur le plan éthique, raisonnable et cohérente, une réponse qui soit sur le plan humain, porteuse de sens. D’où, outre l’axiologie, cette démarche réflexive montre que l’interdisciplinarité, la sémantique, l’herméneutique et les grilles d’analyse en éthique, constituent des outils réflexifs efficaces pouvant mieux aider les soignants dans leur démarche. Sur quelles bases éthiques, les soignants doivent-ils examiner une demande d’assistance médicalisée pour mourir, demande qui se présente toujours sous la forme d’un dilemme éthique? Cette question renvoie entre autre au fait que cette demande sollicite profondément les soignants dans leur savoir-être en relation des soins de fin de vie. Aussi bonnes les unes que les autres, qu’on soit pour ou contre l’euthanasie, plusieurs stratégies et méthodes d’analyse sont proposées aux soignants pour la résolution des conflits des valeurs et des dilemmes éthiques. Mais, ce n’est pas sur cette voie-là que cette étude invite les soignants. C’est plutôt par leur réflexivité et leur créativité, enrichies principalement par leur humanisme, leur expérience de vie, leur intuition, et secondairement par les différentes méthodes d’analyse, que selon chaque contexte, les soignants par le souci permanent de bien faire qui les caractérisent, trouveront toujours par eux-mêmes ce qui convient de faire dans l’ici et maintenant de chaque demande. C’est pourquoi, devant une demande d’assistance médicalisée pour mourir qui leur est adressée dans le cadre des soins de fin de vie, cette démarche éthique invite donc les soignants à être « des cliniciens créatifs, des praticiens réflexifs» . C’est pour cette raison, sur le plan proprement dit de la réflexion éthique, cette étude fait apparaître les repères de l’éthique humaniste de fin de vie comme bases axiologiques sur lesquels les soignants peuvent construire une démarche crédible pour répondre au mieux à cette demande. L’éthique humaniste de fin de vie située dans le sillage de l’humanisme médical , où l’humain précède le médical, renvoie au fait qu’en soins de fin de vie où émerge une demande d’aide à la mort, entre le demandeur de cette aide et le soignant, tout doit être basé sur une confiante relation d’homme à homme, même si du côté du soignant, son savoir être dans cette relation est aussi enrichi par sa compétence, ses connaissances et son expérience ou son savoir-faire. Basée sur l’humanité du soignant dans la démarche de soins, l’éthique humaniste de fin de vie en tant que pratique réflexive émerge de la créativité éthique du soignant lui-même et de l’équipe autour de lui ; et cette éthique se situe entre interrogation et transgression, et se définit comme une éthique « du vide-de-sens-à-remplir » dans un profond souci humain de bien faire. Car, exclue l’indifférence à la demande de l’assistance médicalisée pour mourir, son acceptation ou son refus par le soignant, doit porter sur l’humanisation de la mort. Cette dernière étant fondamentalement définie par rapport à ce qui déshumanise la fin de vie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire étudie l'algorithme d'amplification de l'amplitude et ses applications dans le domaine de test de propriété. On utilise l'amplification de l'amplitude pour proposer le plus efficace algorithme quantique à ce jour qui teste la linéarité de fonctions booléennes et on généralise notre nouvel algorithme pour tester si une fonction entre deux groupes abéliens finis est un homomorphisme. Le meilleur algorithme quantique connu qui teste la symétrie de fonctions booléennes est aussi amélioré et l'on utilise ce nouvel algorithme pour tester la quasi-symétrie de fonctions booléennes. Par la suite, on approfondit l'étude du nombre de requêtes à la boîte noire que fait l'algorithme d'amplification de l'amplitude pour amplitude initiale inconnue. Une description rigoureuse de la variable aléatoire représentant ce nombre est présentée, suivie du résultat précédemment connue de la borne supérieure sur l'espérance. Suivent de nouveaux résultats sur la variance de cette variable. Il est notamment montré que, dans le cas général, la variance est infinie, mais nous montrons aussi que, pour un choix approprié de paramètres, elle devient bornée supérieurement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Key agreement is a cryptographic scenario between two legitimate parties, who need to establish a common secret key over a public authenticated channel, and an eavesdropper who intercepts all their messages in order to learn the secret. We consider query complexity in which we count only the number of evaluations (queries) of a given black-box function, and classical communication channels. Ralph Merkle provided the first unclassified scheme for secure communications over insecure channels. When legitimate parties are willing to ask O(N) queries for some parameter N, any classical eavesdropper needs Omega(N^2) queries before being able to learn their secret, which is is optimal. However, a quantum eavesdropper can break this scheme in O(N) queries. Furthermore, it was conjectured that any scheme, in which legitimate parties are classical, could be broken in O(N) quantum queries. In this thesis, we introduce protocols à la Merkle that fall into two categories. When legitimate parties are restricted to use classical computers, we offer the first secure classical scheme. It requires Omega(N^{13/12}) queries of a quantum eavesdropper to learn the secret. We give another protocol having security of Omega(N^{7/6}) queries. Furthermore, for any k>= 2, we introduce a classical protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1/2+k/{k+1}}) queries, approaching Theta(N^{3/2}) when k increases. When legitimate parties are provided with quantum computers, we present two quantum protocols improving on the best known scheme before this work. Furthermore, for any k>= 2, we give a quantum protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1+{k}/{k+1}})} queries, approaching Theta(N^{2}) when k increases.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad, el uso de las tecnologías ha sido primordial para el avance de las sociedades, estas han permitido que personas sin conocimientos informáticos o usuarios llamados “no expertos” se interesen en su uso, razón por la cual los investigadores científicos se han visto en la necesidad de producir estudios que permitan la adaptación de sistemas, a la problemática existente dentro del ámbito informático. Una necesidad recurrente de todo usuario de un sistema es la gestión de la información, la cual se puede administrar por medio de una base de datos y lenguaje específico, como lo es el SQL (Structured Query Language), pero esto obliga al usuario sin conocimientos a acudir a un especialista para su diseño y construcción, lo cual se ve reflejado en costos y métodos complejos, entonces se plantea una pregunta ¿qué hacer cuando los proyectos son pequeñas y los recursos y procesos son limitados? Teniendo como base la investigación realizada por la universidad de Washington[39], donde sintetizan sentencias SQL a partir de ejemplos de entrada y salida, se pretende con esta memoria automatizar el proceso y aplicar una técnica diferente de aprendizaje, para lo cual utiliza una aproximación evolucionista, donde la aplicación de un algoritmo genético adaptado origina sentencias SQL válidas que responden a las condiciones establecidas por los ejemplos de entrada y salida dados por el usuario. Se obtuvo como resultado de la aproximación, una herramienta denominada EvoSQL que fue validada en este estudio. Sobre los 28 ejercicios empleados por la investigación [39], 23 de los cuales se obtuvieron resultados perfectos y 5 ejercicios sin éxito, esto representa un 82.1% de efectividad. Esta efectividad es superior en un 10.7% al establecido por la herramienta desarrollada en [39] SQLSynthesizer y 75% más alto que la herramienta siguiente más próxima Query by Output QBO[31]. El promedio obtenido en la ejecución de cada ejercicio fue de 3 minutos y 11 segundos, este tiempo es superior al establecido por SQLSynthesizer; sin embargo, en la medida un algoritmo genético supone la existencia de fases que amplían los rangos de tiempos, por lo cual el tiempo obtenido es aceptable con relación a las aplicaciones de este tipo. En conclusión y según lo anteriormente expuesto, se obtuvo una herramienta automática con una aproximación evolucionista, con buenos resultados y un proceso simple para el usuario “no experto”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le domaine biomédical est probablement le domaine où il y a les ressources les plus riches. Dans ces ressources, on regroupe les différentes expressions exprimant un concept, et définit des relations entre les concepts. Ces ressources sont construites pour faciliter l’accès aux informations dans le domaine. On pense généralement que ces ressources sont utiles pour la recherche d’information biomédicale. Or, les résultats obtenus jusqu’à présent sont mitigés : dans certaines études, l’utilisation des concepts a pu augmenter la performance de recherche, mais dans d’autres études, on a plutôt observé des baisses de performance. Cependant, ces résultats restent difficilement comparables étant donné qu’ils ont été obtenus sur des collections différentes. Il reste encore une question ouverte si et comment ces ressources peuvent aider à améliorer la recherche d’information biomédicale. Dans ce mémoire, nous comparons les différentes approches basées sur des concepts dans un même cadre, notamment l’approche utilisant les identificateurs de concept comme unité de représentation, et l’approche utilisant des expressions synonymes pour étendre la requête initiale. En comparaison avec l’approche traditionnelle de "sac de mots", nos résultats d’expérimentation montrent que la première approche dégrade toujours la performance, mais la seconde approche peut améliorer la performance. En particulier, en appariant les expressions de concepts comme des syntagmes stricts ou flexibles, certaines méthodes peuvent apporter des améliorations significatives non seulement par rapport à la méthode de "sac de mots" de base, mais aussi par rapport à la méthode de Champ Aléatoire Markov (Markov Random Field) qui est une méthode de l’état de l’art dans le domaine. Ces résultats montrent que quand les concepts sont utilisés de façon appropriée, ils peuvent grandement contribuer à améliorer la performance de recherche d’information biomédicale. Nous avons participé au laboratoire d’évaluation ShARe/CLEF 2014 eHealth. Notre résultat était le meilleur parmi tous les systèmes participants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les moteurs de recherche font partie de notre vie quotidienne. Actuellement, plus d’un tiers de la population mondiale utilise l’Internet. Les moteurs de recherche leur permettent de trouver rapidement les informations ou les produits qu'ils veulent. La recherche d'information (IR) est le fondement de moteurs de recherche modernes. Les approches traditionnelles de recherche d'information supposent que les termes d'indexation sont indépendants. Pourtant, les termes qui apparaissent dans le même contexte sont souvent dépendants. L’absence de la prise en compte de ces dépendances est une des causes de l’introduction de bruit dans le résultat (résultat non pertinents). Certaines études ont proposé d’intégrer certains types de dépendance, tels que la proximité, la cooccurrence, la contiguïté et de la dépendance grammaticale. Dans la plupart des cas, les modèles de dépendance sont construits séparément et ensuite combinés avec le modèle traditionnel de mots avec une importance constante. Par conséquent, ils ne peuvent pas capturer correctement la dépendance variable et la force de dépendance. Par exemple, la dépendance entre les mots adjacents "Black Friday" est plus importante que celle entre les mots "road constructions". Dans cette thèse, nous étudions différentes approches pour capturer les relations des termes et de leurs forces de dépendance. Nous avons proposé des méthodes suivantes: ─ Nous réexaminons l'approche de combinaison en utilisant différentes unités d'indexation pour la RI monolingue en chinois et la RI translinguistique entre anglais et chinois. En plus d’utiliser des mots, nous étudions la possibilité d'utiliser bi-gramme et uni-gramme comme unité de traduction pour le chinois. Plusieurs modèles de traduction sont construits pour traduire des mots anglais en uni-grammes, bi-grammes et mots chinois avec un corpus parallèle. Une requête en anglais est ensuite traduite de plusieurs façons, et un score classement est produit avec chaque traduction. Le score final de classement combine tous ces types de traduction. Nous considérons la dépendance entre les termes en utilisant la théorie d’évidence de Dempster-Shafer. Une occurrence d'un fragment de texte (de plusieurs mots) dans un document est considérée comme représentant l'ensemble de tous les termes constituants. La probabilité est assignée à un tel ensemble de termes plutôt qu’a chaque terme individuel. Au moment d’évaluation de requête, cette probabilité est redistribuée aux termes de la requête si ces derniers sont différents. Cette approche nous permet d'intégrer les relations de dépendance entre les termes. Nous proposons un modèle discriminant pour intégrer les différentes types de dépendance selon leur force et leur utilité pour la RI. Notamment, nous considérons la dépendance de contiguïté et de cooccurrence à de différentes distances, c’est-à-dire les bi-grammes et les paires de termes dans une fenêtre de 2, 4, 8 et 16 mots. Le poids d’un bi-gramme ou d’une paire de termes dépendants est déterminé selon un ensemble des caractères, en utilisant la régression SVM. Toutes les méthodes proposées sont évaluées sur plusieurs collections en anglais et/ou chinois, et les résultats expérimentaux montrent que ces méthodes produisent des améliorations substantielles sur l'état de l'art.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This is a Named Entity Based Question Answering System for Malayalam Language. Although a vast amount of information is available today in digital form, no effective information access mechanism exists to provide humans with convenient information access. Information Retrieval and Question Answering systems are the two mechanisms available now for information access. Information systems typically return a long list of documents in response to a user’s query which are to be skimmed by the user to determine whether they contain an answer. But a Question Answering System allows the user to state his/her information need as a natural language question and receives most appropriate answer in a word or a sentence or a paragraph. This system is based on Named Entity Tagging and Question Classification. Document tagging extracts useful information from the documents which will be used in finding the answer to the question. Question Classification extracts useful information from the question to determine the type of the question and the way in which the question is to be answered. Various Machine Learning methods are used to tag the documents. Rule-Based Approach is used for Question Classification. Malayalam belongs to the Dravidian family of languages and is one of the four major languages of this family. It is one of the 22 Scheduled Languages of India with official language status in the state of Kerala. It is spoken by 40 million people. Malayalam is a morphologically rich agglutinative language and relatively of free word order. Also Malayalam has a productive morphology that allows the creation of complex words which are often highly ambiguous. Document tagging tools such as Parts-of-Speech Tagger, Phrase Chunker, Named Entity Tagger, and Compound Word Splitter are developed as a part of this research work. No such tools were available for Malayalam language. Finite State Transducer, High Order Conditional Random Field, Artificial Immunity System Principles, and Support Vector Machines are the techniques used for the design of these document preprocessing tools. This research work describes how the Named Entity is used to represent the documents. Single sentence questions are used to test the system. Overall Precision and Recall obtained are 88.5% and 85.9% respectively. This work can be extended in several directions. The coverage of non-factoid questions can be increased and also it can be extended to include open domain applications. Reference Resolution and Word Sense Disambiguation techniques are suggested as the future enhancements

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper proposes a content based image retrieval (CBIR) system using the local colour and texture features of selected image sub-blocks and global colour and shape features of the image. The image sub-blocks are roughly identified by segmenting the image into partitions of different configuration, finding the edge density in each partition using edge thresholding, morphological dilation and finding the corner density in each partition. The colour and texture features of the identified regions are computed from the histograms of the quantized HSV colour space and Gray Level Co- occurrence Matrix (GLCM) respectively. A combined colour and texture feature vector is computed for each region. The shape features are computed from the Edge Histogram Descriptor (EHD). Euclidean distance measure is used for computing the distance between the features of the query and target image. Experimental results show that the proposed method provides better retrieving result than retrieval using some of the existing methods

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper proposes a region based image retrieval system using the local colour and texture features of image sub regions. The regions of interest (ROI) are roughly identified by segmenting the image into fixed partitions, finding the edge map and applying morphological dilation. The colour and texture features of the ROIs are computed from the histograms of the quantized HSV colour space and Gray Level co- occurrence matrix (GLCM) respectively. Each ROI of the query image is compared with same number of ROIs of the target image that are arranged in the descending order of white pixel density in the regions, using Euclidean distance measure for similarity computation. Preliminary experimental results show that the proposed method provides better retrieving result than retrieval using some of the existing methods.