902 resultados para Hierarchical document


Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’adoption de la Loi concernant le cadre juridique des technologies de l’information en 2001 a permis de mettre en place un cadre juridique favorisant l’intégration des technologies de l’information dans le droit. Plus particulièrement en droit de la preuve, cela a conféré au document technologique la qualité d’élément de preuve. Dans ce contexte il a été nécessaire d’adapter certains articles du Code civil du Québec et du même fait certaines règles dont la règle de la meilleure preuve, telle que prévue à l’article 2860 C.c.Q.. Cette règle s’appuyait jusqu’à présent sur la notion d’original, notion propre au support papier dont il a fallu trouver un équivalent pour le document technologique. C’est ce qu’a fait la Loi en prévoyant à son article 12 les caractéristiques de l’original technologique. Nous nous penchons sur cette notion en regardant quelles sont ses origines et ses justifications, puis nous avons analysé l’article 12 de la Loi qui traite de l’original sous forme technologique. Enfin nous nous sommes interrogé sur la place des reproductions dans le contexte technologique et nous avons vu que celles-ci ont pris de plus en plus d’importance à côté du document original, au fur et à mesure du perfectionnement des moyens de reproduction.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

"Ce texte se veut une réflexion sur les points à considérer avant l'adoption d'un système de dépôt électronique accessible à toutes les cours du Canada. En prenant pour exemple l'expérience torontoise, l'auteur souligne une série d'éléments à considérer avant la mise en œuvre d'un tel processus, à savoir : La nécessité de tenir compte des coûts associés à la formation des avocats, des juges, ainsi que du personnel juridique; L'attachement au document "" papier "" et le manque d'unanimité quant à la valeur du document électronique; et L'impact négatif que peut avoir l'informatisation des données sur la vie privée des contribuables. L'auteur conclu en ventant l'aspect centralisé du projet de dépôt électronique proposé par la Cour suprême en soulignant toutefois qu'un tel projet devra nécessairement évaluer les besoins des utilisateurs du système afin d'en tenir compte lors de sa conception."

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce texte se veut un document de présentation visant familiariser les différents auteurs ayant participé à l’étude « Étude de faisabilité : Modèle de fournisseur de services de dépôt électronique », commandée par le Bureau du Registraire de la Cour suprême du Canada en septembre 2002 avec la notion de dépôt électronique telle qu’envisagée par le gouvernement canadien. Il fait l’état d’un modèle conceptuel de marché de fournisseur de services de dépôt électronique (FSDE) normatif géré par le secteur privé afin de fournir des services de dépôt électronique sûrs et peu coûteux aux praticiens du droit au Canada. Ce modèle envisagé par les responsables du projet pourra, grâce à l’utilisation de la norme juridique XML Court Filing 1.0, fournir une plate-forme commune de dépôt électronique et de gestion des documents offrant une interface avec les systèmes de gestion des instances et de gestion des documents de chaque tribunal. Ces travaux ne constituent pas pour autant un endossement du modèle FSDE, mais plutôt un engagement d’étudier de façon complète et systématique une solution de rechange au dépôt électronique afin d’améliorer notre connaissance collective dans ce domaine.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This research project is a contribution to the global field of information retrieval, specifically, to develop tools to enable information access in digital documents. We recognize the need to provide the user with flexible access to the contents of large, potentially complex digital documents, with means other than a search function or a handful of metadata elements. The goal is to produce a text browsing tool offering a maximum of information based on a fairly superficial linguistic analysis. We are concerned with a type of extensive single-document indexing, and not indexing by a set of keywords (see Klement, 2002, for a clear distinction between the two). The desired browsing tool would not only give at a glance the main topics discussed in the document, but would also present relationships between these topics. It would also give direct access to the text (via hypertext links to specific passages). The present paper, after reviewing previous research on this and similar topics, discusses the methodology and the main characteristics of a prototype we have devised. Experimental results are presented, as well as an analysis of remaining hurdles and potential applications.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Depuis longtemps, le sentiment d’insécurité suscite l’intérêt des chercheurs en sciences sociales. En milieu carcéral, ce phénomène est encore peu étudié. Les différentes études arrivent à des résultats incohérents par rapport aux facteurs reliés au sentiment d’insécurité des détenus. Les différentes façons de conceptualiser et de mesurer ce phénomène apparaissent souvent comme une des causes de l’incohérence des résultats obtenus. La présente étude a comme objectif général d’approfondir les connaissances sur le sentiment d’insécurité des incarcérés et présente les objectifs spécifiques suivants: (1) dresser un portrait quantitatif du sentiment d'insécurité en tenant compte de ses dimensions affective, cognitive et comportementale; (2) estimer le taux de victimisation dans les pénitenciers canadiens du Québec; (3) analyser les facteurs reliés aux différentes dimensions du sentiment d'insécurité; (4) analyser l’interrelation entre les différentes dimensions du sentiment d’insécurité. Afin d’atteindre ces objectifs, les données recueillies auprès de 293 détenus de dix pénitenciers québécois ont été analysées. Des analyses descriptives ont été utilisées pour documenter le sentiment d’insécurité des détenus en tenant compte de différentes dimensions. Des analyses bi variées et multi variées ont permis d'identifier les facteurs individuels et contextuels en relation significative avec les différentes dimensions du sentiment d’insécurité. Des modèles de régression hiérarchisée ont permis d’analyser l’interrelation entre les différentes dimensions du sentiment d’insécurité, en tenant compte de l’influence de facteurs individuels et contextuels. Les résultats ont révélé un niveau d’insécurité peu élevé et variable parmi la population carcérale et aussi que les différentes dimensions du sentiment d’insécurité étaient affectées par différents facteurs et qu'elles étaient partiellement inter reliées.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

À une époque où l'immigration internationale est de plus en plus difficile et sélective, le statut de réfugié constitue un bien public précieux qui permet à certains non-citoyens l'accès et l'appartenance au pays hôte. Reposant sur le jugement discrétionnaire du décideur, le statut de réfugié n’est accordé qu’aux demandeurs qui établissent une crainte bien fondée de persécution en cas de retour dans leur pays d'origine. Au Canada, le plus important tribunal administratif indépendant, la Commission de l'immigration et du statut de réfugié du Canada (CISR), est chargé d’entendre les demandeurs d'asile et de rendre des décisions de statut de réfugié. Cette thèse cherche à comprendre les disparités dans le taux d’octroi du statut de réfugié entre les décideurs de la CISR qui sont politiquement nommés. Au regard du manque de recherches empiriques sur la manière avec laquelle le Canada alloue les possibilités d’entrée et le statut juridique pour les non-citoyens, il était nécessaire de lever le voile sur le fonctionnement de l’administration sur cette question. En explorant la prise de décision relative aux réfugiés à partir d'une perspective de Street Level Bureaucracy Theory (SLBT) et une méthodologie ethnographique qui combine l'observation directe, les entretiens semi-structurés et l'analyse de documents, l'étude a d'abord cherché à comprendre si la variation dans le taux d’octroi du statut était le résultat de différences dans les pratiques et le raisonnement discrétionnaires du décideur et ensuite à retracer les facteurs organisationnels qui alimentent les différences. Dans la lignée des travaux de SLBT qui documentent la façon dont la situation de travail structure la discrétion et l’importance des perceptions individuelles dans la prise de décision, cette étude met en exergue les différences de fond parmi les décideurs concernant les routines de travail, la conception des demandeurs d’asile, et la meilleure façon de mener leur travail. L’analyse montre comment les décideurs appliquent différentes approches lors des audiences, allant de l’interrogatoire rigide à l’entrevue plus flexible. En dépit des contraintes organisationnelles qui pèsent sur les décideurs pour accroître la cohérence et l’efficacité, l’importance de l’évaluation de la crédibilité ainsi que l’invisibilité de l’espace de décision laissent suffisamment de marge pour l’exercice d’un pouvoir discrétionnaire. Même dans les environnements comme les tribunaux administratifs où la surabondance des règles limite fortement la discrétion, la prise de décision est loin d’être synonyme d’adhésion aux principes de neutralité et hiérarchie. La discrétion est plutôt imbriquée dans le contexte de routines d'interaction, de la situation de travail, de l’adhésion aux règles et du droit. Même dans les organisations qui institutionnalisent et uniformisent la formation et communiquent de façon claire leurs demandes aux décideurs, le caractère discrétionnaire de la décision est par la nature difficile, voire impossible, à contrôler et discipliner. Lorsqu'ils sont confrontés à l'ambiguïté des objectifs et aux exigences qui s’opposent à leur pouvoir discrétionnaire, les décideurs réinterprètent la définition de leur travail et banalisent leurs pratiques. Ils formulent une routine de rencontre qui est acceptable sur le plan organisationnel pour évaluer les demandeurs face à eux. Cette thèse montre comment les demandeurs, leurs témoignages et leurs preuves sont traités d’une manière inégale et comment ces traitements se répercutent sur la décision des réfugiés.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The work is intended to study the following important aspects of document image processing and develop new methods. (1) Segmentation ofdocument images using adaptive interval valued neuro-fuzzy method. (2) Improving the segmentation procedure using Simulated Annealing technique. (3) Development of optimized compression algorithms using Genetic Algorithm and parallel Genetic Algorithm (4) Feature extraction of document images (5) Development of IV fuzzy rules. This work also helps for feature extraction and foreground and background identification. The proposed work incorporates Evolutionary and hybrid methods for segmentation and compression of document images. A study of different neural networks used in image processing, the study of developments in the area of fuzzy logic etc is carried out in this work

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This work proposes a parallel genetic algorithm for compressing scanned document images. A fitness function is designed with Hausdorff distance which determines the terminating condition. The algorithm helps to locate the text lines. A greater compression ratio has achieved with lesser distortion

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Knowledge discovery in databases is the non-trivial process of identifying valid, novel potentially useful and ultimately understandable patterns from data. The term Data mining refers to the process which does the exploratory analysis on the data and builds some model on the data. To infer patterns from data, data mining involves different approaches like association rule mining, classification techniques or clustering techniques. Among the many data mining techniques, clustering plays a major role, since it helps to group the related data for assessing properties and drawing conclusions. Most of the clustering algorithms act on a dataset with uniform format, since the similarity or dissimilarity between the data points is a significant factor in finding out the clusters. If a dataset consists of mixed attributes, i.e. a combination of numerical and categorical variables, a preferred approach is to convert different formats into a uniform format. The research study explores the various techniques to convert the mixed data sets to a numerical equivalent, so as to make it equipped for applying the statistical and similar algorithms. The results of clustering mixed category data after conversion to numeric data type have been demonstrated using a crime data set. The thesis also proposes an extension to the well known algorithm for handling mixed data types, to deal with data sets having only categorical data. The proposed conversion has been validated on a data set corresponding to breast cancer. Moreover, another issue with the clustering process is the visualization of output. Different geometric techniques like scatter plot, or projection plots are available, but none of the techniques display the result projecting the whole database but rather demonstrate attribute-pair wise analysis

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis describes the development of a model-based vision system that exploits hierarchies of both object structure and object scale. The focus of the research is to use these hierarchies to achieve robust recognition based on effective organization and indexing schemes for model libraries. The goal of the system is to recognize parameterized instances of non-rigid model objects contained in a large knowledge base despite the presence of noise and occlusion. Robustness is achieved by developing a system that can recognize viewed objects that are scaled or mirror-image instances of the known models or that contain components sub-parts with different relative scaling, rotation, or translation than in models. The approach taken in this thesis is to develop an object shape representation that incorporates a component sub-part hierarchy- to allow for efficient and correct indexing into an automatically generated model library as well as for relative parameterization among sub-parts, and a scale hierarchy- to allow for a general to specific recognition procedure. After analysis of the issues and inherent tradeoffs in the recognition process, a system is implemented using a representation based on significant contour curvature changes and a recognition engine based on geometric constraints of feature properties. Examples of the system's performance are given, followed by an analysis of the results. In conclusion, the system's benefits and limitations are presented.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

I have designed and implemented a system for the multilevel verification of synchronous MOS VLSI circuits. The system, called Silica Pithecus, accepts the schematic of an MOS circuit and a specification of the circuit's intended digital behavior. Silica Pithecus determines if the circuit meets its specification. If the circuit fails to meet its specification Silica Pithecus returns to the designer the reason for the failure. Unlike earlier verifiers which modelled primitives (e.g., transistors) as unidirectional digital devices, Silica Pithecus models primitives more realistically. Transistors are modelled as bidirectional devices of varying resistances, and nodes are modelled as capacitors. Silica Pithecus operates hierarchically, interactively, and incrementally. Major contributions of this research include a formal understanding of the relationship between different behavioral descriptions (e.g., signal, boolean, and arithmetic descriptions) of the same device, and a formalization of the relationship between the structure, behavior, and context of device. Given these formal structures my methods find sufficient conditions on the inputs of circuits which guarantee the correct operation of the circuit in the desired descriptive domain. These methods are algorithmic and complete. They also handle complex phenomena such as races and charge sharing. Informal notions such as races and hazards are shown to be derivable from the correctness conditions used by my methods.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As the number of processors in distributed-memory multiprocessors grows, efficiently supporting a shared-memory programming model becomes difficult. We have designed the Protocol for Hierarchical Directories (PHD) to allow shared-memory support for systems containing massive numbers of processors. PHD eliminates bandwidth problems by using a scalable network, decreases hot-spots by not relying on a single point to distribute blocks, and uses a scalable amount of space for its directories. PHD provides a shared-memory model by synthesizing a global shared memory from the local memories of processors. PHD supports sequentially consistent read, write, and test- and-set operations. This thesis also introduces a method of describing locality for hierarchical protocols and employs this method in the derivation of an abstract model of the protocol behavior. An embedded model, based on the work of Johnson[ISCA19], describes the protocol behavior when mapped to a k-ary n-cube. The thesis uses these two models to study the average height in the hierarchy that operations reach, the longest path messages travel, the number of messages that operations generate, the inter-transaction issue time, and the protocol overhead for different locality parameters, degrees of multithreading, and machine sizes. We determine that multithreading is only useful for approximately two to four threads; any additional interleaving does not decrease the overall latency. For small machines and high locality applications, this limitation is due mainly to the length of the running threads. For large machines with medium to low locality, this limitation is due mainly to the protocol overhead being too large. Our study using the embedded model shows that in situations where the run length between references to shared memory is at least an order of magnitude longer than the time to process a single state transition in the protocol, applications exhibit good performance. If separate controllers for processing protocol requests are included, the protocol scales to 32k processor machines as long as the application exhibits hierarchical locality: at least 22% of the global references must be able to be satisfied locally; at most 35% of the global references are allowed to reach the top level of the hierarchy.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The HMAX model has recently been proposed by Riesenhuber & Poggio as a hierarchical model of position- and size-invariant object recognition in visual cortex. It has also turned out to model successfully a number of other properties of the ventral visual stream (the visual pathway thought to be crucial for object recognition in cortex), and particularly of (view-tuned) neurons in macaque inferotemporal cortex, the brain area at the top of the ventral stream. The original modeling study only used ``paperclip'' stimuli, as in the corresponding physiology experiment, and did not explore systematically how model units' invariance properties depended on model parameters. In this study, we aimed at a deeper understanding of the inner workings of HMAX and its performance for various parameter settings and ``natural'' stimulus classes. We examined HMAX responses for different stimulus sizes and positions systematically and found a dependence of model units' responses on stimulus position for which a quantitative description is offered. Interestingly, we find that scale invariance properties of hierarchical neural models are not independent of stimulus class, as opposed to translation invariance, even though both are affine transformations within the image plane.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We present a tree-structured architecture for supervised learning. The statistical model underlying the architecture is a hierarchical mixture model in which both the mixture coefficients and the mixture components are generalized linear models (GLIM's). Learning is treated as a maximum likelihood problem; in particular, we present an Expectation-Maximization (EM) algorithm for adjusting the parameters of the architecture. We also develop an on-line learning algorithm in which the parameters are updated incrementally. Comparative simulation results are presented in the robot dynamics domain.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Modeling and predicting co-occurrences of events is a fundamental problem of unsupervised learning. In this contribution we develop a statistical framework for analyzing co-occurrence data in a general setting where elementary observations are joint occurrences of pairs of abstract objects from two finite sets. The main challenge for statistical models in this context is to overcome the inherent data sparseness and to estimate the probabilities for pairs which were rarely observed or even unobserved in a given sample set. Moreover, it is often of considerable interest to extract grouping structure or to find a hierarchical data organization. A novel family of mixture models is proposed which explain the observed data by a finite number of shared aspects or clusters. This provides a common framework for statistical inference and structure discovery and also includes several recently proposed models as special cases. Adopting the maximum likelihood principle, EM algorithms are derived to fit the model parameters. We develop improved versions of EM which largely avoid overfitting problems and overcome the inherent locality of EM--based optimization. Among the broad variety of possible applications, e.g., in information retrieval, natural language processing, data mining, and computer vision, we have chosen document retrieval, the statistical analysis of noun/adjective co-occurrence and the unsupervised segmentation of textured images to test and evaluate the proposed algorithms.