869 resultados para Données--Compression (Télécommunications)
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Medical imaging technologies are experiencing a growth in terms of usage and image resolution, namely in diagnostics systems that require a large set of images, like CT or MRI. Furthermore, legal restrictions impose that these scans must be archived for several years. These facts led to the increase of storage costs in medical image databases and institutions. Thus, a demand for more efficient compression tools, used for archiving and communication, is arising. Currently, the DICOM standard, that makes recommendations for medical communications and imaging compression, recommends lossless encoders such as JPEG, RLE, JPEG-LS and JPEG2000. However, none of these encoders include inter-slice prediction in their algorithms. This dissertation presents the research work on medical image compression, using the MRP encoder. MRP is one of the most efficient lossless image compression algorithm. Several processing techniques are proposed to adapt the input medical images to the encoder characteristics. Two of these techniques, namely changing the alignment of slices for compression and a pixel-wise difference predictor, increased the compression efficiency of MRP, by up to 27.9%. Inter-slice prediction support was also added to MRP, using uni and bi-directional techniques. Also, the pixel-wise difference predictor was added to the algorithm. Overall, the compression efficiency of MRP was improved by 46.1%. Thus, these techniques allow for compression ratio savings of 57.1%, compared to DICOM encoders, and 33.2%, compared to HEVC RExt Random Access. This makes MRP the most efficient of the encoders under study.
Resumo:
Medical imaging technology and applications are continuously evolving, dealing with images of increasing spatial and temporal resolutions, which allow easier and more accurate medical diagnosis. However, this increase in resolution demands a growing amount of data to be stored and transmitted. Despite the high coding efficiency achieved by the most recent image and video coding standards in lossy compression, they are not well suited for quality-critical medical image compression where either near-lossless or lossless coding is required. In this dissertation, two different approaches to improve lossless coding of volumetric medical images, such as Magnetic Resonance and Computed Tomography, were studied and implemented using the latest standard High Efficiency Video Encoder (HEVC). In a first approach, the use of geometric transformations to perform inter-slice prediction was investigated. For the second approach, a pixel-wise prediction technique, based on Least-Squares prediction, that exploits inter-slice redundancy was proposed to extend the current HEVC lossless tools. Experimental results show a bitrate reduction between 45% and 49%, when compared with DICOM recommended encoders, and 13.7% when compared with standard HEVC.
Resumo:
We propose two new approaches to enhance the spectral compression process arising from nonlinear pulse propagation in an optical fibre. We numerically show that an additional sinusoidal temporal phase modulation of the pulse enables efficient reduction of the intensity level of side lobes in the spectrum. Another strategy is to select a regime of propagation in which normal group-velocity dispersion reshapes the initial stretched pulse to a near-Fourier-transform-limited rectangular waveform.
Resumo:
We propose a new, simple approach to enhance the spectral compression process arising from nonlinear pulse propagation in an optical fiber. We numerically show that an additional sinusoidal temporal phase modulation of the pulse enables efficient reduction of the intensity level of the side lobes in the spectrum that are produced by the mismatch between the initial linear negative chirp of the pulse and the self-phase modulation-induced nonlinear positive chirp. Remarkable increase of both the extent of spectrum narrowing and the quality of the compressed spectrum is afforded by the proposed approach across a wide range of experimentally accessible parameters.
Resumo:
We propose a simple approach to enhance the spectral compression arising from nonlinear pulse propagation in a Kerr medium. We numerically show that an additional sinusoidal temporal phase modulation enables efficient reduction of the intensity level of spectral side lobes.
Resumo:
A substantial amount of information on the Internet is present in the form of text. The value of this semi-structured and unstructured data has been widely acknowledged, with consequent scientific and commercial exploitation. The ever-increasing data production, however, pushes data analytic platforms to their limit. This thesis proposes techniques for more efficient textual big data analysis suitable for the Hadoop analytic platform. This research explores the direct processing of compressed textual data. The focus is on developing novel compression methods with a number of desirable properties to support text-based big data analysis in distributed environments. The novel contributions of this work include the following. Firstly, a Content-aware Partial Compression (CaPC) scheme is developed. CaPC makes a distinction between informational and functional content in which only the informational content is compressed. Thus, the compressed data is made transparent to existing software libraries which often rely on functional content to work. Secondly, a context-free bit-oriented compression scheme (Approximated Huffman Compression) based on the Huffman algorithm is developed. This uses a hybrid data structure that allows pattern searching in compressed data in linear time. Thirdly, several modern compression schemes have been extended so that the compressed data can be safely split with respect to logical data records in distributed file systems. Furthermore, an innovative two layer compression architecture is used, in which each compression layer is appropriate for the corresponding stage of data processing. Peripheral libraries are developed that seamlessly link the proposed compression schemes to existing analytic platforms and computational frameworks, and also make the use of the compressed data transparent to developers. The compression schemes have been evaluated for a number of standard MapReduce analysis tasks using a collection of real-world datasets. In comparison with existing solutions, they have shown substantial improvement in performance and significant reduction in system resource requirements.
Resumo:
L’étude des polymorphismes et des aspects multifactoriels des déterminants de la santé suscite un engouement majeur envers la recherche populationnelle en génétique et génomique. Cette méthode de recherche requiert cependant la collecte et l’analyse d’un nombre élevé d’échantillons biologiques et de données associées, ce qui stimule le développement des biobanques. Ces biobanques, composées des données personnelles et de santé de milliers de participants, constituent désormais une ressource essentielle permettant l’étude de l’étiologie des maladies complexes et multifactorielles, tout en augmentant la rapidité et la fiabilité des résultats de recherche. Afin d’optimiser l’utilisation de ces ressources, les chercheurs combinent maintenant les informations contenues dans différentes biobanques de manière à créer virtuellement des mégacohortes de sujets. Cependant, tout partage de données à des fins de recherche internationale est dépendant de la possibilité, à la fois légale et éthique, d’utiliser ces données aux fins pressenties. Le droit d’utiliser les données personnelles, médicales et génétiques de participants dans le cadre de recherches internationales est soumis à un ensemble complexe et exhaustif d’exigences légales et éthiques. Cette complexité est exacerbée lorsque les participants sont décédés. Fondée sur une révision de l’interprétation individualiste du concept de consentement éclairé, ainsi qu’une perspective constructiviste des concepts de confiance et d’autonomie, cette thèse se situe au carrefour de la recherche, du droit et de l’éthique, et a pour objectif de proposer un modèle promouvant l’harmonisation éthique et juridique des données aux fins de recherches internationales en génétique.
Resumo:
De nombreux problèmes liés aux domaines du transport, des télécommunications et de la logistique peuvent être modélisés comme des problèmes de conception de réseaux. Le problème classique consiste à transporter un flot (données, personnes, produits, etc.) sur un réseau sous un certain nombre de contraintes dans le but de satisfaire la demande, tout en minimisant les coûts. Dans ce mémoire, on se propose d'étudier le problème de conception de réseaux avec coûts fixes, capacités et un seul produit, qu'on transforme en un problème équivalent à plusieurs produits de façon à améliorer la valeur de la borne inférieure provenant de la relaxation continue du modèle. La méthode que nous présentons pour la résolution de ce problème est une méthode exacte de branch-and-price-and-cut avec une condition d'arrêt, dans laquelle nous exploitons à la fois la méthode de génération de colonnes, la méthode de génération de coupes et l'algorithme de branch-and-bound. Ces méthodes figurent parmi les techniques les plus utilisées en programmation linéaire en nombres entiers. Nous testons notre méthode sur deux groupes d'instances de tailles différentes (gran-des et très grandes), et nous la comparons avec les résultats donnés par CPLEX, un des meilleurs logiciels permettant de résoudre des problèmes d'optimisation mathématique, ainsi qu’avec une méthode de branch-and-cut. Il s'est avéré que notre méthode est prometteuse et peut donner de bons résultats, en particulier pour les instances de très grandes tailles.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.