17 resultados para numérisation
em Université de Montréal, Canada
Resumo:
Un résumé en anglais est également disponible.
Resumo:
Cette recherche porte sur la controverse médiatique entourant le projet de loi HADOPI en France, à compter du dépôt du rapport Olivennes en novembre 2007 jusqu’à son adoption définitive en octobre 2009, loi qui vise à développer l’offre légale d’œuvres culturelles sur Internet, en régulant les pratiques de téléchargement. Durant ces deux années, HADOPI a fait l’objet de maintes discussions, de débats et de négociations sur les activités des internautes ayant recours à ces nouveaux modes de consommation de la musique sur Internet, entre autres. L’étude porte sur un corpus d’articles journalistiques des principales institutions médiatiques françaises, tant la presse généraliste quotidienne qu’hebdomadaire. Son cadre théorique s’inspire essentiellement des travaux du sociologue français Michel Callon et sa notion de cadrage (framing) qui suppose qu’un problème identifié à un environnement donné est avant tout défini et pris en charge par des acteurs spécifiques à cet environnement. Je défends l’idée que l’adoption définitive de la loi HADOPI repose sur un processus de négociations complexe, dont les points de vue dans les discours de presse semblent être organisés en deux camps par les médias, les « pour » et les « contre ». La définition de la situation du point de vue d’un « camp » comme de l’autre évoque les principaux constats de la controverse médiatique selon les intervenants concernés.
Resumo:
Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée de ses documents visuels et audio-visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.
Resumo:
Dans son texte, l’auteur tente de répondre à quatre grandes questions : le cadre juridique actuel qui régi la gestion des renseignements personnels dans le réseau de la santé et des services sociaux protège–t–il adéquatement ces données sensibles ? Peut–on tenter d’améliorer cette protection ? Quels facteurs contribuent à l’émergence des nouvelles normes ? Quel rôle les exigences techniques, les intérêts économiques et les considérations politiques jouent–ils dans l’émergence de ces nouvelles normes ? À l’égard de ces interrogations, l’auteur montre que le régime actuel, qui se distingue particulièrement par sa complexité et son opacité, ne protège pas adéquatement les renseignements personnels appelés à circuler dans l’univers numérique en émergence. Il examine donc les facteurs qui contribuent À l’émergence des nouvelles normes alors que les règles juridiques actuelles se trouvent en porte–à–faux par rapport aux développements technologiques. Par la suite, il tente de situer ou de mesurer l’influence des intérêts économiques, des considérations politiques et des impératifs techniques dans l’émergence de ces nouvelles normes. Finalement, il met de l’avant un concept nouveau, celui des aires de partage, qu’il présente comme un moyen de mieux protéger les renseignements personnels et confidentiels dans l’ère de l’information.
Resumo:
Court rapport de la conférence Access 2005 tenue à Edmonton, Canada. Résumé des idées et tendances principales exposées.
Resumo:
"Mémoire présenté à la faculté des études supérieures en vue de l'obtention du grade de maîtrise en droit (L.L.M.)"
Resumo:
Introduction: Le but de l’étude était d’examiner l’effet des matériaux à empreintes sur la précision et la fiabilité des modèles d’études numériques. Méthodes: Vingt-cinq paires de modèles en plâtre ont été choisies au hasard parmi les dossiers de la clinique d’orthodontie de l’Université de Montréal. Une empreinte en alginate (Kromopan 100), une empreinte en substitut d’alginate (Alginot), et une empreinte en PVS (Aquasil) ont été prises de chaque arcade pour tous les patients. Les empreintes ont été envoyées chez Orthobyte pour la coulée des modèles en plâtre et la numérisation des modèles numériques. Les analyses de Bolton 6 et 12, leurs mesures constituantes, le surplomb vertical (overbite), le surplomb horizontal (overjet) et la longueur d’arcade ont été utilisés pour comparaisons. Résultats : La corrélation entre mesures répétées était de bonne à excellente pour les modèles en plâtre et pour les modèles numériques. La tendance voulait que les mesures répétées sur les modèles en plâtre furent plus fiables. Il existait des différences statistiquement significatives pour l’analyse de Bolton 12, pour la longueur d’arcade mandibulaire, et pour le chevauchement mandibulaire, ce pour tous les matériaux à empreintes. La tendance observée fut que les mesures sur les modèles en plâtre étaient plus petites pour l’analyse de Bolton 12 mais plus grandes pour la longueur d’arcade et pour le chevauchement mandibulaire. Malgré les différences statistiquement significatives trouvées, ces différences n’avaient aucune signification clinique. Conclusions : La précision et la fiabilité du logiciel pour l’analyse complète des modèles numériques sont cliniquement acceptables quand on les compare avec les résultats de l’analyse traditionnelle sur modèles en plâtre.
Resumo:
La représentation d'une surface, son lissage et son utilisation pour l'identification, la comparaison, la classification, et l'étude des variations de volume, de courbure ou de topologie sont omniprésentes dans l'aire de la numérisation. Parmi les méthodes mathématiques, nous avons retenu les transformations difféomorphiques d'un pattern de référence. Il y a un grand intérêt théorique et numérique à approcher un difféomorphisme arbitraire par des difféomorphismes engendrés par des champs de vitesses. Sur le plan théorique la question est : "est-ce que le sous-groupe de difféomorphismes engendrés par des champs de vitesses est dense dans le groupe plus large de Micheletti pour la métrique de Courant ?" Malgré quelques progrès réalisés ici, cette question demeure ouverte. Les pistes empruntées ont alors convergé vers le sous-groupe de Azencott et de Trouvé et sa métrique dans le cadre de l'imagerie. Elle correspond à une notion de géodésique entre deux difféomorphismes dans leur sous-groupe. L'optimisation est utilisée pour obtenir un système d'équations état adjoint caractérisant la solution optimale du problème d'identification à partir des observations. Cette approche est adaptée à l'identification de surfaces obtenues par un numériseur tel que, par exemple, le scan d'un visage. Ce problème est beaucoup plus difficile que celui d'imagerie. On doit alors introduire un système de référence courbe et une surface à facettes pour les calculs. On donne la formulation du problème d'identification et du calcul du changement de volume par rapport à un scan de référence.
Resumo:
Travail réalisé à l'EBSI, Université de Montréal, sous la direction de M. Yvon Lemay dans le cadre du cours SCI6111 - Politique de gestion des archives, à l'automne 2012.
Resumo:
L’objectif à moyen terme de ce travail est d’explorer quelques formulations des problèmes d’identification de forme et de reconnaissance de surface à partir de mesures ponctuelles. Ces problèmes ont plusieurs applications importantes dans les domaines de l’imagerie médicale, de la biométrie, de la sécurité des accès automatiques et dans l’identification de structures cohérentes lagrangiennes en mécanique des fluides. Par exemple, le problème d’identification des différentes caractéristiques de la main droite ou du visage d’une population à l’autre ou le suivi d’une chirurgie à partir des données générées par un numériseur. L’objectif de ce mémoire est de préparer le terrain en passant en revue les différents outils mathématiques disponibles pour appréhender la géométrie comme variable d’optimisation ou d’identification. Pour l’identification des surfaces, on explore l’utilisation de fonctions distance ou distance orientée, et d’ensembles de niveau comme chez S. Osher et R. Fedkiw ; pour la comparaison de surfaces, on présente les constructions des métriques de Courant par A. M. Micheletti en 1972 et le point de vue de R. Azencott et A. Trouvé en 1995 qui consistent à générer des déformations d’une surface de référence via une famille de difféomorphismes. L’accent est mis sur les fondations mathématiques sous-jacentes que l’on a essayé de clarifier lorsque nécessaire, et, le cas échéant, sur l’exploration d’autres avenues.
Resumo:
Il est devenu commun de dire que notre société se transforme inexorablement en une société dite de « l'information ». Cette transformation se caractérise entre autres par une utilisation accrue des technologies de l’information afin de communiquer, d’échanger ou de transiger. Les supports traditionnels de communication (tel que le papier) cèdent progressivement leur place à de nouveaux supports technologiques favorisant l’efficacité et la rapidité des échanges, et par la même occasion le développement du commerce électronique. Qu’on le souhaite ou non, un constat s’impose : la montée en puissance des réseaux virtuels a eu raison du monopole du papier. Sur le plan juridique, cette nouvelle réalité bouleverse aussi considérablement les règles de droit civil largement pensées et ancrées dans un contexte papier. L’avènement de la numérisation et du phénomène de la dématérialisation des supports ont effectivement soulevé plusieurs questions d’ordre juridique tout à fait nouvelles que nous pourrions résumer de la manière suivante : Quels sont les rapports entre l’écrit et son support autre que le papier? Quelles sont les caractéristiques de l’écrit faisant appel aux technologies de l’information? Ce type d’écrit peut-il être admis en tant que moyen de preuve? Si oui, quelle sera sa force probante? Ce type d’écrit doit-il être conservé? Le présent mémoire vise précisément à identifier certains éléments de réponses à ces diverses questions en étudiant spécifiquement les cadres juridiques français et québécois. Ce mémoire traite d’une part des enjeux liés à l’évolution et au rôle de l’écrit face à l’avènement des technologies de l’information et d’autre part du cadre juridique de la preuve et de la conservation de l’écrit dans la société de l’information.
Resumo:
L’auteur fonde son argument sur l’importance déterminante des conséquences économiques de la numérisation sur l’évolution des droits d’auteur afférant à la musique. La musique numérisée correspondant à un bien public, les prix de sa négociation tendent vers 0, et seules les contraintes légales telles que les droits d’auteur ou les ententes sur les prix, qui sont généralement proscrites par les lois sur la concurrence, peuvent sauver l’entrant intrépide ou l’opérateur mis sur le sable. Alors que les propriétaires de droits d’auteur maximisent leurs profits en prônant l’extension de leur champ d’application et en poursuivant leur application par les tribunaux, leur valeur sociale est mesurée en termes d’efficacité pour la promotion de l’innovation. L’industrie de la musique a projeté le champ d’application des droits d’auteur si grossièrement loin au–delà des limites de la raison par rapport à la musique numérisée que leur position légale sera attaquée inlassablement sur tous les fronts, que ce soit par une banalisation des infractions, ou par la résistance devant les tribunaux ou par des campagnes visant une réforme législative.
Resumo:
Chaque apparition d’une nouvelle technologie remet inévitablement en cause le cadre législatif établi pour protéger les droits de propriété. Cependant, avec la numérisation de l’information et l’avènement d’Internet, il est de plus en plus facile de reproduire et de distribuer librement des œuvres protégées. Toutefois, depuis le 20 décembre 1996, l’Organisation Mondiale de la Propriété Intellectuelle (OMPI) a adopté deux traités ayant pour objectif principal d’adapter le cadre juridique du droit d’auteur aux nouvelles technologies. C’est pour se conformer à ces traités que l’administration Clinton a adopté le Digital Millenium Copyright Act (DMCA) en 1998. Cet article examine d’abord les dimensions constitutionnelle du Copyright américain, et plus spécifiquement certaines limites qui viennent tempérer les prérogatives exclusives des titulaires de droits, notamment le domaine public et les usages équitables possibles d’ une œuvre. Sont ensuite examinés le DMCA et sa conformité aux principes énoncés à la clause constitutionnelle, source du pouvoir législatif du Congrès américain en matière de Copyright. De plus, comme le DMCA interdit non seulement le contournement de technologies protégeant une œuvre en format numérique, mais également la fabrication et la diffusion de technologies permettant d’arriver à cette fin, cet article analyse les répercussions de cette loi sur la liberté d’expression.
Resumo:
Cette thèse interroge les pratiques de mémoire hétérogènes qui ont émergé à propos de l’équipe de hockey du Canadien de Montréal dans le cadre du centenaire de l’équipe en 2009. Elle a le double objectif 1) d’apporter un éclairage théorique communicationnel sur l’objet « mémoire » et 2) de développer une analyse contextuelle des pratiques de mémoire et des enjeux qu’elles rendent effectifs. Mon travail s’inscrit dans le champ des memory studies, et particulièrement dans le tournant médiatique actuel, ainsi que dans celui des cultural studies. Au cours du chapitre consacré à la problématisation, je développe une approche communicationnelle de la mémoire en interrogeant la matérialité des pratiques de mémoire ainsi que leur relation co‐constitutive avec les médias de mémoire, réalisées dans le cadre du centenaire. Dans les deux chapitres analytiques, je procède à une analyse d’archives hétérogènes (articles de journaux, captures de sites internet, notes d’observation, interviews, émissions spéciales, publireportages etc.) issues de registres de mémoire différents. Le deuxième chapitre questionne les pratiques de mémoire à propos de l’ancien joueur du Canadien Léo Gravelle, telle la numérisation d’archives et la constitution de la « boîte à chaussures », la « biographisation », la conservation et la fétichisation, ainsi que leurs façons spécifiques de rendre présent des passés. Ce chapitre met en évidence comment des rapports familiaux, des enjeux liés au vieillissement et des formes de camaraderie sont réarticulés par ces pratiques. Le troisième chapitre investigue les pratiques de mémoire développées par l’organisation du Canadien de Montréal, telle la commémoration et la patrimonialisation de l’équipe ainsi que du hockey, et leur manière particulière de réarticuler la relation du sport professionnel à la ville ainsi que des enjeux liés à la philanthropie et au consumer activism. Le quatrième chapitre propose une discussion sur les faire mémoire, comme moyen d’ « espacer », de s’engager « en public » et comme projet qui mobilise et organise. Cette thèse conclue finalement sur ce qui constitue la singularité de ce centenaire.
Resumo:
Cet article propose un état des lieux sur les revues littéraires numériques. Cette tâche pourrait sembler facile si l’on considère que ces expériences existent depuis très peu de temps. Les premières revues en ligne apparaissent, en effet, au début des années 1990. Pourtant, la question est beaucoup plus complexe que ce que l’on pourrait penser, et cela, pour une série de raisons qui seront analysées dans cet article. Il n’est tout d’abord pas évident de s’entendre sur ce que l’on définit par l’expression « revue littéraire numérique ». D’une part car on fait référence, avec le mot « numérique », à une série d’expériences et de pratiques hétérogènes et différentes qui peuvent difficilement être regroupées ensemble. D’autre part parce que ce qu’on appelle désormais la « révolution numérique » a déterminé des changements importants quant au sens des contenus, de leur production, de leur validation et de leur distribution et a par conséquent fortement affecté la signification du mot « revue » lui-même. Il faudra ainsi prendre séparément en considération une série de phénomènes différents et essayer de rendre compte de pratiques hétérogènes qui se chevauchent et empiètent l’une sur l’autre. L’article proposera d’abord une analyse des enjeux de la numérisation des revues, à savoir le processus de transposition des revues papier au format électronique. Il s’attaquera ensuite aux expériences des revues numériques dès leur création pour comprendre s’il y a une différence, et laquelle, entre les premières et les secondes. Pour finir, on tentera de comprendre en quoi le numérique en tant que phénomène culturel — et en particulier les changements de diffusion et de circulation des contenus ainsi que les différentes formes de ce que l’on appelle désormais « éditorialisation » — a transformé l’idée même de revue et donné lieu à des pratiques et à des expériences complexes et hybrides dont la place dans le panorama culturel est difficile à saisir.