53 resultados para Librarian Technologies
Resumo:
Ce mémoire explore le concept de diffusion des archives à l’ère du Web 2.0. Dans le contexte nord-américain, la diffusion en archivistique englobe les aspects de promotion, de mise en valeur et de communication des archives. Le Web 2.0 offre un potentiel très intéressant pour la diffusion d’archives. Ce moyen de diffusion est défini comme étant un ensemble de principes et de technologies qui crée et facilite l’interaction entre plusieurs individus. Peu d’études ont été menées sur la diffusion des archives à l’ère du Web 2.0, c’est pourquoi notre recherche s’est intéressée à un milieu qui a intégré le Web 2.0 afin d’instaurer un dialogue avec ses usagers, connus et potentiels, pour exploiter ses archives et augmenter sa visibilité, soit le Musée McCord. Dans cette étude de cas simple certains membres du personnel du Musée McCord ont été rencontrés, afin de découvrir les motivations de l’institution à se lancer dans l’utilisation d’outils issus de ces technologies. De plus, l’étude a permis d’observer quels outils ont été choisis, comment et pourquoi. Ensuite, les avantages et les désavantages de cette nouvelle utilisation ont été mis en lumière. Enfin, les étapes de la mise en place d’outils du Web 2.0 sont exposées.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Les nouvelles technologies mobiles, Internet et les plateformes d’échanges réseautiques ont-ils un effet tangible sur les habitudes de travail des journalistes politiques de la presse écrite? Comment ces nouveaux outils participent-ils à la construction identitaire de ces journalistes? Dans le but de mieux comprendre leur contexte de travail et de (re)construction identitaire, nous avons choisi d’analyser le rôle qu’occupent les nouvelles technologies dans leur quotidien, tant du point de vue de leurs pratiques actuelles que du point de vue de leurs perceptions d’eux-mêmes et du métier. Dans cette étude qualitative, sept journalistes politiques francophones de médias traditionnels écrits ont été interviewés dans le but de nous aider à mieux cerner les libertés mais aussi les contraintes qui accompagnent l’adoption de nouveaux outils technologiques ainsi que les nouvelles pratiques qui y sont rattachées. Les nouvelles technologies et les plateformes réseautiques ne sont pas que de simples outils de travail, ils redéfinissent le rôle même du journaliste dans la société. Hormis les adaptations quotidiennes qu’elles supposent dans les changements de méthodes de travail, elles contribuent souvent à déstabiliser le journaliste dans ses valeurs traditionnelles les plus solidement ancrées. Ces nouveaux outils deviennent le lieu d’échanges accrus où le journaliste se retrouve, bien malgré lui, à devoir défendre un rôle qui lui était autrefois acquis. Vecteurs d’autovalorisation pour le public, ils sont plus souvent le lieu de résistance pour les journalistes.
Resumo:
Travail présenté par Christine LeBrun, étudiante à la maîtrise en droit, le 16 décembre 2008, dans le cadre du Cours Droit du commerce électronique - DRT 6930 sous la supervision du professeur Vincent Gautrais.
Resumo:
L'eugénisme fascine. L'eugénisme fait peur. D'ailleurs, le spectre de cette idéologie, lié à un passé riche en histoire, revient en force et suscite des craintes de dérives quant à l'avancement des connaissances scientifiques et de leurs applications principalement dans le débat sur le diagnostic préimplantatoire. Alors que nous nous intéressons à son encadrement normatif, une approche historique permet de guider le législateur afin de ne pas répéter des erreurs passées et de mieux en comprendre les enjeux. Or, une loi eugénique a déjà existé au Canada en matière de stérilisation des personnes mentalement handicapées. À la lumière de celle-ci et de son histoire, l'auteur s'interroge sur les leçons que nous pouvons appliquer au diagnostic préimplantatoire, une technologie génétique permettant de sélectionner un enfant créé in vitro en fonction de son profil génétique.
Resumo:
Joyce Tam de l'Université McGill est récipiendaire du 3ème prix du concours de la bourse d'initiation à la recherche offerte par le Regroupement Droit et changements aux étudiants du baccalauréat en droit.
Resumo:
Échange automatisé de messages préprogrammés, communication par courrier électronique, gestion électronique de documents (GED), Data warehouse, EDI… Le monde des affaires vibre depuis quelques années au rythme des nouvelles technologies de l’information. Le droit commercial lui, a du mal à emboîter le pas. Pourtant, les problèmes juridiques soulevés par ce règne de l’immatériel sont majeurs et les incertitudes, grandissantes. La mobilité accrue que permettent ces techniques modernes de transmission et de gestion des informations suggère une solution concertée, qui plus est, tiendra compte de l’évolution hâtée dans ce domaine. Le fondement en a été donné à travers la Loi type des Nations unies sur le commerce électronique en 1996. Plusieurs législations l’ont choisi comme modèle. La législation canadienne est de celles-ci, avec notamment sa Loi uniforme sur le commerce électronique adoptée par la Conférence pour l’harmonisation des lois au Canada en 1999. La législation québécoise aussi a suivi le mouvement. Le 16 juin 2000, un avant-projet de loi portant sur la normalisation juridique des technologies de l’information fut déposé devant l’Assemblée nationale. Cet avant-projet de loi est devenu projet de loi 161, Loi concernant le cadre juridique des technologies de l’information. Mais au-delà des apparences, le législateur québécois semble s’être écarté de la philosophie qui a influencé la Loi type et, conséquemment, la Loi uniforme. Si cette remarque est vérifiée, il faudra craindre l’isolement du Québec et, par ricochet, un positionnement peu concurrentiel dans le commerce international.
Resumo:
"Les juristes partout dans le monde peuvent maintenant, de leur poste informatique personnel, accéder aux données « publiques » (la part des règles juridiques y est majeure) que les États mettent à la disposition de chacun. En plus de modifier les méthodes de travail des praticiens du droit, l’usage des technologies de l’information influera sur l’évolution du droit et de la justice. D’une part, les États ne pourront renoncer à se doter des moyens technologiques requis pour diffuser l’information et, d’autre part, l’institution judiciaire devra répondre à cette nouvelle forme d’exigence de démocratisation. Les technologies de l’information feront surgir un nouveau rapport entre le citoyen et le droit. Dans le domaine judiciaire, il faudra consentir à une réflexion en profondeur sur la manière dont les juridictions sont saisies. Le « dialogue par formulaire » est un exercice de la pensée différent de ceux que les juristes pratiquent habituellement ; dans le domaine judiciaire ou parajudiciaire, la pratique des téléprocédures est, en France, balbutiante. L’utilisation des technologies de l’information et de la communication dans les procédures assurera une meilleure efficacité (effectivité et célérité) de la réponse judiciaire et fera apparaître de nouvelles exigences, en particulier quant à la communication des décisions de justice. Le droit évoluera : la communauté des juristes devient mondiale, les droits internes sont quotidiennement à l’épreuve des autres droits, toutes sortes de comparaisons sont possibles entre les différentes juridictions, entre les législations existantes et entre les solutions théoriquement possibles pour régler tel ou tel cas. On ne peut imaginer que le législateur, que les juridictions suprêmes, que les chercheurs et les théoriciens du droit, que l’ensemble des praticiens se désintéressent des pistes ouvertes par les technologies de l’information."
Resumo:
Face à la nouveauté, les outils traditionnels du droit que sont la fiction et la présomption ont été légitimement utilisés par le législateur cherchant à encadrer au mieux les technologies de l’information. Néanmoins, ces outils ne sont pas neutres et il s’agira dans ces quelques lignes d’offrir un regard critique sur certaines tendances législatives lourdes de conséquences, notamment celles de neutralité technologique et d’équivalence fonctionnelle.
Resumo:
L’utilisation d’Internet prend beaucoup d’ampleur depuis quelques années et le commerce électronique connaît une hausse considérable. Nous pouvons présentement acheter facilement via Internet sans quitter notre domicile et avons accès à d’innombrables sources d’information. Cependant, la navigation sur Internet permet également la création de bases de données détaillées décrivant les habitudes de chaque utilisateur, informations ensuite utilisées par des tiers afin de cerner le profil de leur clientèle cible, ce qui inquiète plusieurs intervenants. Les informations concernant un individu peuvent être récoltées par l’interception de données transactionnelles, par l’espionnage en ligne, ainsi que par l’enregistrement d’adresses IP. Afin de résoudre les problèmes de vie privée et de s’assurer que les commerçants respectent la législation applicable en la matière, ainsi que les exigences mises de l’avant par la Commission européenne, plusieurs entreprises comme Zero-knowledge Systems Inc. et Anonymizer.com offrent des logiciels permettant la protection de la vie privée en ligne (privacy-enhancing technologies ou PETs). Ces programmes utilisent le cryptage d’information, une méthode rendant les données illisibles pour tous à l’exception du destinataire. L’objectif de la technologie utilisée a été de créer des systèmes mathématiques rigoureux pouvant empêcher la découverte de l’identité de l’auteur même par le plus déterminé des pirates, diminuant ainsi les risques de vol d’information ou la divulgation accidentelle de données confidentielles. Malgré le fait que ces logiciels de protection de la vie privée permettent un plus grand respect des Directives européennes en la matière, une analyse plus approfondie du sujet témoigne du fait que ces technologies pourraient être contraires aux lois concernant le cryptage en droit canadien, américain et français.
Resumo:
L’objectif de ce mémoire est de comprendre l’impact de la justice organisationnelle sur l’engagement organisationnel des travailleurs du secteur des technologies de l’information et des communications (TIC). Afin d’étudier ce sujet, trois hypothèses de recherche ont été formulés à partir des théories suivantes : 1- la théorie des attentes d’Adams (1965), 2- la théorie de l’échange social de Blau (1964) et 3- la théorie de Leventhal (1980). La première hypothèse stipule que, toutes choses étant égales par ailleurs, la justice distributive fait augmenter l’engagement affectif des travailleurs du secteur des TIC. La seconde hypothèse indique que toutes choses étant égales par ailleurs, la justice procédurale fait augmenter l’engagement affectif des travailleurs du secteur des TIC. La dernière hypothèse énonce que toutes choses étant égales par ailleurs, la justice procédurale a un impact plus important sur l’engagement affectif des travailleurs du secteur des TIC que la justice distributive. Les données utilisées proviennent d’une enquête par questionnaires électroniques auprès de l’ensemble des nouveaux employés d’une entreprise d’envergure internationale du secteur des TIC ayant un établissement à Montréal. Les employés ont été sondés à trois reprises. Les résultats indiquent que la justice distributive fait augmenter l’engagement affectif auprès des travailleurs, ce qui appuie la première hypothèse. Ils démontrent également qu’il n’existe aucune relation statistiquement significative entre la justice procédurale et l’engagement affectif. Seule la justice distributive a un effet sur l’engagement affectif du travailleur. Les résultats montrent l’existence de relations significatives et positives entre trois des variables de contrôle et l’engagement affectif. Il s’agit de : 1- travail sous supervision, 2- soutien organisationnel perçu et 3- satisfaction intrinsèque.
Resumo:
La présente étude propose une analyse historique de la légende urbaine des snuff movies. En premier lieu, elle se penche sur l’émergence de cette rumeur dans le paysage médiatique américain des années 70 tout en focalisant sur certains objets filmiques l’ayant crédibilisée, principalement les stag et les mondo movies. Ce mémoire analyse par la suite l’influence majeure de deux événements sur l’implantation de la légende urbaine dans l’imaginaire collectif, soit l’assassinat de Sharon Tate et la circulation du film de Zapruder. Après avoir étudié la persistance de la rumeur, cet essai focalise sur la promotion et l’exploitation de Snuff (1976) en plus de proposer une analyse de ce long métrage. Ensuite, il se penche sur deux types de représentations du snuff dans le cinéma de fiction ainsi que leurs impacts sur l’authentification de la légende urbaine. Il est d’abord question des mises en scène du snuff dans le cinéma populaire qui s’inspirent de la rumeur pour ensuite l’actualiser. Sont ensuite étudiées les représentations du snuff à titre de faux documents, soit ces œuvres qui tentent par divers procédés de se faire passer pour de véritables films clandestins et, de ce fait, authentifient l’objet auquel ils se réfèrent. Puisque cette étude analyse l’évolution médiatique de la légende urbaine, elle se conclut sur son déplacement du cinéma vers Internet et de sa nouvelle crédibilisation grâce aux vidéos macabres, à la pornographie juvénile et au récent cas Magnotta.
Resumo:
Réalisé en cotutelle avec Claude Sicotte PhD Université de Montréal et le Pr. Étienne Minvielle École des Hautes Études en Santé Publique à Paris.
Resumo:
Les études génétiques, telles que les études de liaison ou d’association, ont permis d’acquérir une plus grande connaissance sur l’étiologie de plusieurs maladies affectant les populations humaines. Même si une dizaine de milliers d’études génétiques ont été réalisées sur des centaines de maladies ou autres traits, une grande partie de leur héritabilité reste inexpliquée. Depuis une dizaine d’années, plusieurs percées dans le domaine de la génomique ont été réalisées. Par exemple, l’utilisation des micropuces d’hybridation génomique comparative à haute densité a permis de démontrer l’existence à grande échelle des variations et des polymorphismes en nombre de copies. Ces derniers sont maintenant détectables à l’aide de micropuce d’ADN ou du séquençage à haut débit. De plus, des études récentes utilisant le séquençage à haut débit ont permis de démontrer que la majorité des variations présentes dans l’exome d’un individu étaient rares ou même propres à cet individu. Ceci a permis la conception d’une nouvelle micropuce d’ADN permettant de déterminer rapidement et à faible coût le génotype de plusieurs milliers de variations rares pour un grand ensemble d’individus à la fois. Dans ce contexte, l’objectif général de cette thèse vise le développement de nouvelles méthodologies et de nouveaux outils bio-informatiques de haute performance permettant la détection, à de hauts critères de qualité, des variations en nombre de copies et des variations nucléotidiques rares dans le cadre d’études génétiques. Ces avancées permettront, à long terme, d’expliquer une plus grande partie de l’héritabilité manquante des traits complexes, poussant ainsi l’avancement des connaissances sur l’étiologie de ces derniers. Un algorithme permettant le partitionnement des polymorphismes en nombre de copies a donc été conçu, rendant possible l’utilisation de ces variations structurales dans le cadre d’étude de liaison génétique sur données familiales. Ensuite, une étude exploratoire a permis de caractériser les différents problèmes associés aux études génétiques utilisant des variations en nombre de copies rares sur des individus non reliés. Cette étude a été réalisée avec la collaboration du Wellcome Trust Centre for Human Genetics de l’University of Oxford. Par la suite, une comparaison de la performance des algorithmes de génotypage lors de leur utilisation avec une nouvelle micropuce d’ADN contenant une majorité de marqueurs rares a été réalisée. Finalement, un outil bio-informatique permettant de filtrer de façon efficace et rapide des données génétiques a été implémenté. Cet outil permet de générer des données de meilleure qualité, avec une meilleure reproductibilité des résultats, tout en diminuant les chances d’obtenir une fausse association.