62 resultados para Web as a Corpus
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Il est désormais commun de reconnaître que le cinéma, aujourd’hui, s’émancipe de son dispositif médiatique traditionnel, adoptant maintes formes liées aux champs culturels qui l’accueillent : jeux vidéo, web, médias portatifs, etc. Toutefois, c’est peut-être le champ des arts visuels et médiatiques contemporains qui lui aura fait adopter, depuis la fin des années soixante, les formes les plus désincarnées, allant parfois jusqu’à le rendre méconnaissable. À cet effet, certaines œuvres sculpturales et installatives contemporaines uniquement composées de lumière et de vapeur semblent, par leurs moyens propres, bel et bien reprendre, tout en les mettant à l’épreuve, quelques caractéristiques du médium cinématographique. Basé sur ce constat, le présent mémoire vise à analyser, sur le plan esthétique, cette filiation potentielle entre le média-cinéma et ces œuvres au caractère immatériel. Pour ce faire, notre propos sera divisé en trois chapitres s’intéressant respectivement : 1) à l’éclatement médiatique du cinéma et à sa requalification vue par les théories intermédiales, 2) au processus d’évidement du cinéma – à la perte de ses images et de ses matériaux – dans les pratiques en arts visuels depuis une cinquantaine d’années, et 3) au corpus de l’artiste danois Olafur Eliasson, et plus spécialement à son œuvre Din Blinde Passager (2010), qui est intimement liée à notre problématique. Notre réflexion sera finalement, au long de ce parcours, principalement guidée par les approches esthétiques et philosophiques de Georges Didi-Huberman et de Jacques Rançière.
Resumo:
Avec la montée en popularité d’Internet et des médias sociaux, de plus en plus d’organismes sociaux et publics, notamment, intègrent des plateformes Web à leurs volets traditionnels. La question d’Internet demeure toutefois peu étudiée eu égard à la publicité sociale. Ce mémoire porte donc sur la question du Web en relation avec les campagnes sociales adressées aux jeunes Québécois de 18 à 25 ans, une population particulièrement réceptive aux nouvelles technologies. Plus exactement, dans cette étude, nous avons analysé trois sites Web rattachés à des campagnes sociales (La vitesse, ça coûte cher de la SAAQ, Les ITSS se propagent du MSSS et 50 000 adeptes, 5 000 toutous de la Fondation CHU Sainte-Justine) dans l’objectif de déterminer leurs forces et leurs faiblesses pour ensuite proposer des pistes pour leur optimisation. C’est à l’aide d’une analyse critique de contenu suivie d’entrevues et d’observations individuelles auprès de 19 participants que nous sommes parvenue à suggérer des pistes pour l’optimisation des sites Web de campagnes sociales destinées aux jeunes adultes québécois. Une des plus grandes difficultés en ce qui a trait à leur conception consiste à choisir les stratégies les plus appropriées pour provoquer un changement d’attitude ou de comportement, a fortiori chez ceux qui adoptent des comportements à risque (fumer, conduire en état d’ébriété, avoir des relations sexuelles non protégées); des stratégies qui, pour être plus efficaces, devraient être adaptées en fonction des caractéristiques propres aux publics cibles et aux médias de diffusion. Afin d’analyser adéquatement les campagnes sociales, nous avons fait appel aux théories de la persuasion et aux théories sur l’influence des médias jugées pertinentes dans notre contexte puisqu’elles sont propres à ce type d’étude. Ces approches combinées nous ont permis d’intégrer à l’analyse d’une campagne donnée les contextes qui l’entourent et les pratiques dans lesquelles elle s’inscrit. Cette étude nous a, entre autres, permis de démontrer qu’il existait d’importants écarts entre les attentes et les besoins des internautes et l’offre des sites Web étudiés.
Resumo:
Ce travail porte sur la construction d’un corpus étalon pour l’évaluation automatisée des extracteurs de termes. Ces programmes informatiques, conçus pour extraire automatiquement les termes contenus dans un corpus, sont utilisés dans différentes applications, telles que la terminographie, la traduction, la recherche d’information, l’indexation, etc. Ainsi, leur évaluation doit être faite en fonction d’une application précise. Une façon d’évaluer les extracteurs consiste à annoter toutes les occurrences des termes dans un corpus, ce qui nécessite un protocole de repérage et de découpage des unités terminologiques. À notre connaissance, il n’existe pas de corpus annoté bien documenté pour l’évaluation des extracteurs. Ce travail vise à construire un tel corpus et à décrire les problèmes qui doivent être abordés pour y parvenir. Le corpus étalon que nous proposons est un corpus entièrement annoté, construit en fonction d’une application précise, à savoir la compilation d’un dictionnaire spécialisé de la mécanique automobile. Ce corpus rend compte de la variété des réalisations des termes en contexte. Les termes sont sélectionnés en fonction de critères précis liés à l’application, ainsi qu’à certaines propriétés formelles, linguistiques et conceptuelles des termes et des variantes terminologiques. Pour évaluer un extracteur au moyen de ce corpus, il suffit d’extraire toutes les unités terminologiques du corpus et de comparer, au moyen de métriques, cette liste à la sortie de l’extracteur. On peut aussi créer une liste de référence sur mesure en extrayant des sous-ensembles de termes en fonction de différents critères. Ce travail permet une évaluation automatique des extracteurs qui tient compte du rôle de l’application. Cette évaluation étant reproductible, elle peut servir non seulement à mesurer la qualité d’un extracteur, mais à comparer différents extracteurs et à améliorer les techniques d’extraction.
Resumo:
Les travaux entrepris dans le cadre de la présente thèse portent sur l’analyse de l’équivalence terminologique en corpus parallèle et en corpus comparable. Plus spécifiquement, nous nous intéressons aux corpus de textes spécialisés appartenant au domaine du changement climatique. Une des originalités de cette étude réside dans l’analyse des équivalents de termes simples. Les bases théoriques sur lesquelles nous nous appuyons sont la terminologie textuelle (Bourigault et Slodzian 1999) et l’approche lexico-sémantique (L’Homme 2005). Cette étude poursuit deux objectifs. Le premier est d’effectuer une analyse comparative de l’équivalence dans les deux types de corpus afin de vérifier si l’équivalence terminologique observable dans les corpus parallèles se distingue de celle que l’on trouve dans les corpus comparables. Le deuxième consiste à comparer dans le détail les équivalents associés à un même terme anglais, afin de les décrire et de les répertorier pour en dégager une typologie. L’analyse détaillée des équivalents français de 343 termes anglais est menée à bien grâce à l’exploitation d’outils informatiques (extracteur de termes, aligneur de textes, etc.) et à la mise en place d’une méthodologie rigoureuse divisée en trois parties. La première partie qui est commune aux deux objectifs de la recherche concerne l’élaboration des corpus, la validation des termes anglais et le repérage des équivalents français dans les deux corpus. La deuxième partie décrit les critères sur lesquels nous nous appuyons pour comparer les équivalents des deux types de corpus. La troisième partie met en place la typologie des équivalents associés à un même terme anglais. Les résultats pour le premier objectif montrent que sur les 343 termes anglais analysés, les termes présentant des équivalents critiquables dans les deux corpus sont relativement peu élevés (12), tandis que le nombre de termes présentant des similitudes d’équivalence entre les corpus est très élevé (272 équivalents identiques et 55 équivalents non critiquables). L’analyse comparative décrite dans ce chapitre confirme notre hypothèse selon laquelle la terminologie employée dans les corpus parallèles ne se démarque pas de celle des corpus comparables. Les résultats pour le deuxième objectif montrent que de nombreux termes anglais sont rendus par plusieurs équivalents (70 % des termes analysés). Il est aussi constaté que ce ne sont pas les synonymes qui forment le groupe le plus important des équivalents, mais les quasi-synonymes. En outre, les équivalents appartenant à une autre partie du discours constituent une part importante des équivalents. Ainsi, la typologie élaborée dans cette thèse présente des mécanismes de l’équivalence terminologique peu décrits aussi systématiquement dans les travaux antérieurs.
Resumo:
Cette thèse montre comment fonctionnent et se déploient, au sein des œuvres littéraires, filmiques et webfilmiques, des scénographies mémorielles et des figurations médiatiques de la guerre d’Algérie. Empruntant sa méthodologie à la sociocritique des textes et aux études intermédiales, l’étude porte sur la manière dont le souvenir de l’évènement se confond avec celle de le relater. Elle examine le rôle du médium qui donne une forme, une matérialité, un dispositif, un type de reconnaissance institutionnelle aux représentations de la guerre et de la mémoire, contribuant aussi à former, modeler le souvenir en le rendant perceptible et intelligible. Comment les groupes de mémoire de la guerre d’Algérie, (harkis, immigration algérienne, pieds-noirs) vivent-ils – toutes proportions et différences gardées – leur rapport au passé à partir du présent ? Leurs mémoires, médiées par les vecteurs culturels (cinéma, littérature, etc.), se disent à partir de sites d’énonciations plurielles dont les espaces (topographies) et les temps (chronographies) sont communs. Elles s’approprient le souvenir de façon similaire, par les scènes narratives du procès, de la rencontre ou du retour construites par le texte littéraire ou filmique. La première partie interroge les rapports entre histoire et mémoire ; en France, leurs conceptions et pratiques, se heurtent à une nouvelle économie mémorielle dans laquelle des groupes de mémoire de la guerre d’Algérie réclament que leur histoire soit reconnue et enseignée. Appuyée par une périodisation de la production gigantesque des cinquante dernières années et par une revue critique de la recherche internationale menée à ce sujet, cette réflexion prend acte de la dispute post-coloniale française et considère l’auteur porteur de mémoire de la guerre d’Algérie pour son exemplarité en tant que témoin post-colonial. Les deuxième, troisième et quatrième parties de cette thèse déplient quant à elles, la scénographie mémorielle spécifique à trois auteurs, tout en la mettant en relation avec d’autres œuvres de genre et médium très différents. Le premier corpus est composé de : Moze de Zahia Rahmani, du tryptique de Mehdi Charef (À-bras-le-cœur, 1962. Le dernier voyage, Cartouches gauloises) et d’Exils de Tony Gatlif. À ces titres s’ajoutent des œuvres qui marquent une série, ensemble aux contours flous auxquels ils se rattachent et qui permettent de mettre à la fois en perspective le commun entretenu entre la série et l’œuvre de l’un des trois auteurs, et la manière dont l’auteur, Rahmani, Charef ou Gatlif s’en distingue de façon significative. Enfin, un troisième type d’œuvres intervient dans l’analyse comme contrepoint souvent paradoxal de cette série.
Resumo:
Cet article examine les complications juridiques mises de l’avant par la récente étude « Credibility on the Web » publiée par le groupe Consumers International. Selon cette étude, plusieurs sites n’étant affiliés à aucun manufacturier ou vendeur font leur apparition sur le Web afin d’offrir aux consommateurs certaines informations générales concernant divers produits et services. Malheureusement, puisque ces sites sont gérés par des tiers n’étant pas partie à la relation consommateur-commerçant, une nouvelle problématique juridique peut être mise de l’avant : quelle protection accorder aux consommateurs eu égard à leurs achats effectués suite aux mauvais conseils de ces sites ? Ce texte vise à mettre sur pied les fondements d’une telle problématique selon le droit de la consommation québécois et à envisager certaines pistes de solutions possibles concernant les recours que pourraient avoir les consommateurs contre de tels sites.
Resumo:
"La nature flexible et interactive d’Internet implique que de plus en plus de consommateurs l’utilisent en tant qu’outil d’information sur tous les sujets imaginables, qu’il s’agisse de trouver la meilleurs aubaine sur un billet d’avion, ou de se renseigner sur certains problèmes liés à leur santé. Cependant, une grande quantité de l’information disponible en ligne n’est pas impartiale. Certains sites web ne présentent qu’une vision des choses ou font la promotion des produits d’une seule entreprise. Les consommateurs sont plus habitués à évaluer le poid à attribuer à certains conseils ou autres formes d’informations dans un contexte différent. Une telle évaluation de la crédibilité d’une information devient plus difficile dans le monde virtuel où les indices du monde réel, de l’écrit ou de l’interaction face-à-face sont absents. Consumers International a développé une définition de la notion de « crédibilité de l’information retrouvée en ligne » et a établi une liste de critères pouvant l’évaluer. Entre les mois d’avril et juillet 2002, une équipe représentant 13 pays a visité 460 sites web destinés à fournir de l’information sur la santé, sur des produits financiers et sur les prix de voyages et de différents biens de consommation en utilisant ces critères. L’appréciation de ces données nous démontre que les consommateurs doivent faire preuve de prudence lorsqu’ils utilisent Internet comme source d’information. Afin de faire des choix éclairés sur la valeur à donner à une information retrouvée en ligne, les consommateurs doivent connaître ce qui suit : L’identité du propriétaire d’un site web, ses partenaires et publicitaires; La qualité de l’information fournie, incluant son actualité et sa clarté, l’identité des sources citées et l’autorité des individus donnant leur opinion; Si le contenu du site est contrôlé par des intérêts commerciaux, ou, s’il offre des liens, la nature de la relation avec le site visé; et Si on lui demandera de fournir des données personnelles, l’usage réservé à ces données et les mesures employées pour protéger ces données. Cette étude démontre que plusieurs sites ne fournissent pas suffisamment de détails dans ces domaines, ce qui risque d’exposer le consommateur à des informations inexactes, incomplètes ou même délibérément fausses. Les discours exagérés ou vagues de certains sites concernant leurs services ne fait qu’ajouter à la confusion. Ceci peut résulter en une perte de temps ou d’argent pour le consommateur, mais pour certaines catégories d’informations, comme les conseils visant la santé, le fait de se fier à de mauvais conseils peut avoir des conséquences beaucoup plus graves. Cette étude vise à aviser les consommateurs de toujours vérifier le contexte des sites avant de se fier aux informations qui s’y retrouvent. Elle demande aux entreprises d’adopter de meilleures pratiques commerciales et de fournir une information plus transparente afin d’accroître la confiance des consommateurs. Elle demande finalement aux gouvernements de contribuer à ce mouvement en assurant le respect des lois relatives à la consommation et des standards existants tant dans le monde réel que dans le monde virtuel."
Resumo:
La protection des renseignements personnels est au cœur des préoccupations de tous les acteurs du Web, commerçants ou internautes. Si pour les uns trop de règles en la matière pourraient freiner le développement du commerce électronique, pour les autres un encadrement des pratiques est essentiel à la protection de leur vie privée. Même si les motivations de chacun sont divergentes, le règlement de cette question apparaît comme une étape essentielle dans le développement du réseau. Le Platform for Privacy Preference (P3P) propose de contribuer à ce règlement par un protocole technique permettant la négociation automatique, entre l’ordinateur de l’internaute et celui du site qu’il visite, d’une entente qui encadrera les échanges de renseignements. Son application pose de nombreuses questions, dont celle de sa capacité à apporter une solution acceptable à tous et surtout, celle du respect des lois existantes. La longue et difficile élaboration du protocole, ses dilutions successives et sa mise en vigueur partielle témoignent de la difficulté de la tâche à accomplir et des résistances qu’il rencontre. La première phase du projet se limite ainsi à l’encodage des politiques de vie privée des sites et à leur traduction en termes accessibles par les systèmes des usagers. Dans une deuxième phase, P3P devrait prendre en charge la négociation et la conclusion d’ententes devant lier juridiquement les parties. Cette tâche s’avère plus ardue, tant sous l’angle juridique que sous celui de son adaptation aux us et coutumes du Web. La consolidation des fonctions mises en place dans la première version apparaît fournir une solution moins risquée et plus profitable en écartant la possible conclusion d’ententes incertaines fondées sur une technique encore imparfaite. Mieux éclairer le consentement des internautes à la transmission de leurs données personnelles par la normalisation des politiques de vie privée pourrait être en effet une solution plus simple et efficace à court terme.
Resumo:
The article discusses the present status of weblogs and examines whether legal standards applicable to traditional press and media should be applied to that specific forum. The analysis is based on two key documents: the Draft Report on the concentration and pluralism in the media in European Union (2007/2253(INI)) of the European Parliament Committee on Culture and Education presented in March 2008 and a landmark decision of the Polish Supreme Court from July 26, 2007 (IV KK 174/07) in the light of present judicial tendency in other European countries. The first of the mentioned documents calls for the “clarification of the legal status of different categories of weblog authors and publishers as well as disclosure of interests and voluntary labelling of weblogs”. It emphasizes that the “undetermined and unindicated status of authors and publishers of weblogs causes uncertainties regarding impartiality, reliability, source protection, applicability of ethical codes and the assignment of liability in the event of lawsuits”. The position of the European Parliament, expressed in the document, raises serious questions on the limits of freedom of thought and speech on the Internet and on the degree of acceptable state control. A recent Polish Supreme Court decision, which caused quite a stir in the Polish Internet community, seems to head in the very direction recommended by the EP Culture Committee. In a case of two editors of a web journal (“czasopismo internetowe”) called “Szyciepoprzemysku”, available on-line, accused of publishing a journal without the proper registration, the Polish Supreme Court stated that “journals and periodicals do not lose the character of a press release due solely to the fact that they appear in the form of an Internet transmission”, and that ‘’the publishing of press in an electronic form, available on the Internet, requires registration”. The decision was most surprising, as prior lower courts decisions declined the possibility to register Internet periodicals. The accused were acquitted in the name of the constitutional principle of the rule of law (art. 7 of the Polish Constitution) and the ensuing obligation to protect the trust of a citizen to the state (a conviction in this case would break the collateral estoppel rule), however the decision quickly awoke media frenzy and raised the fear of a need to register all websites that were regularly updated. The spokesman of the Polish Supreme Court later explained that the sentence of the Court was not intended to cause a mass registration of all Internet “periodicals” and that neither weblogs nor Internet sites, that were regularly updated, needed registration. Such an interpretation of the Polish press law did not appear clear based only on the original text of the judgment and the decision as such still raises serious practical questions. The article aims to examine the status of Internet logs as press and seeks the compromise between the concerns expressed by European authorities and the freedom of thought and speech exercised on the Internet.
Resumo:
PériCulture est le nom d'un projet de recherche à l'Université de Montréal qui fait partie d'un projet plus vaste basé à l'Université de Sherbrooke. Ce dernier visait à former un réseau de recherche pour la gestion du contenu culturel numérique canadien. L'objectif général de la recherche de PériCulture était d'étudier les méthodes d'indexation de contenus culturels non textuels sur le Web, plus spécifiquement des images. Les résultats de la recherche présentés ici s'appuient sur des travaux précédents en indexation d'images et en indexation automatique (de texte), par l'étude des propriétés du texte associé à des images dans un environnement réseau. Le but était de comprendre la façon dont le texte associé à des images sur des pages Web (appelé péritexte) peut être exploité pour indexer les images correspondantes. Nous avons étudié cette question dans le contexte de pages Web sélectionnées, c'est à dire : des pages de contenu culturel canadien contenant des objets multimédia auxquels était associé du texte (plus que simplement les noms de fichiers et les légendes) et qui étaient bilingues (anglais et français). Nous avons identifié les mots-clés utiles à l'indexation situés à proximité de l'objet décrit. Les termes d'indexation potentiels ont été identifiés dans diverses balises HTML et dans le texte intégral (chacun étant considéré comme une source différente de péritexte). Notre étude a révélé qu'un grand nombre de termes d'indexation utiles sont disponibles dans le péritexte de nombreux sites Web ayant un contenu culturel, et ce péritexte de différentes sources a une utilité variable dans la recherche d’information. Nos résultats suggèrent que ces termes peuvent être exploités de différentes manières dans les systèmes de recherche d’information pour améliorer les résultats de recherche.
Resumo:
Over the course of the last two decades, IFIs (most prominently the World Bank) have begun acknowledging the centrality of human development as an essential element of the economic development process if the growth aimed at is to be holistic and sustainable. Strikingly, there is no agreement on the manner in which this approach is to be achieved, especially in the field of gender and development. This paper focuses on the issue of whether the Multilateral Development Banks’ policies have truly attempted at implementing their stated model of gender mainstreaming through their programmes and projects in India, with a specific focus on the legal sector, since that sector has both instrumental and intrinsic value for gender rights advocates. This article will aim at reviewing their approach towards rule of law projects and the manner in which gender equality norms have or have not been addressed within that framework; it will end with recommendations as to the necessary issues which gender programmes must address within the rule of law framework in order to achieve the Millennium Development Goal of gender equity.