39 resultados para Situated Display, Internet Technologies, Interaction, Urban Screen
Resumo:
L’échange de fichiers musicaux par Internet permet de faire très exactement ce que toute loi sur le droit d’auteur cherche à interdire : priver de leurs droits les compositeurs, interprètes et agents de distribution des œuvres musicales. Pour l’industrie du disque, le défi est à la fois d’ordre juridique et d’ordre technique. Les lois actuelles sur le droit d’auteur suffiront-elles d’une part à protéger ses intérêts, et dans le cas où les tribunaux acquiesceraient à ses nombreuses demandes, lui faudra-t-il d’autre part tenter de mettre un frein aux progrès technologiques grâce auxquels les internautes peuvent télécharger massivement et en toute impunité leurs pièces musicales préférées? La jurisprudence américaine montre bien que dans les cas où on a cherché aux États-Unis à se servir de la loi sur le droit d’auteur pour bloquer l’utilisation d’une technologie innovatrice, les tribunaux, pour des motifs politiques et juridiques, n’ont fait preuve d’aucune sympathie pour les titulaires de droits d’auteur. En fait, lorsque les tribunaux ont cherché à trop restreindre l’utilisation d’un nouveau mode de dissémination des œuvres, le Congrès est intervenu pour rétablir l’équilibre entre les intérêts des créateurs et ceux des utilisateurs de cette technologie. Au Canada, le droit protège très bien les compositeurs et les interprètes, mais beaucoup moins bien les compagnies de disques. En ce moment, la loi canadienne sur le droit d’auteur accorde à ces dernières un droit d’auteur limité sur leurs produits. Elles peuvent multiplier les exemplaires d’un disque, et le « reproduire sur un support matériel quelconque ». C’est ici que naissent les difficultés : les compagnies productrices de disques n’ont pas un droit clairement identifié à l’égard d’une « représentation » de l’œuvre musicale ou d’une « exécution publique » ou d’une « transmission au public par télécommunication ». Le Parlement canadien aura des choix importants à faire.
Resumo:
L’utilisation d’Internet prend beaucoup d’ampleur depuis quelques années et le commerce électronique connaît une hausse considérable. Nous pouvons présentement acheter facilement via Internet sans quitter notre domicile et avons accès à d’innombrables sources d’information. Cependant, la navigation sur Internet permet également la création de bases de données détaillées décrivant les habitudes de chaque utilisateur, informations ensuite utilisées par des tiers afin de cerner le profil de leur clientèle cible, ce qui inquiète plusieurs intervenants. Les informations concernant un individu peuvent être récoltées par l’interception de données transactionnelles, par l’espionnage en ligne, ainsi que par l’enregistrement d’adresses IP. Afin de résoudre les problèmes de vie privée et de s’assurer que les commerçants respectent la législation applicable en la matière, ainsi que les exigences mises de l’avant par la Commission européenne, plusieurs entreprises comme Zero-knowledge Systems Inc. et Anonymizer.com offrent des logiciels permettant la protection de la vie privée en ligne (privacy-enhancing technologies ou PETs). Ces programmes utilisent le cryptage d’information, une méthode rendant les données illisibles pour tous à l’exception du destinataire. L’objectif de la technologie utilisée a été de créer des systèmes mathématiques rigoureux pouvant empêcher la découverte de l’identité de l’auteur même par le plus déterminé des pirates, diminuant ainsi les risques de vol d’information ou la divulgation accidentelle de données confidentielles. Malgré le fait que ces logiciels de protection de la vie privée permettent un plus grand respect des Directives européennes en la matière, une analyse plus approfondie du sujet témoigne du fait que ces technologies pourraient être contraires aux lois concernant le cryptage en droit canadien, américain et français.
Resumo:
Au cours des dernières années, le domaine de la consommation a grandement évolué. Les agents de marketing ont commencé à utiliser l’Internet pour influencer les consommateurs en employant des tactiques originales et imaginatives qui ont rendus possible l’atteinte d'un niveau de communication interpersonnelle qui avait précédemment été insondable. Leurs interactions avec les consommateurs, en utilisant la technologie moderne, se manifeste sous plusieurs formes différentes qui sont toutes accompagnés de leur propre assortiment de problèmes juridiques. D’abord, il n'est pas rare pour les agents de marketing d’utiliser des outils qui leur permettent de suivre les actions des consommateurs dans le monde virtuel ainsi que dans le monde physique. Les renseignements personnels recueillis d'une telle manière sont souvent utilisés à des fins de publicité comportementale en ligne – une utilisation qui ne respecte pas toujours les limites du droit à la vie privée. Il est également devenu assez commun pour les agents de marketing d’utiliser les médias sociaux afin de converser avec les consommateurs. Ces forums ont aussi servi à la commission d’actes anticoncurrentiels, ainsi qu’à la diffusion de publicités fausses et trompeuses – deux pratiques qui sont interdites tant par la loi sur la concurrence que la loi sur la protection des consommateurs. Enfin, les agents de marketing utilisent diverses tactiques afin de joindre les consommateurs plus efficacement en utilisant diverses tactiques qui les rendent plus visible dans les moteurs de recherche sur Internet, dont certaines sont considérés comme malhonnêtes et pourraient présenter des problèmes dans les domaines du droit de la concurrence et du droit des marques de commerce. Ce mémoire offre une description détaillée des outils utilisés à des fins de marketing sur Internet, ainsi que de la manière dont ils sont utilisés. Il illustre par ailleurs les problèmes juridiques qui peuvent survenir à la suite de leur utilisation et définit le cadre législatif régissant l’utilisation de ces outils par les agents de marketing, pour enfin démontrer que les lois qui entrent en jeu dans de telles circonstances peuvent, en effet, se révéler bénéfiques pour ces derniers d'un point de vue économique.
Resumo:
Ce mémoire de maîtrise présente une nouvelle approche non supervisée pour détecter et segmenter les régions urbaines dans les images hyperspectrales. La méthode proposée n ́ecessite trois étapes. Tout d’abord, afin de réduire le coût calculatoire de notre algorithme, une image couleur du contenu spectral est estimée. A cette fin, une étape de réduction de dimensionalité non-linéaire, basée sur deux critères complémentaires mais contradictoires de bonne visualisation; à savoir la précision et le contraste, est réalisée pour l’affichage couleur de chaque image hyperspectrale. Ensuite, pour discriminer les régions urbaines des régions non urbaines, la seconde étape consiste à extraire quelques caractéristiques discriminantes (et complémentaires) sur cette image hyperspectrale couleur. A cette fin, nous avons extrait une série de paramètres discriminants pour décrire les caractéristiques d’une zone urbaine, principalement composée d’objets manufacturés de formes simples g ́eométriques et régulières. Nous avons utilisé des caractéristiques texturales basées sur les niveaux de gris, la magnitude du gradient ou des paramètres issus de la matrice de co-occurrence combinés avec des caractéristiques structurelles basées sur l’orientation locale du gradient de l’image et la détection locale de segments de droites. Afin de réduire encore la complexité de calcul de notre approche et éviter le problème de la ”malédiction de la dimensionnalité” quand on décide de regrouper des données de dimensions élevées, nous avons décidé de classifier individuellement, dans la dernière étape, chaque caractéristique texturale ou structurelle avec une simple procédure de K-moyennes et ensuite de combiner ces segmentations grossières, obtenues à faible coût, avec un modèle efficace de fusion de cartes de segmentations. Les expérimentations données dans ce rapport montrent que cette stratégie est efficace visuellement et se compare favorablement aux autres méthodes de détection et segmentation de zones urbaines à partir d’images hyperspectrales.
Resumo:
Cette recherche explore le sens que la « génération de l’information » (20-35 ans) donne à l’engagement. Alors que sociologues et médias ont longtemps brandi des chiffres alarmants concernant la désaffection électorale des jeunes et leur rejet des associations ou groupes de pression usuels, le développement du Web 2.0 semble donner lieu à de nouvelles formes d’action visant le changement social, qui sont particulièrement prisées par les jeunes. Analysant leur recours à des pratiques de manifestations éclairs (flash mobs), de cyberdissidence, l’utilisation du micro-blogging et des réseaux Facebook et Twitter dans le cadre de mobilisations récentes, des enquêtes suggèrent qu’elles témoignent d’une nouvelle culture de la participation sociale et politique, qui appelle à repenser les façons de concevoir et de définir l’engagement. Or, si nous assistons à une transformation profonde des répertoires et des modes d’action des jeunes, il demeure difficile de comprendre en quoi et comment l’utilisation des TIC influence leur intérêt ou motivation à « agir ». Que veut dire s’engager pour les jeunes aujourd’hui ? Comment perçoivent-ils le contexte social, politique et médiatique ? Quelle place estiment-ils pouvoir y occuper ? Soulignant l’importance du sens que les acteurs sociaux donnent à leurs pratiques, la recherche s’éloigne des perspectives technocentristes pour explorer plus en profondeur la façon dont de jeunes adultes vivent, expérimentent et interprètent l’engagement dans le contexte médiatique actuel. La réflexion s’ancre sur une observation empirique et deux séries d’entretiens en profondeur (de groupe et individuels), menés auprès de 137 jeunes entre 2009-2012. Elle analyse un ensemble de représentations, perceptions et pratiques d’individus aux horizons et aux modes d’engagement variés, soulignant les multiples facteurs qui agissent sur la façon dont ils choisissent d’agir et les raisons qui les mènent à recourir aux TIC dans le cadre de pratiques spécifiques. À la croisée d’une multiplication des modes de participation et des modes d’interaction qui marquent l’univers social et politique des jeunes, la recherche propose de nouvelles hypothèses théoriques et une métaphore conceptuelle, le « murmure des étourneaux », pour penser la façon dont les pratiques d’affichage personnel, de relais, et d’expérimentation mises en avant par les jeunes s’arriment en réseau à celles d’autrui pour produire des « dérives culturelles » : des changements importants dans les façons de percevoir, d’agir et de penser. Loin d’une génération apathique ou technophile, les propos soulevés en entretiens suggèrent un processus réflexif de construction de sens, dont l’enjeu vise avant tout à donner l’exemple, et à penser ensemble de nouveaux possibles. La recherche permet d’offrir un éclairage qualitatif et approfondi sur ce qui caractérise la façon dont les jeunes perçoivent et définissent l’engagement, en plus d’ouvrir de nouvelles avenues pour mieux comprendre comment ils choisissent d’agir à l’ère du Web.
Resumo:
La compréhension de processus biologiques complexes requiert des approches expérimentales et informatiques sophistiquées. Les récents progrès dans le domaine des stratégies génomiques fonctionnelles mettent dorénavant à notre disposition de puissants outils de collecte de données sur l’interconnectivité des gènes, des protéines et des petites molécules, dans le but d’étudier les principes organisationnels de leurs réseaux cellulaires. L’intégration de ces connaissances au sein d’un cadre de référence en biologie systémique permettrait la prédiction de nouvelles fonctions de gènes qui demeurent non caractérisées à ce jour. Afin de réaliser de telles prédictions à l’échelle génomique chez la levure Saccharomyces cerevisiae, nous avons développé une stratégie innovatrice qui combine le criblage interactomique à haut débit des interactions protéines-protéines, la prédiction de la fonction des gènes in silico ainsi que la validation de ces prédictions avec la lipidomique à haut débit. D’abord, nous avons exécuté un dépistage à grande échelle des interactions protéines-protéines à l’aide de la complémentation de fragments protéiques. Cette méthode a permis de déceler des interactions in vivo entre les protéines exprimées par leurs promoteurs naturels. De plus, aucun biais lié aux interactions des membranes n’a pu être mis en évidence avec cette méthode, comparativement aux autres techniques existantes qui décèlent les interactions protéines-protéines. Conséquemment, nous avons découvert plusieurs nouvelles interactions et nous avons augmenté la couverture d’un interactome d’homéostasie lipidique dont la compréhension demeure encore incomplète à ce jour. Par la suite, nous avons appliqué un algorithme d’apprentissage afin d’identifier huit gènes non caractérisés ayant un rôle potentiel dans le métabolisme des lipides. Finalement, nous avons étudié si ces gènes et un groupe de régulateurs transcriptionnels distincts, non préalablement impliqués avec les lipides, avaient un rôle dans l’homéostasie des lipides. Dans ce but, nous avons analysé les lipidomes des délétions mutantes de gènes sélectionnés. Afin d’examiner une grande quantité de souches, nous avons développé une plateforme à haut débit pour le criblage lipidomique à contenu élevé des bibliothèques de levures mutantes. Cette plateforme consiste en la spectrométrie de masse à haute resolution Orbitrap et en un cadre de traitement des données dédié et supportant le phénotypage des lipides de centaines de mutations de Saccharomyces cerevisiae. Les méthodes expérimentales en lipidomiques ont confirmé les prédictions fonctionnelles en démontrant certaines différences au sein des phénotypes métaboliques lipidiques des délétions mutantes ayant une absence des gènes YBR141C et YJR015W, connus pour leur implication dans le métabolisme des lipides. Une altération du phénotype lipidique a également été observé pour une délétion mutante du facteur de transcription KAR4 qui n’avait pas été auparavant lié au métabolisme lipidique. Tous ces résultats démontrent qu’un processus qui intègre l’acquisition de nouvelles interactions moléculaires, la prédiction informatique des fonctions des gènes et une plateforme lipidomique innovatrice à haut débit , constitue un ajout important aux méthodologies existantes en biologie systémique. Les développements en méthodologies génomiques fonctionnelles et en technologies lipidomiques fournissent donc de nouveaux moyens pour étudier les réseaux biologiques des eucaryotes supérieurs, incluant les mammifères. Par conséquent, le stratégie présenté ici détient un potentiel d’application au sein d’organismes plus complexes.
Resumo:
La réparation par excision de nucléotides (NER) permet l'élimination des lésions provoquant une distorsion de la double hélice de l’ADN. Ces lésions sont induites par plusieurs agents environnementaux comme les rayons UV, ainsi que par certaines drogues chimio- thérapeutiques tel que le cisplatine. Des défauts dans la NER conduisent à de rares maladies autosomiques héréditaires : La xérodermie pigmentaire (XP), le syndrome de Cockayne (CS), le syndrome de sensibilité aux UVSS et la trichothiodystrophie (TTD). Ces maladies sont associées soit à une prédisposition élevée au cancer de la peau et / ou à de graves anomalies du développement neurologique. Le groupe de patients XP-A représente le deuxième groupe (XP) le plus fréquent, et possède la forme la plus sévère combinant cancer de la peau avec un haut risque de dégénérescence neurologique. À date, aucune explication n`a été proposée pour les symptômes neurologiques observés chez ces patients. Nous avions suggéré ainsi que la protéine XPA possède d`autres fonctions dans d`autres processus cellulaires, ceci en interagissant avec des partenaires protéiques différents de ceux déjà connus. Afin de confirmer cette hypothèse nous avions réalisé une étude protéomique à grande échelle en combinant la spectrométrie de masse à une immunoprécipitation en Tandem d`affinité (TAP), afin d`identifier de nouvelles protéines interagissant directement avec XPA. Nous avions montré que XPA peut interagir avec MRE11, la protéine clé de la réparation par recombinaison homologue. Des études additionnelles sont requises pour confirmer cette interaction et comprendre sa fonction
Resumo:
Depuis plusieurs années le mot « virtuel » est utilisé pour caractériser des pratiques quotidiennes liées à l’emploi des nouvelles technologies et en particulier d’Internet. Mais qu’est-ce qui est virtuel en Internet ? Pour répondre à cette question il faut d’abord remonter aux racines philosophiques de ce mot et essayer d’éclaircir sa signification. C’est la tentative proposée dans cette article.
Resumo:
A literary text is a milieu in which different intermedial relations can occur. Borrowing on Bolter and Grusin’s notion of remediation and displacing the latter from digital technologies to literature, this article defines three strategies by which a novel can convoke modes that are conventionally related to other forms of mediation. The breaking points and the blanks that result from these intermedial strategies are then discussed from a reader-response perspective, to substantiate the hypothesis that a strong intermedial dynamic in a novel enhances the reader’s activity. Océan mer serves as a ground for an analysis that demonstrates the dynamism of the interactions that characterize such an intermedial object.