955 resultados para Solid,Blockchain,Web decentralizzato,BCSolid,Trust Access
Resumo:
Travail personnel dans le cadre de SCI6850, recherche individuelle, en vue d'obtenir trois crédits. Présenté à l'École de bibliothéconomie et des sciences de l'information.
Resumo:
"La nature flexible et interactive d’Internet implique que de plus en plus de consommateurs l’utilisent en tant qu’outil d’information sur tous les sujets imaginables, qu’il s’agisse de trouver la meilleurs aubaine sur un billet d’avion, ou de se renseigner sur certains problèmes liés à leur santé. Cependant, une grande quantité de l’information disponible en ligne n’est pas impartiale. Certains sites web ne présentent qu’une vision des choses ou font la promotion des produits d’une seule entreprise. Les consommateurs sont plus habitués à évaluer le poid à attribuer à certains conseils ou autres formes d’informations dans un contexte différent. Une telle évaluation de la crédibilité d’une information devient plus difficile dans le monde virtuel où les indices du monde réel, de l’écrit ou de l’interaction face-à-face sont absents. Consumers International a développé une définition de la notion de « crédibilité de l’information retrouvée en ligne » et a établi une liste de critères pouvant l’évaluer. Entre les mois d’avril et juillet 2002, une équipe représentant 13 pays a visité 460 sites web destinés à fournir de l’information sur la santé, sur des produits financiers et sur les prix de voyages et de différents biens de consommation en utilisant ces critères. L’appréciation de ces données nous démontre que les consommateurs doivent faire preuve de prudence lorsqu’ils utilisent Internet comme source d’information. Afin de faire des choix éclairés sur la valeur à donner à une information retrouvée en ligne, les consommateurs doivent connaître ce qui suit : L’identité du propriétaire d’un site web, ses partenaires et publicitaires; La qualité de l’information fournie, incluant son actualité et sa clarté, l’identité des sources citées et l’autorité des individus donnant leur opinion; Si le contenu du site est contrôlé par des intérêts commerciaux, ou, s’il offre des liens, la nature de la relation avec le site visé; et Si on lui demandera de fournir des données personnelles, l’usage réservé à ces données et les mesures employées pour protéger ces données. Cette étude démontre que plusieurs sites ne fournissent pas suffisamment de détails dans ces domaines, ce qui risque d’exposer le consommateur à des informations inexactes, incomplètes ou même délibérément fausses. Les discours exagérés ou vagues de certains sites concernant leurs services ne fait qu’ajouter à la confusion. Ceci peut résulter en une perte de temps ou d’argent pour le consommateur, mais pour certaines catégories d’informations, comme les conseils visant la santé, le fait de se fier à de mauvais conseils peut avoir des conséquences beaucoup plus graves. Cette étude vise à aviser les consommateurs de toujours vérifier le contexte des sites avant de se fier aux informations qui s’y retrouvent. Elle demande aux entreprises d’adopter de meilleures pratiques commerciales et de fournir une information plus transparente afin d’accroître la confiance des consommateurs. Elle demande finalement aux gouvernements de contribuer à ce mouvement en assurant le respect des lois relatives à la consommation et des standards existants tant dans le monde réel que dans le monde virtuel."
Resumo:
The article discusses the present status of weblogs and examines whether legal standards applicable to traditional press and media should be applied to that specific forum. The analysis is based on two key documents: the Draft Report on the concentration and pluralism in the media in European Union (2007/2253(INI)) of the European Parliament Committee on Culture and Education presented in March 2008 and a landmark decision of the Polish Supreme Court from July 26, 2007 (IV KK 174/07) in the light of present judicial tendency in other European countries. The first of the mentioned documents calls for the “clarification of the legal status of different categories of weblog authors and publishers as well as disclosure of interests and voluntary labelling of weblogs”. It emphasizes that the “undetermined and unindicated status of authors and publishers of weblogs causes uncertainties regarding impartiality, reliability, source protection, applicability of ethical codes and the assignment of liability in the event of lawsuits”. The position of the European Parliament, expressed in the document, raises serious questions on the limits of freedom of thought and speech on the Internet and on the degree of acceptable state control. A recent Polish Supreme Court decision, which caused quite a stir in the Polish Internet community, seems to head in the very direction recommended by the EP Culture Committee. In a case of two editors of a web journal (“czasopismo internetowe”) called “Szyciepoprzemysku”, available on-line, accused of publishing a journal without the proper registration, the Polish Supreme Court stated that “journals and periodicals do not lose the character of a press release due solely to the fact that they appear in the form of an Internet transmission”, and that ‘’the publishing of press in an electronic form, available on the Internet, requires registration”. The decision was most surprising, as prior lower courts decisions declined the possibility to register Internet periodicals. The accused were acquitted in the name of the constitutional principle of the rule of law (art. 7 of the Polish Constitution) and the ensuing obligation to protect the trust of a citizen to the state (a conviction in this case would break the collateral estoppel rule), however the decision quickly awoke media frenzy and raised the fear of a need to register all websites that were regularly updated. The spokesman of the Polish Supreme Court later explained that the sentence of the Court was not intended to cause a mass registration of all Internet “periodicals” and that neither weblogs nor Internet sites, that were regularly updated, needed registration. Such an interpretation of the Polish press law did not appear clear based only on the original text of the judgment and the decision as such still raises serious practical questions. The article aims to examine the status of Internet logs as press and seeks the compromise between the concerns expressed by European authorities and the freedom of thought and speech exercised on the Internet.
Resumo:
Commentaire / Commentary
Resumo:
Les politiques de confidentialité définissent comment les services en ligne collectent, utilisent et partagent les données des utilisateurs. Bien qu’étant le principal moyen pour informer les usagers de l’utilisation de leurs données privées, les politiques de confidentialité sont en général ignorées par ces derniers. Pour cause, les utilisateurs les trouvent trop longues et trop vagues, elles utilisent un vocabulaire souvent difficile et n’ont pas de format standard. Les politiques de confidentialité confrontent également les utilisateurs à un dilemme : celui d’accepter obligatoirement tout le contenu en vue d’utiliser le service ou refuser le contenu sous peine de ne pas y avoir accès. Aucune autre option n’est accordée à l’utilisateur. Les données collectées des utilisateurs permettent aux services en ligne de leur fournir un service, mais aussi de les exploiter à des fins économiques (publicités ciblées, revente, etc). Selon diverses études, permettre aux utilisateurs de bénéficier de cette économie de la vie privée pourrait restaurer leur confiance et faciliter une continuité des échanges sur Internet. Dans ce mémoire, nous proposons un modèle de politique de confidentialité, inspiré du P3P (une recommandation du W3C, World Wide Web Consortium), en élargissant ses fonctionnalités et en réduisant sa complexité. Ce modèle suit un format bien défini permettant aux utilisateurs et aux services en ligne de définir leurs préférences et besoins. Les utilisateurs ont la possibilité de décider de l’usage spécifique et des conditions de partage de chacune de leurs données privées. Une phase de négociation permettra une analyse des besoins du service en ligne et des préférences de l’utilisateur afin d’établir un contrat de confidentialité. La valeur des données personnelles est un aspect important de notre étude. Alors que les compagnies disposent de moyens leur permettant d’évaluer cette valeur, nous appliquons dans ce mémoire, une méthode hiérarchique multicritères. Cette méthode va permettre également à chaque utilisateur de donner une valeur à ses données personnelles en fonction de l’importance qu’il y accorde. Dans ce modèle, nous intégrons également une autorité de régulation en charge de mener les négociations entre utilisateurs et services en ligne, et de générer des recommandations aux usagers en fonction de leur profil et des tendances.
Resumo:
Hypermedia systems based on the Web for open distance education are becoming increasingly popular as tools for user-driven access learning information. Adaptive hypermedia is a new direction in research within the area of user-adaptive systems, to increase its functionality by making it personalized [Eklu 961. This paper sketches a general agents architecture to include navigational adaptability and user-friendly processes which would guide and accompany the student during hislher learning on the PLAN-G hypermedia system (New Generation Telematics Platform to Support Open and Distance Learning), with the aid of computer networks and specifically WWW technology [Marz 98-1] [Marz 98-2]. The PLAN-G actual prototype is successfully used with some informatics courses (the current version has no agents yet). The propased multi-agent system, contains two different types of adaptive autonomous software agents: Personal Digital Agents {Interface), to interacl directly with the student when necessary; and Information Agents (Intermediaries), to filtrate and discover information to learn and to adapt navigation space to a specific student
Resumo:
Lecture 3: DOM and XPath Lecture slides and exercises for using DOM and XPath to access material within an XML database or document.
Resumo:
What are fundamental entities in social networks and what information is contained in social graphs? We will discuss some selected concepts in social network analysis, such as one- and two mode networks, prestige and centrality, and cliques, clans and clubs. Readings: Web tool predicts election results and stock prices, J. Palmer, New Scientist, 07 February (2008) [Protected Access] Optional: Social Network Analysis, Methods and Applications, S. Wasserman and K. Faust (1994)
Resumo:
We will discuss several examples and research efforts related to the small world problem and set the ground for our discussion of network theory and social network analysis. Readings: An Experimental Study of the Small World Problem, J. Travers and S. Milgram Sociometry 32 425-443 (1969) [Protected Access] Optional: The Strength of Weak Ties, M.S. Granovetter The American Journal of Sociology 78 1360--1380 (1973) [Protected Access] Optional: Worldwide Buzz: Planetary-Scale Views on an Instant-Messaging Network, J. Leskovec and E. Horvitz MSR-TR-2006-186. Microsoft Research, June 2007. [Web Link, the most recent and comprehensive study on the subject!] Originally from: http://kmi.tugraz.at/staff/markus/courses/SS2008/707.000_web-science/
Resumo:
A current movement for organising and disseminating the world’s research through Web technology
Resumo:
By lowering the barriers to communication, the Web has not made it possible for writers to make more money; instead large corporate aggregators are taking advantage of creators to make themselves rich. MaryAnn Johanson is the creator of one of the oldest independent film review sites on the web (flickfilosopher.com). In this lecture she addresses the problems of the long tail for the long tailees. How can a creative professional make a living through the Web, when all the power is held by the aggregators? So much for radical disintermediation... This share contains the lecture slides (see slide #29-30 for the summary of her argument), the lecture audio, further reading, a link to her web site and a critique of The Longer Tail from students at another Web Science Trust Network lab.
Resumo:
El fin de la Guerra Fría supuso no sólo el triunfo del capitalismo y de la democracia liberal, sino un cambio significativo en el Sistema Internacional; siendo menos centralizado y más regionalizado, como consecuencia de la proximidad y relaciones de interdependencia entre sus actores (no sólo Estados) y permitiendo la formación de Complejos Regionales de Seguridad (CRS). Los CRS son una forma efectiva de relacionarse y aproximarse a la arena internacional pues a través de sus procesos de securitización y desecuritización consiguen lograr objetivos específicos. Partiendo de ello, tanto la Unión Europea (UE) como la Comunidad para el Desarrollo de África Austral (SADC) iniciaron varios procesos de securitización relacionados con la integración regional; siendo un ejemplo de ello la eliminación de los controles en sus fronteras interiores o libre circulación de personas; pues consideraron que de no hacerse realidad, ello generaría amenazas políticas (su influencia y capacidad de actuación estaban amenazadas), económicas (en cuanto a su competitividad y niveles básicos de bienestar) y societales (en cuanto a la identidad de la comunidad como indispensable para la integración) que pondrían en riesgo la existencia misma de sus CRS. En esta medida, la UE creó el Espacio Schengen, que fue producto de un proceso de securitización desde inicios de la década de los 80 hasta mediados de la década de los 90; y la SADC se encuentra inmersa en tal proceso de securitización desde 1992 hasta la actualidad y espera la ratificación del Protocolo para la Facilitación del Movimiento de personas como primer paso para lograr la eliminación de controles en sus fronteras interiores. Si bien tanto la UE como la SADC consideraron que de no permitir la libre circulación de personas, su integración y por lo tanto, sus CRS estaban en riesgo; la SADC no lo ha logrado. Ello hace indispensable hacer un análisis más profundo de sus procesos de securitización para así encontrar sus falencias con respecto al éxito de la UE. El análisis está basado en la Teoría de los Complejos de Seguridad de Barry Buzan, plasmada en la obra Security a New Framework for Analysis (1998) de Barry Buzan, Ole Waever y Jaap de Wilde y será dividido en cada una de las etapas del proceso de securitización: la identificación de una amenaza existencial a un objeto referente a través de un acto discursivo, la aceptación de una amenaza por parte de una audiencia relevante y las acciones de emergencia para hacer frente a las amenazas existenciales; reconociendo las diferencias y similitudes de un proceso de securitización exitoso frente a otro que aún no lo ha sido.
Resumo:
El treball desenvolupat en aquesta tesi presenta un profund estudi i proveïx solucions innovadores en el camp dels sistemes recomanadors. Els mètodes que usen aquests sistemes per a realitzar les recomanacions, mètodes com el Filtrat Basat en Continguts (FBC), el Filtrat Col·laboratiu (FC) i el Filtrat Basat en Coneixement (FBC), requereixen informació dels usuaris per a predir les preferències per certs productes. Aquesta informació pot ser demogràfica (Gènere, edat, adreça, etc), o avaluacions donades sobre algun producte que van comprar en el passat o informació sobre els seus interessos. Existeixen dues formes d'obtenir aquesta informació: els usuaris ofereixen explícitament aquesta informació o el sistema pot adquirir la informació implícita disponible en les transaccions o historial de recerca dels usuaris. Per exemple, el sistema recomanador de pel·lícules MovieLens (http://movielens.umn.edu/login) demana als usuaris que avaluïn almenys 15 pel·lícules dintre d'una escala de * a * * * * * (horrible, ...., ha de ser vista). El sistema genera recomanacions sobre la base d'aquestes avaluacions. Quan els usuaris no estan registrat en el sistema i aquest no té informació d'ells, alguns sistemes realitzen les recomanacions tenint en compte l'historial de navegació. Amazon.com (http://www.amazon.com) realitza les recomanacions tenint en compte les recerques que un usuari a fet o recomana el producte més venut. No obstant això, aquests sistemes pateixen de certa falta d'informació. Aquest problema és generalment resolt amb l'adquisició d'informació addicional, se li pregunta als usuaris sobre els seus interessos o es cerca aquesta informació en fonts addicionals. La solució proposada en aquesta tesi és buscar aquesta informació en diverses fonts, específicament aquelles que contenen informació implícita sobre les preferències dels usuaris. Aquestes fonts poden ser estructurades com les bases de dades amb informació de compres o poden ser no estructurades com les pàgines web on els usuaris deixen la seva opinió sobre algun producte que van comprar o posseïxen. Nosaltres trobem tres problemes fonamentals per a aconseguir aquest objectiu: 1 . La identificació de fonts amb informació idònia per als sistemes recomanadors. 2 . La definició de criteris que permetin la comparança i selecció de les fonts més idònies. 3 . La recuperació d'informació de fonts no estructurades. En aquest sentit, en la tesi proposada s'ha desenvolupat: 1 . Una metodologia que permet la identificació i selecció de les fonts més idònies. Criteris basats en les característiques de les fonts i una mesura de confiança han estat utilitzats per a resoldre el problema de la identificació i selecció de les fonts. 2 . Un mecanisme per a recuperar la informació no estructurada dels usuaris disponible en la web. Tècniques de Text Mining i ontologies s'han utilitzat per a extreure informació i estructurar-la apropiadament perquè la utilitzin els recomanadors. Les contribucions del treball desenvolupat en aquesta tesi doctoral són: 1. Definició d'un conjunt de característiques per a classificar fonts rellevants per als sistemes recomanadors 2. Desenvolupament d'una mesura de rellevància de les fonts calculada sobre la base de les característiques definides 3. Aplicació d'una mesura de confiança per a obtenir les fonts més fiables. La confiança es definida des de la perspectiva de millora de la recomanació, una font fiable és aquella que permet millorar les recomanacions. 4. Desenvolupament d'un algorisme per a seleccionar, des d'un conjunt de fonts possibles, les més rellevants i fiable utilitzant les mitjanes esmentades en els punts previs. 5. Definició d'una ontologia per a estructurar la informació sobre les preferències dels usuaris que estan disponibles en Internet. 6. Creació d'un procés de mapatge que extreu automàticament informació de les preferències dels usuaris disponibles en la web i posa aquesta informació dintre de l'ontologia. Aquestes contribucions permeten aconseguir dos objectius importants: 1 . Millorament de les recomanacions usant fonts d'informació alternatives que sigui rellevants i fiables. 2 . Obtenir informació implícita dels usuaris disponible en Internet.
Resumo:
GODIVA2 is a dynamic website that provides visual access to several terabytes of physically distributed, four-dimensional environmental data. It allows users to explore large datasets interactively without the need to install new software or download and understand complex data. Through the use of open international standards, GODIVA2 maintains a high level of interoperability with third-party systems, allowing diverse datasets to be mutually compared. Scientists can use the system to search for features in large datasets and to diagnose the output from numerical simulations and data processing algorithms. Data providers around Europe have adopted GODIVA2 as an INSPIRE-compliant dynamic quick-view system for providing visual access to their data.
Resumo:
The ICGA and its members can now communicate with each other and a wider public, as never before. The ICGA website ICGA_W, www.icga.org, will complement the ICGA Journal, providing more space and access to an evolving and wider range of items including both topical news and definitive reference material.