972 resultados para web pages
Resumo:
Relatório de estágio de mestrado em Ensino de Informática
Resumo:
Mediante el presente documento se pretende describir el proceso de creación de una herramienta de tipo CMS (Gestor de contenidos). Concretamente, se desarrollará una herramienta que permita al usuario crear su propio sitio web sin necesidad de tener conocimientos de programación. Debido a la gran variedad de sitios web tanto en su forma como en su contenido y ante la imposibilidad de abarcar todo el espectro desde la primera versión del producto, se centrarán los esfuerzos en obtener una aplicación sencilla pero funcional y, sobretodo, escalable, para que mediante futuras actualizaciones se puedan ir incrementando sus posibilidades y capacidad.
Resumo:
Evaluación de la accesibilidad Web de 10 páginas del sitio www.upc.edu siguiendo las pautas para niveles de conformidad en WCAG 1.0 y WCAG 2.0 de acuerdo a la Metodología Unificada de Evaluación Web (UWEM 1.0).
Resumo:
L'aplicació consisteix en un programa web que des d'un navegador ens permet realitzar una sèrie de consultes i de gestions contra una base de dades de tornejos d'escacs. Les gestions i consultes variaran segons el rol d'usuari sigui administrador, gestor o usuari Internet. Així, l'aplicació consta d'un servidor, una base de dades, unes classes entitat Java que treballaran a la capa de model per fer els canvis a la Base de dades, unes pàgines html i jsp, que estaran a la capa de vista, uns fitxers de configuració .xml i uns fitxers .java que actuaran a la capa de control. Els rols s'han implantat a nivell de servidor, amb una pàgina de login, i segons el rol escollit, es tindrà accés a una carpeta (zona) o altra.
Resumo:
Memòria del projecte final de carrera sobre la creació d'un portal web per gestionar i enregistrar les incidències informàtiques sobre els clients d'una empresa consultora.
Resumo:
Winter maintenance, particularly snow removal and the stress of snow removal materials on public structures, is an enormous budgetary burden on municipalities and nongovernmental maintenance organizations in cold climates. Lately, geospatial technologies such as remote sensing, geographic information systems (GIS), and decision support tools are roviding a valuable tool for planning snow removal operations. A few researchers recently used geospatial technologies to develop winter maintenance tools. However, most of these winter maintenance tools, while having the potential to address some of these information needs, are not typically placed in the hands of planners and other interested stakeholders. Most tools are not constructed with a nontechnical user in mind and lack an easyto-use, easily understood interface. A major goal of this project was to implement a web-based Winter Maintenance Decision Support System (WMDSS) that enhances the capacity of stakeholders (city/county planners, resource managers, transportation personnel, citizens, and policy makers) to evaluate different procedures for managing snow removal assets optimally. This was accomplished by integrating geospatial analytical techniques (GIS and remote sensing), the existing snow removal asset management system, and webbased spatial decision support systems. The web-based system was implemented using the ESRI ArcIMS ActiveX Connector and related web technologies, such as Active Server Pages, JavaScript, HTML, and XML. The expert knowledge on snow removal procedures is gathered and integrated into the system in the form of encoded business rules using Visual Rule Studio. The system developed not only manages the resources but also provides expert advice to assist complex decision making, such as routing, optimal resource allocation, and monitoring live weather information. This system was developed in collaboration with Black Hawk County, IA, the city of Columbia, MO, and the Iowa Department of transportation. This product was also demonstrated for these agencies to improve the usability and applicability of the system.
Resumo:
The objective of this article is to systematically assess the quality of web-based information in French language on the alcohol dependence. The authors analysed, using a standardised pro forma, the 20 most highly ranked pages identified by 3 common internet search engines using 2 keywords. Results show that a total of 45 sites were analysed. The authors conclude that the overall quality of the sites was relatively poor, especially for the description of possible treatments, however with a wide variability. Content quality was not correlated with other aspects of quality such as interactivity, aesthetic or accountability.
Resumo:
Current-day web search engines (e.g., Google) do not crawl and index a significant portion of theWeb and, hence, web users relying on search engines only are unable to discover and access a large amount of information from the non-indexable part of the Web. Specifically, dynamic pages generated based on parameters provided by a user via web search forms (or search interfaces) are not indexed by search engines and cannot be found in searchers’ results. Such search interfaces provide web users with an online access to myriads of databases on the Web. In order to obtain some information from a web database of interest, a user issues his/her query by specifying query terms in a search form and receives the query results, a set of dynamic pages that embed required information from a database. At the same time, issuing a query via an arbitrary search interface is an extremely complex task for any kind of automatic agents including web crawlers, which, at least up to the present day, do not even attempt to pass through web forms on a large scale. In this thesis, our primary and key object of study is a huge portion of the Web (hereafter referred as the deep Web) hidden behind web search interfaces. We concentrate on three classes of problems around the deep Web: characterization of deep Web, finding and classifying deep web resources, and querying web databases. Characterizing deep Web: Though the term deep Web was coined in 2000, which is sufficiently long ago for any web-related concept/technology, we still do not know many important characteristics of the deep Web. Another matter of concern is that surveys of the deep Web existing so far are predominantly based on study of deep web sites in English. One can then expect that findings from these surveys may be biased, especially owing to a steady increase in non-English web content. In this way, surveying of national segments of the deep Web is of interest not only to national communities but to the whole web community as well. In this thesis, we propose two new methods for estimating the main parameters of deep Web. We use the suggested methods to estimate the scale of one specific national segment of the Web and report our findings. We also build and make publicly available a dataset describing more than 200 web databases from the national segment of the Web. Finding deep web resources: The deep Web has been growing at a very fast pace. It has been estimated that there are hundred thousands of deep web sites. Due to the huge volume of information in the deep Web, there has been a significant interest to approaches that allow users and computer applications to leverage this information. Most approaches assumed that search interfaces to web databases of interest are already discovered and known to query systems. However, such assumptions do not hold true mostly because of the large scale of the deep Web – indeed, for any given domain of interest there are too many web databases with relevant content. Thus, the ability to locate search interfaces to web databases becomes a key requirement for any application accessing the deep Web. In this thesis, we describe the architecture of the I-Crawler, a system for finding and classifying search interfaces. Specifically, the I-Crawler is intentionally designed to be used in deepWeb characterization studies and for constructing directories of deep web resources. Unlike almost all other approaches to the deep Web existing so far, the I-Crawler is able to recognize and analyze JavaScript-rich and non-HTML searchable forms. Querying web databases: Retrieving information by filling out web search forms is a typical task for a web user. This is all the more so as interfaces of conventional search engines are also web forms. At present, a user needs to manually provide input values to search interfaces and then extract required data from the pages with results. The manual filling out forms is not feasible and cumbersome in cases of complex queries but such kind of queries are essential for many web searches especially in the area of e-commerce. In this way, the automation of querying and retrieving data behind search interfaces is desirable and essential for such tasks as building domain-independent deep web crawlers and automated web agents, searching for domain-specific information (vertical search engines), and for extraction and integration of information from various deep web resources. We present a data model for representing search interfaces and discuss techniques for extracting field labels, client-side scripts and structured data from HTML pages. We also describe a representation of result pages and discuss how to extract and store results of form queries. Besides, we present a user-friendly and expressive form query language that allows one to retrieve information behind search interfaces and extract useful data from the result pages based on specified conditions. We implement a prototype system for querying web databases and describe its architecture and components design.
Resumo:
Depuis avril 2014, plus de deux millions de tweets ont été publiés, touchant aux commémorations du Centenaire de la Grande Guerre, principalement en Anglais et en Français. Cette communication s'intéresse à une pratique précise lié aux modalités d'usage de Twitter: le partage de liens. En s'intéressant notamment aux liens pointant vers des pages web francophones partagés le 11 novembre 2015, l'auteur a constitué un corpus d'environ 1000 pages web et en analyse le contenu. Il s'interroge notamment sur l'émergence en tant que lieu de mémoire du site « Mémoire des Hommes » et plus particulièrement de la base de données des morts pour la France.
Resumo:
The primary objective of this thesis is to assess how the backlink portfolio structure and off site Search Engine Optimisation (SEO) elements influence ranking of UK based online nursery shops. The growth of the internet use demanded significant effort from companies to optimize and increase their online presence in order to cope with the increasing online competition. The new e-Commerce technology - called Search Engine Optimisation - has been developed that helped increase website visibility of companies. The SEO process involves on site elements (i.e. changing the parameters of the company's website such as keywords, title tags and meta descriptions) and off site elements (link building and social media marketing activity). Link Building is based on several steps of marketing planning including keyword research and competitor analysis. The underlying goal of keyword research is to understand the targeted market through identifying relevant keyword queries that are used by targeted costumer group. In the analysis, three types (geographic, field and company’s strategy related) and seven sources of keywords has been identified and used as a base of analysis. Following the determination of the most popular keywords, allinanchor and allintitle search has been conducted and the first ten results of the searches have been collected to identify the companies with the most significant web presence among the nursery shops. Finally, Link Profiling has been performed where the essential goal was to understand to what extent other companies' link structure is different that the base company's backlinks. Significant difference has been found that distinguished the top three companies ranking in the allinanchor and allintitle search. The top three companies, „Mothercare”, „Mamas and Papas” and „Kiddicare” maintained significantly better metrics regarding domain and page authority on the main landing pages, the average number of outbound links for link portfolio metric and in number of backlinks. These companies also ranked among the highest in page authority distribution and followed external linking.
Resumo:
PériCulture est le nom d'un projet de recherche à l'Université de Montréal qui fait partie d'un projet plus vaste basé à l'Université de Sherbrooke. Ce dernier visait à former un réseau de recherche pour la gestion du contenu culturel numérique canadien. L'objectif général de la recherche de PériCulture était d'étudier les méthodes d'indexation de contenus culturels non textuels sur le Web, plus spécifiquement des images. Les résultats de la recherche présentés ici s'appuient sur des travaux précédents en indexation d'images et en indexation automatique (de texte), par l'étude des propriétés du texte associé à des images dans un environnement réseau. Le but était de comprendre la façon dont le texte associé à des images sur des pages Web (appelé péritexte) peut être exploité pour indexer les images correspondantes. Nous avons étudié cette question dans le contexte de pages Web sélectionnées, c'est à dire : des pages de contenu culturel canadien contenant des objets multimédia auxquels était associé du texte (plus que simplement les noms de fichiers et les légendes) et qui étaient bilingues (anglais et français). Nous avons identifié les mots-clés utiles à l'indexation situés à proximité de l'objet décrit. Les termes d'indexation potentiels ont été identifiés dans diverses balises HTML et dans le texte intégral (chacun étant considéré comme une source différente de péritexte). Notre étude a révélé qu'un grand nombre de termes d'indexation utiles sont disponibles dans le péritexte de nombreux sites Web ayant un contenu culturel, et ce péritexte de différentes sources a une utilité variable dans la recherche d’information. Nos résultats suggèrent que ces termes peuvent être exploités de différentes manières dans les systèmes de recherche d’information pour améliorer les résultats de recherche.
TactoColor : conception et évaluation d’une interface d’exploration spatiale du web pour malvoyants.
Resumo:
Nous nous intéressons, dans le cadre de cette recherche, à l’accès à l’internet des personnes malvoyantes. Plusieurs types d’outils destinés à ce public sont disponibles sur le marché, comme les lecteurs et les agrandisseurs d’écran, en fonction de l’acuité visuelle de la personne. Bien que ces outils soient utiles et régulièrement utilisés, les malvoyants (ainsi que les aveugles) évoquent souvent leur aspect frustrant. Plusieurs raisons sont citées, comme le manque d’organisation spatiale du contenu lu avec les lecteurs d’écran ou le fait de ne solliciter qu’un seul sens. La présente recherche consiste à adapter pour les malvoyants un système en développement le TactoWeb (Petit, 2013) qui permet une exploration audio-tactile du Web. TactoWeb a été conçu pour les handicapés ayant une cécité complète et n’offre donc aucune propriété visuelle. Nous proposons ici une adaptation du système pour les handicapés n’ayant qu’une déficience visuelle partielle. Nous espérons fournir à cette population des outils performants qui leur permettront de naviguer sur l’internet de façon efficace et agréable. En effet, grâce à une exploration non-linéaire (qui devrait améliorer l’orientation spatiale) et une interface multimodale (qui sollicite la vue, l’ouïe et le toucher), nous pensons réduire fortement le sentiment de frustration qu’évoquent les malvoyants. Nous avons posé l’hypothèse qu’une exploration non-linéaire et trimodale d’un site internet avec TactoColor est plus satisfaisante et efficace qu’une exploration non-linéaire bimodale avec TactoWeb (sans retour visuel). TactoColor a été adapté pour les malvoyants en ajoutant des indices visuels traduisant les composantes de la page (liens, menus, boutons) qui devraient rendre l’exploration plus aisée. Pour vérifier notre hypothèse, les deux versions du logiciel ont été évaluées par des malvoyants. Ainsi, les participants ont commencé soit avec TactoWeb, soit avec TactoColor afin de ne pas favoriser une des versions. La qualité de la navigation, son efficacité et son efficience ont été analysées en se basant sur le temps nécessaire à l’accomplissement d’une tâche, ainsi que la facilité ou la difficulté évoquée par le participant. Aussi, à la fin de chaque session, nous avons demandé leur avis aux participants, grâce à un questionnaire d’évaluation, ce qui nous a permis d’avoir leur retour sur notre logiciel après leur brève expérience. Tous ces relevés nous ont permis de déterminer que l’ajout des couleurs entraine une exploration plus rapide des pages web et une meilleure orientation spatiale. Par contre les performances très différentes des participants ne permettent pas de dire si la présence des couleurs facilite la complétion des tâches.
Resumo:
Le web est un espace d’action. Cette affirmation, qui sera la thèse fondamentale de ces pages, pose tout de suite une série de questions. En premier lieu, quelles sont les actions sur le web? Ensuite, qui est l’acteur? Parle-t-on d’acteurs ou d’auteurs? Je ne pourrais prétendre donner ici une réponse à ces questions; l’ambition de cet article se limite à en illustrer les enjeux pour approfondir la compréhension de notre monde numérique.
Resumo:
L’expérience de la mort sur le web révèle un paradoxe évident, celui de sites ou de profils abandonnés par leurs ’propriétaires’, des pages qui deviennent alors des cadavres numériques, leur définitive inactivité équivalant à la mort. Il s’agit cependant d’une mort qui ne correspond pas à une disparition. Au contraire, nous sommes devant une mort temporaire, qui continue à être visible même si tout processus d’écriture, l’écriture polymorphe au fondement de notre existence numérique, s’est arrêté.
Resumo:
Some material used with permission from Frank Bott