938 resultados para 080505 Web Technologies (excl. Web Search)
Resumo:
The role of gender differences in the consumption of goods and services is well established in many areas of consumer behaviour and computer use and yet there has been only limited research into such gender-based differences in the information search behaviour of Internet users. This paper reports the gender-based results of an exploratory study of consumer external information search of the web. The study investigated consumer characteristics, web search behaviour, and the post web search outcomes of purchase decision status and consumer judgements of search usefulness and satisfaction. Gender-based differences are reported in all three areas. Consideration of the results suggests they are issues which could inhibit the adoption of online purchasing by female web users. The implications of these results are discussed and a future research agenda proposed.
Resumo:
When a query is passed to multiple search engines, each search engine returns a ranked list of documents. Researchers have demonstrated that combining results, in the form of a "metasearch engine", produces a significant improvement in coverage and search effectiveness. This paper proposes a linear programming mathematical model for optimizing the ranked list result of a given group of Web search engines for an issued query. An application with a numerical illustration shows the advantages of the proposed method. © 2011 Elsevier Ltd. All rights reserved.
Resumo:
For some years now the Internet and World Wide Web communities have envisaged moving to a next generation of Web technologies by promoting a globally unique, and persistent, identifier for identifying and locating many forms of published objects . These identifiers are called Universal Resource Names (URNs) and they hold out the prospect of being able to refer to an object by what it is (signified by its URN), rather than by where it is (the current URL technology). One early implementation of URN ideas is the Unicode-based Handle technology, developed at CNRI in Reston Virginia. The Digital Object Identifier (DOI) is a specific URN naming convention proposed just over 5 years ago and is now administered by the International DOI organisation, founded by a consortium of publishers and based in Washington DC. The DOI is being promoted for managing electronic content and for intellectual rights management of it, either using the published work itself, or, increasingly via metadata descriptors for the work in question. This paper describes the use of the CNRI handle parser to navigate a corpus of papers for the Electronic Publishing journal. These papers are in PDF format and based on our server in Nottingham. For each paper in the corpus a metadata descriptor is prepared for every citation appearing in the References section. The important factor is that the underlying handle is resolved locally in the first instance. In some cases (e.g. cross-citations within the corpus itself and links to known resources elsewhere) the handle can be handed over to CNRI for further resolution. This work shows the encouraging prospect of being able to use persistent URNs not only for intellectual property negotiations but also for search and discovery. In the test domain of this experiment every single resource, referred to within a given paper, can be resolved, at least to the level of metadata about the referred object. If the Web were to become more fully URN aware then a vast directed graph of linked resources could be accessed, via persistent names. Moreover, if these names delivered embedded metadata when resolved, the way would be open for a new generation of vastly more accurate and intelligent Web search engines.
Resumo:
This thesis investigates how web search evaluation can be improved using historical interaction data. Modern search engines combine offline and online evaluation approaches in a sequence of steps that a tested change needs to pass through to be accepted as an improvement and subsequently deployed. We refer to such a sequence of steps as an evaluation pipeline. In this thesis, we consider the evaluation pipeline to contain three sequential steps: an offline evaluation step, an online evaluation scheduling step, and an online evaluation step. In this thesis we show that historical user interaction data can aid in improving the accuracy or efficiency of each of the steps of the web search evaluation pipeline. As a result of these improvements, the overall efficiency of the entire evaluation pipeline is increased. Firstly, we investigate how user interaction data can be used to build accurate offline evaluation methods for query auto-completion mechanisms. We propose a family of offline evaluation metrics for query auto-completion that represents the effort the user has to spend in order to submit their query. The parameters of our proposed metrics are trained against a set of user interactions recorded in the search engine’s query logs. From our experimental study, we observe that our proposed metrics are significantly more correlated with an online user satisfaction indicator than the metrics proposed in the existing literature. Hence, fewer changes will pass the offline evaluation step to be rejected after the online evaluation step. As a result, this would allow us to achieve a higher efficiency of the entire evaluation pipeline. Secondly, we state the problem of the optimised scheduling of online experiments. We tackle this problem by considering a greedy scheduler that prioritises the evaluation queue according to the predicted likelihood of success of a particular experiment. This predictor is trained on a set of online experiments, and uses a diverse set of features to represent an online experiment. Our study demonstrates that a higher number of successful experiments per unit of time can be achieved by deploying such a scheduler on the second step of the evaluation pipeline. Consequently, we argue that the efficiency of the evaluation pipeline can be increased. Next, to improve the efficiency of the online evaluation step, we propose the Generalised Team Draft interleaving framework. Generalised Team Draft considers both the interleaving policy (how often a particular combination of results is shown) and click scoring (how important each click is) as parameters in a data-driven optimisation of the interleaving sensitivity. Further, Generalised Team Draft is applicable beyond domains with a list-based representation of results, i.e. in domains with a grid-based representation, such as image search. Our study using datasets of interleaving experiments performed both in document and image search domains demonstrates that Generalised Team Draft achieves the highest sensitivity. A higher sensitivity indicates that the interleaving experiments can be deployed for a shorter period of time or use a smaller sample of users. Importantly, Generalised Team Draft optimises the interleaving parameters w.r.t. historical interaction data recorded in the interleaving experiments. Finally, we propose to apply the sequential testing methods to reduce the mean deployment time for the interleaving experiments. We adapt two sequential tests for the interleaving experimentation. We demonstrate that one can achieve a significant decrease in experiment duration by using such sequential testing methods. The highest efficiency is achieved by the sequential tests that adjust their stopping thresholds using historical interaction data recorded in diagnostic experiments. Our further experimental study demonstrates that cumulative gains in the online experimentation efficiency can be achieved by combining the interleaving sensitivity optimisation approaches, including Generalised Team Draft, and the sequential testing approaches. Overall, the central contributions of this thesis are the proposed approaches to improve the accuracy or efficiency of the steps of the evaluation pipeline: the offline evaluation frameworks for the query auto-completion, an approach for the optimised scheduling of online experiments, a general framework for the efficient online interleaving evaluation, and a sequential testing approach for the online search evaluation. The experiments in this thesis are based on massive real-life datasets obtained from Yandex, a leading commercial search engine. These experiments demonstrate the potential of the proposed approaches to improve the efficiency of the evaluation pipeline.
Resumo:
Die Arbeit geht dem Status quo der unternehmensweiten Suche in österreichischen Großunternehmen nach und beleuchtet Faktoren, die darauf Einfluss haben. Aus der Analyse des Ist-Zustands wird der Bedarf an Enterprise-Search-Software abgeleitet und es werden Rahmenbedingungen für deren erfolgreiche Einführung skizziert. Die Untersuchung stützt sich auf eine im Jahr 2009 durchgeführte Onlinebefragung von 469 österreichischen Großunternehmen (Rücklauf 22 %) und daran anschließende Leitfadeninterviews mit zwölf Teilnehmern der Onlinebefragung. Der theoretische Teil verortet die Arbeit im Kontext des Informations- und Wissensmanagements. Der Fokus liegt auf dem Ansatz der Enterprise Search, ihrer Abgrenzung gegenüber der Suche im Internet und ihrem Leistungsspektrum. Im empirischen Teil wird zunächst aufgezeigt, wie die Unternehmen ihre Informationen organisieren und welche Probleme dabei auftreten. Es folgt eine Analyse des Status quo der Informationssuche im Unternehmen. Abschließend werden Bekanntheit und Einsatz von Enterprise-Search-Software in der Zielgruppe untersucht sowie für die Einführung dieser Software nötige Rahmenbedingungen benannt. Defizite machen die Befragten insbesondere im Hinblick auf die übergreifende Suche im Unternehmen und die Suche nach Kompetenzträgern aus. Hier werden Lücken im Wissensmanagement offenbar. 29 % der Respondenten der Onlinebefragung geben zudem an, dass es in ihren Unternehmen gelegentlich bis häufig zu Fehlentscheidungen infolge defizitärer Informationslagen kommt. Enterprise-Search-Software kommt in 17 % der Unternehmen, die sich an der Onlinebefragung beteiligten, zum Einsatz. Die durch Enterprise-Search-Software bewirkten Veränderungen werden grundsätzlich positiv beurteilt. Alles in allem zeigen die Ergebnisse, dass Enterprise-Search-Strategien nur Erfolg haben können, wenn man sie in umfassende Maßnahmen des Informations- und Wissensmanagements einbettet.
Resumo:
Whether a 1-year nationwide, government supported programme is effective in significantly increasing the number of smoking cessation clinics at major Swiss hospitals as well as providing basic training for the staff running them. We conducted a baseline evaluation of hospital services for smoking cessation, hypertension, and obesity by web search and telephone contact followed by personal visits between October 2005 and January 2006 of 44 major public hospitals in the 26 cantons of Switzerland; we compared the number of active smoking cessation services and trained personnel between baseline to 1 year after starting the programme including a training workshop for doctors and nurses from all hospitals as well as two further follow-up visits. At base line 9 (21%) hospitals had active smoking cessation services, whereas 43 (98%) and 42 (96%) offered medical services for hypertension and obesity respectively. Hospital directors and heads of Internal Medicine of 43 hospitals were interested in offering some form of help to smokers provided they received outside support, primarily funding to get started or to continue. At two identical workshops, 100 health professionals (27 in Lausanne, 73 in Zurich) were trained for one day. After the programme, 22 (50%) hospitals had an active smoking cessation service staffed with at least 1 trained doctor and 1 nurse. A one-year, government-supported national intervention resulted in a substantial increase in the number of hospitals allocating trained staff and offering smoking cessation services to smokers. Compared to the offer for hypertension and obesity this offer is still insufficient.
Resumo:
Actualment seria impensable la existència d'una xarxa d'informació com Internet sense la existència dels motors de cerca. Gràcies a ells, qualsevol usuari tenim al nostre abast la possibilitat d'obtenir informació sobre qualsevol tema només enviant una consulta des dels nostres ordinadors i rebent una resposta en qüestió de segons. Entre els usuaris dels cercadors d'Internet és molt habitual que les consultes facin referència a la empresa on treballem, la ciutat on vivim, els llocs que visitem, o inclús sobre problemes que tenim o malalties que patim amb l'objectiu de trobar opinions, consells o solucions. En resum, els usuaris, a través de les nostres consultes, proporcionem a diari als motors de cerca informació sobre nosaltres mateixos i sobre la nostra identitat que, juntament amb la adreça IP de la màquina des d'on fem les nostres consultes, ens fa perdre l'anonimat dins dels seus sistemes. Sobre aquesta problemàtica és del que tracta el present Projecte de Final de Carrera. En ell s'ha implementat una solució de la proposta especificada per Alexandre Viejo i Jordi Castellà-Roca en la seva publicació "Using social networks to disort users' profiles generated by web search engines", en la qual es documenten una sèrie de protocols de seguretat i d'algorismes de protecció i distribució que garanteixen la privacitat de la identitat dels usuaris dins dels motors de cerca aprofitant per aquest fi la relació existent entre aquests usuaris a través de les xarxes socials.
Resumo:
Construcció d'un servei de cerca automatitzada de notícies. La cerca es realitza en els canals RSS als quals es vol subscriure l'usuari.
Resumo:
A partir de diferents enquestes de satisfacció institucional i de l'anàlisi de l'arxiu 'log' del servidor de la biblioteca respecte a l'ús i al comportament dels usuaris, es va detectar que cada cop era més complex accedir als continguts i serveis de manera proporcional al creixement d'aquests darrers i de l'augment del nombre d'usuaris. El creixement dels recursos i de les diferents aplicacions desenvolupats a la Biblioteca Virtual de la UOC (BUOC) va fer necessari la selecció i la implementació d'un motor de cerca que facilités de manera global l'accés als recursos d'informació i als serveis oferts a la comunitat virtual de la UOC d'acord amb la tipologia d'usuari, l'idioma i el seu entorn d'aprenentatge. En aquest article s'exposa el procés d'anàlisi de diferents productes i la implementació de Verity a la BUOC amb els desenvolupaments realitzats en les diferents aplicacions perquè el motor de cerca pugui fer la seva funció.
Resumo:
L'increment d'ús del préstec interbibliotecari i l'obtenció de documents (PI/SOD) obria, en el si del Consorci de Biblioteques Universitàries de Catalunya, un debat de com millorar la seva accessibilitat i gestió, especialment de cara a l'usuari que havia d'utilitzar diferents aplicatius en el procés de sol·licitar documents en PI/SOD. Fruit d'aquesta reflexió, s'ha realitzat un nou pas en la millora i consolidació d'aquest servei, integrant dins de la interfície de consulta per web del Catàleg Col·lectiu de les Universitats de Catalunya la possibilitat de demanar els documents en línia tant sols entrant la identificació d'usuari. L'Aplicació desenvolupada en PL-SQL per la Universitat Oberta de Catalunya dins del projecte GALA (Global Access to Local Applications and services), permet la captura automàtica de les dades del registre bibliogràfic i la seva exportació al formulari de PI/SOD de la institució a la que pertany l'usuari, generant una comanda que finalment és validada per la institució.
Resumo:
En aquest projecte es presenta un mecanisme per garantir la privacitat de les cerques que fan els usuaris als motors de cerca aprofitant el potencial de les xarxes socials.
Resumo:
L'objectiu d'aquest treball de recerca és identificar i caracteritzar continguts web "antivacunes" en llengua castellana o catalana.
Resumo:
L’objectiu dels Serveis Intel·ligents d’Atenció Ciutadana (SAC) és donar resposta a les necessitats d'informació dels ciutadans sobre els serveis i les actuacions del municipi i, per extensió, del conjunt del serveis d'interès ciutadà. Des que l’ iSAC s’ha posat en funcionament, periòdicament s’analitzen les consultes que es fan en el sistema i el grau de satisfacció que la ciutadania té d’aquest servei. Tot i que en general les valoracions són satisfactòries s’ha observat que actualment aquest sistema té un buit, hi ha un ampli ventall de respostes que, de moment, l’iSAC no és capaç de resoldre, i possiblement el 010, el call center del servei d’atenció ciutadana, tampoc. Algunes de les cerques realitzades marxen molt de l’àmbit municipal i és l’experiència de la mateixa ciutadania la que pot oferir un millor resultat. És per aquest motiu que ha sorgit la necessitat de crear wikiSAC. Eina que te com a principals objectius que: poder crear, modificar i eliminar el contingut d’una pàgina de forma interactiva de manera fàcil i ràpida a través d’un navegador web; controlar els continguts ofensius i malintencionats; conservar un historial de canvis; incentivar la participació ciutadana i aconseguir que aquest sigui un lloc on els ciutadans preguntin, suggereixin i opinin sobre temes relacionats amb el seu municipi i aconseguir que els ciutadans es sentin més integrats amb el funcionament de l’administració, col∙laborant en les tasques d’informació i atenció ciutadana
Resumo:
Se analiza una preocupación expresada tanto de forma implícita como explícita en diversos ámbitos, según la cual los motores de búsqueda en general y Google en particular, podrían estar utilizando algún sistema para ocultar determinados contenidos culturales o bien para destacar aquellos que proceden del ámbito anglosajón en detrimento de los de otras culturas y lenguas. Dicho de otro modo, se considera, en una primera aproximación de modo exclusivamente conceptual, la idea de si el uso intensivo de los motores de búsqueda, tan característico de nuestro tiempo, resulta una amenaza para la diversidad cultural. Para ello, en primer lugar y con el fin de contextualizar este trabajo, se lleva a cabo una presentación de dos polémicas previas sobre el dilema proteccionismo o libre flujo de los productos culturales y a continuación se analizan las características más relevantes de los motores de búsqueda (centrándonos en Google en particular) con el fin de valorar si éstos constituyen una amenaza creíble a la diversidad cultural e idiomática de la Web.
Resumo:
iMente es un servicio de información de prensa digital realizado en España, que da acceso a los contenidos de publicaciones en línea que incluyen medios de comunicación, notas de prensa, weblogs y boletines oficiales. Se sitúa en el contexto de los productos de información periodística; se describen sus orígenes, evolución, tecnología, contenidos y tipos de usuarios; y se analizan sus principales prestaciones documentales, como seguimientos de prensa, alertas, búsquedas y publicación de titulares.