8 resultados para Web, Search Engine, Overlap
em Universidad de Alicante
Resumo:
Introducción: Analizar la calidad de las páginas web de los servicios de catering en el ámbito escolar y su contenido en educación alimentaria, y tener una primera experiencia con la herramienta de evaluación EDALCAT. Material y métodos: Estudio descriptivo transversal. La población de estudio son páginas web de empresas de catering encargadas de la gestión de los comedores escolares. La muestra se obtuvo utilizando el buscador Google y un Ranking de las principales empresas de catering por facturación, escogiendo aquellas que tenían página web. Para la prueba piloto se seleccionaron diez páginas web según proximidad geográfica a la ciudad de Alicante y nivel de facturación. Para la evaluación de los sitios web se diseñó un cuestionario (EDALCAT), compuesto de un primer bloque de predictores de calidad con 19 variables de fiabilidad, diseño y navegación; y de un segundo bloque de contenidos específicos de educación alimentaria con 19 variables de contenido y actividades educativas. Resultados: Se han obtenido resultados positivos en 31 de las 38 variables del cuestionario, excepto en los ítems: “Buscador”, “Idioma” (40%) y “Ayuda” (10%) del bloque predictores de calidad y en los ítems: “Talleres”, “Recetario”, “Web alimentación-nutrición” (40%) y “Ejemplos” (30%) del bloque de contenidos específicos de educación alimentaria. Todas las páginas web evaluadas superan valores del 50% de cumplimiento de criterios de calidad y de contenidos mínimos en educación alimentaria, y sólo una de ellas, incumple el nivel de actividad mínimo establecido. Conclusiones: Los predictores de calidad y los contenidos específicos en educación alimentaria dieron buenos resultados en todas las páginas web evaluadas. La mayoría de ellas obtuvieron una alta puntuación en su valoración, y en su análisis individual por bloques. Tras el estudio piloto el cuestionario se ha modificado y se obtiene el EDALCAT definitivo. En líneas generales EDALCAT parece ser adecuado para evaluar la calidad de las páginas web de servicios de catering y su contenido en educación alimentaria, sin embargo el presente estudio no puede considerarse como validación del mismo.
Resumo:
La búsqueda es una de las actividades centrales en el mundo digital y, por tanto, uno de los elementos clave en el análisis de cibermedios, ya que una parte de sus audiencias y de sus ingresos procede de las páginas de resultados de los buscadores (SERP). En este trabajo, presentamos algunas de las herramientas de análisis de posicionamiento SEO más utilizadas con el fin de considerar su aplicación en estudios académicos sobre cibermedios. Aplicamos los nueve indicadores más importantes de estas herramientas a la página principal de cuatro cibermedios generalistas espanoles con el fin de estimar su viabilidad como indicadores alternativos al PageRank y otros indicadores de Google.
Resumo:
Este artículo estudia la redefinición del lenguaje periodístico ante la influencia de tres tendencias de la comunicación digital: el Search Engine Optimization (SEO), la inmediatez de las redes sociales y la fragmentación de contenidos mediante enlaces. Para ello, se compara el punto de vista de los editores web de los ocho medios españoles con mayor audiencia con las iniciativas implantadas en sus redacciones y las aportaciones teóricas sobre la escritura ciberperiodística. Este análisis revela la importancia que los medios digitales otorgan a la creación de contenidos adaptados a la web, pero también sus carencias en la adopción de acciones concretas para favorecer su desarrollo.
Resumo:
In the last few years, there has been a wide development in the research on textual information systems. The goal is to improve these systems in order to allow an easy localization, treatment and access to the information stored in digital format (Digital Databases, Documental Databases, and so on). There are lots of applications focused on information access (for example, Web-search systems like Google or Altavista). However, these applications have problems when they must access to cross-language information, or when they need to show information in a language different from the one of the query. This paper explores the use of syntactic-sematic patterns as a method to access to multilingual information, and revise, in the case of Information Retrieval, where it is possible and useful to employ patterns when it comes to the multilingual and interactive aspects. On the one hand, the multilingual aspects that are going to be studied are the ones related to the access to documents in different languages from the one of the query, as well as the automatic translation of the document, i.e. a machine translation system based on patterns. On the other hand, this paper is going to go deep into the interactive aspects related to the reformulation of a query based on the syntactic-semantic pattern of the request.
Resumo:
Comunicación presentada en las IV Jornadas TIMM, Torres (Jaén), 7-8 abril 2011.
Resumo:
This paper describes a CL-SR system that employs two different techniques: the first one is based on NLP rules that consist on applying logic forms to the topic processing while the second one basically consists on applying the IR-n statistical search engine to the spoken document collection. The application of logic forms to the topics allows to increase the weight of topic terms according to a set of syntactic rules. Thus, the weights of the topic terms are used by IR-n system in the information retrieval process.
Resumo:
Conceptual Modelling approaches for the web need extensions to specify dynamic personalization properties in order to design more powerful web applications. Current approaches provide techniques to support dynamic personalization, usually focused on implementation details. This article presents an extension of the OO-H conceptual modeling approach to address the particulars associated with the design and specification of dynamic personalization. The main benefit is that this specification can be modified without recompile the rest of the application modules. We describe how conventional navigation and presentation diagrams are influenced by personalization properties. In order to model the variable part of the interface logic OO-H has a personalization architecture that leans on a rule engine. Rules are defined based on a User Model and a Reference Model.
Resumo:
Modern compilers present a great and ever increasing number of options which can modify the features and behavior of a compiled program. Many of these options are often wasted due to the required comprehensive knowledge about both the underlying architecture and the internal processes of the compiler. In this context, it is usual, not having a single design goal but a more complex set of objectives. In addition, the dependencies between different goals are difficult to be a priori inferred. This paper proposes a strategy for tuning the compilation of any given application. This is accomplished by using an automatic variation of the compilation options by means of multi-objective optimization and evolutionary computation commanded by the NSGA-II algorithm. This allows finding compilation options that simultaneously optimize different objectives. The advantages of our proposal are illustrated by means of a case study based on the well-known Apache web server. Our strategy has demonstrated an ability to find improvements up to 7.5% and up to 27% in context switches and L2 cache misses, respectively, and also discovers the most important bottlenecks involved in the application performance.