27 resultados para web caching
Resumo:
Impreso por la Diputación Foral de Álava, D.L. VI-430/99.
Resumo:
Este proyecto se basa en desarrollar una aplicación web llamada Emantake y su finalidad es facilitar la búsqueda de personas para el aprendizaje de idiomas.Para realizarlo se han utilizado diferentes lenguajes, entornos y tecnologías propios de este tipo de aplicaciones las cuales se han estudiado con detenimiento para la realización del proyecto.
Resumo:
Ponencia leída en el Foro de Comunicaciones IkasArt II (BEC Barakaldo, 2010.06.18)
Resumo:
El proyecto consiste en la renovacion (rediseño y nueva construccion) del portal web de la asociacion de la tamborrada Iriyarena, que organiza la Unibertsitateko Danborrada. El actual sitio es un sitio estatico que necesita una actualizacion hacia un entorno dinamico. Dado que Iriyarena es una asociacion sin animo de lucro, todas las herramientas que se empleen deben ser de codigo abierto y gratuito que incluya los principales estandares web.
Resumo:
Este PFC trata la construcción de un sistema de acceso al catálogo de una biblioteca doméstica a través de distintas interfaces de usuario que hacen uso de unos mismos servicios web REST expuestos en un servidor Java EE. Su desarrollo implica la integración de múltiples tecnologías open source a varios niveles.
Resumo:
Duración (en horas): Más de 50 horas. Destinatario: Estudiante
Resumo:
Dotar de funcionalidad web al modulo existente de gestión documental EPDM.
Resumo:
En este Proyecto de Fin de Carrera se ha creado la aplicación web FindPlace, así como su web de administración FindPlaceAdmin. La finalidad de FindPlace es poner a disposición del usuario la información sobre las ubicaciones (laboratorios, aulas, despachos, etc.) y detalles acerca del personal de cualquier facultad asociada a la UPV/EHU. FindPlace ha sido implementada con un Responsive Web Design, lo cual permite que la página web se visualice adecuadamente independientemente del dispositivo en el que se represente. Para la consecución de este proyecto se ha seguido una metodología ágil que ha permitido que la idea inicial haya ido evolucionando y adaptándose a las nuevas necesidades surgidas a lo largo del desarrollo.
Resumo:
Realización de una aplicación web destinada a la creación y visualización de tutoriales paso a paso de cualquier temática. Para la realización de este proyecto se utilizarán las últimas técnicas de desarrollo de aplicaciones web que sean de uso libre y que no conlleven costo alguno.
Resumo:
[ES] Es obligatorio para las empresas cotizadas que cuenten con una página web para atender el derecho de información de los accionistas, y donde difundir información relevante y obligatoria. Por ello, se creó la normativa necesaria para regular tanto la información mínima que las empresas debían aportar en sus webs, como los requisitos técnicos y jurídicos que dichas páginas debían poseer. No obstante, todas las empresas no presentan la misma información en sus webs, ya que muchas no se limitan a presentar solo la exigida por ley, y ésta puede ser más o menos útil para los usuarios. Por eso, es imprescindible poder conocer de alguna forma la transparencia que las empresas muestran a los usuarios en sus páginas web y en particular a los accionistas, si existe asimetría informativa o no, y saber cuál es el grado de calidad de la información presentada, así como la confianza que se puede tener en la misma.
Resumo:
El trabajo estudia la Web 2.0 y la repercusión que tiene a nivel empresarial. Idioma: Español.
Resumo:
El objetivo del proyecto es implantar una aplicación web, para que los clientes puedan acceder a toda la información referente a esta empresa. Una de las peculiaridades de esta aplicación web es que, además de mostrar toda la información referente a la empresa, posee un módulo, que permitirá a todos los clientes de la empresa poder saber, en cada instante, el estado de su automóvil y pagar la factura de la reparación desde casa, con total confianza y comodidad, y todo ello mediante PayPal o por transferencia bancaria. Otro de los módulos que se van a desarrollar va a ser el panel de administración, a través del cual los administradores podrán realizar numerosas gestiones. También se va a desarrollar una App para Android que permitirá a la empresa estar conectada con sus clientes.
Resumo:
La Facultad de Ciencias Sociales y de la Comunicación a través del Departamento de Periodismo II viene organizando desde hace cuatro años el Congreso Internacional de Ciberperiodismo y Web 2.0, un evento relacionado con el Periodismo e Internet, en general y con la Web 2.0, en particular. Un concepto éste, el de la Web 2.0, en el que el verdadero protagonismo recae en las audiencias. El público se está convirtiendo en el editor de información; es él el que define cómo quiere ver la información; y está constituyendo comunidades en este proceso. La Web 2.0 refuerza la idea del usuario como creador y no sólo como consumidor de medios. Aquellas personas que antes eran clientes de información se convierten paulatinamente en editores, y muchas de las aplicaciones asociadas con la web 2.0 pretenden ayudarles a organizar y publicar sus contenidos.
Resumo:
La Facultad de Ciencias Sociales y de la Comunicación a través del Departamento de Periodismo II viene organizando desde hace cinco años el Congreso Internacional de Ciberperiodismo y Web 2.0, un evento relacionado con el Periodismo e Internet, en general y con la Web 2.0, en particular. Un concepto éste, el de la Web 2.0, en el que el verdadero protagonismo recae en las audiencias. El público se está convirtiendo en el editor de información; es él el que define cómo quiere ver la información; y está constituyendo comunidades en este proceso. La Web 2.0 refuerza la idea del usuario como creador y no sólo como consumidor de medios. Aquellas personas que antes eran clientes de información se convierten paulatinamente en editores, y muchas de las aplicaciones asociadas con la web 2.0 pretenden ayudarles a organizar y publicar sus contenidos. El Congreso de este año, que se celebra los días 17 y 18 de noviembre en el Bizkaia Aretoa lleva por título "¿Son las audiencias indicadores de calidad?". La edición de este año del Congreso intentará responder acerca de cuáles son las estrategias de los medios de comunicación considerados de referencia, están adoptando ante el hecho de que las audiencias demanden más participación y, como consecuencia, estén cada vez más aceptando contenidos generados por los usuarios (User-Generated Content). Se explorarán características, herramientas, impacto y consecuencias para comprender, desde un punto de vista crítico, la naturaleza o el alcance de estos nuevos modelos. El objetivo es nuevamente reunir a especialistas en el área para analizar y debatir cuestiones centradas en la práctica del Ciberperiodismo actual a la luz de las nuevas realidades empresariales, profesionales y de formación. Los desafíos y los cambios provocados por la convergencia y la multitextualidad, por el también llamado “Periodismo ciudadano”, por las innovaciones tecnológicas y las experiencias emprendedoras en esta área serán temas a destacar. Se pretende, igualmente, que el congreso constituya un momento ideal para la actualización de conocimientos científicos sobre el Ciberperiodismo. Para ello, se cuenta con la presencia de académicos, tanto nacionales como extranjeros, que constituyen un referente en la investigación.
Resumo:
Background: Two distinct trends are emerging with respect to how data is shared, collected, and analyzed within the bioinformatics community. First, Linked Data, exposed as SPARQL endpoints, promises to make data easier to collect and integrate by moving towards the harmonization of data syntax, descriptive vocabularies, and identifiers, as well as providing a standardized mechanism for data access. Second, Web Services, often linked together into workflows, normalize data access and create transparent, reproducible scientific methodologies that can, in principle, be re-used and customized to suit new scientific questions. Constructing queries that traverse semantically-rich Linked Data requires substantial expertise, yet traditional RESTful or SOAP Web Services cannot adequately describe the content of a SPARQL endpoint. We propose that content-driven Semantic Web Services can enable facile discovery of Linked Data, independent of their location. Results: We use a well-curated Linked Dataset - OpenLifeData - and utilize its descriptive metadata to automatically configure a series of more than 22,000 Semantic Web Services that expose all of its content via the SADI set of design principles. The OpenLifeData SADI services are discoverable via queries to the SHARE registry and easy to integrate into new or existing bioinformatics workflows and analytical pipelines. We demonstrate the utility of this system through comparison of Web Service-mediated data access with traditional SPARQL, and note that this approach not only simplifies data retrieval, but simultaneously provides protection against resource-intensive queries. Conclusions: We show, through a variety of different clients and examples of varying complexity, that data from the myriad OpenLifeData can be recovered without any need for prior-knowledge of the content or structure of the SPARQL endpoints. We also demonstrate that, via clients such as SHARE, the complexity of federated SPARQL queries is dramatically reduced.