963 resultados para LACUNY web page
Resumo:
En internet encontramos gran cantidad de información científico-técnica cuya validez no suele estar controlada por comités correctores. Para aprovechar estos recursos es necesario filtrar y facilitar el acceso del usuario a la información. En este artículo se expone la experiencia práctica en el desarrollo de una página WEB centrada en las actividades del grupo de investigación «Calidad Nutricional y Tecnología de los Lípidos». Los objetivos de esta página WEB fueron los siguientes: difusión de las actividades del grupo de investigación, aprovechar los recursos que ofrece internet y fomentar y facilitar su uso. Esta experiencia permitió presentar una metodología de trabajo eficaz para conseguir estos objetivos. Finalmente, se presentan un gran número de direcciones WEB agrupadas por apartados en el ámbito de los lípidos. Estas direcciones han sido rigurosamente seleccionadas, entre un gran número de referencias consultadas, siguiendo una serie de criterios que se discuten en este trabajo, para ofrecer aquellas que presentan un mayor interés práctico.
Resumo:
In spite of the increasing presence of Semantic Web Facilities, only a limited amount of the available resources in the Internet provide a semantic access. Recent initiatives such as the emerging Linked Data Web are providing semantic access to available data by porting existing resources to the semantic web using different technologies, such as database-semantic mapping and scraping. Nevertheless, existing scraping solutions are based on ad-hoc solutions complemented with graphical interfaces for speeding up the scraper development. This article proposes a generic framework for web scraping based on semantic technologies. This framework is structured in three levels: scraping services, semantic scraping model and syntactic scraping. The first level provides an interface to generic applications or intelligent agents for gathering information from the web at a high level. The second level defines a semantic RDF model of the scraping process, in order to provide a declarative approach to the scraping task. Finally, the third level provides an implementation of the RDF scraping model for specific technologies. The work has been validated in a scenario that illustrates its application to mashup technologies
Resumo:
Our research explores the possibility of categorizing webpages and webpage genre by structure or layout. Based on our results, we believe that webpage structure could play an important role, along with textual and visual keywords, in webpage categorization and searching.
Resumo:
En aquest projecte es visualitza la trajectòria d'un vehicle (aeri o terrestre) en una pàgina web. Per això es disposa d'una PDA (Personal Digital Assistant), en la qual es té informació actualitzada de la posició i de la velocitat d’aquest vehicle. Aquestes dades són obtingudes d'un sistema que combina la navegació inercial i el GPS (Global Position System), els quals estimen de manera precisa la trajectòria del vehicle. A fi d'oferir una visualització en temps real, versàtil, accessible i amigable a l'usuari de la trajectòria del vehicle, s'ha desenvolupat un sistema de visualització on-line que proporciona un millor rendiment en comparació amb la qual es venia fent en la PDA. Per a dur-lo a terme s'implementa una interfície d'usuari en la PDA que ens permet transmetre aquesta informació via WIFI a la pàgina web, d'igual forma al servidor web es crea una interfície que interpreta i gestiona aquestes dades per a posteriorment ser graficats a Google Maps.
Resumo:
Aquesta memòria sintetitza el treball de desenvolupament d¿una aplicació per realitzar el filtrat de pàgines web.Els objectius principals del projecte han estat d¿una banda obtenir una aplicació que permeti realitzar el filtrat i de l¿altra aprofitar el projecte per construir un model complet de desenvolupament de programari per a industrialitzar futurs projectes. En quant a la metodologia, s¿ha emprat el cicle de vida RUP de forma incremental en les tres parts de l¿aplicació, (proxy, filtres i log). En la seqüència de quatre fases s¿executen iterativament una sèrie de processos. Pel que fa al producte obtingut, es tracta d¿un servidor proxy, que realitza la funció de filtrat de pàgines web, mitjançant dues utilitats, ¿llista negra¿ d¿adreces i ¿llista negra¿ de continguts, ames de disposar d¿un registre d¿activitat log.
Resumo:
Aquest treball mira de donar una visió global de la problemàtica de la facilitat d'accés web. El producte que provoca o pot provocar la problemàtica és una pàgina web i els afectats són les persones amb alguna discapacitat. Per això, en aquest treball s'estudia la facilitat d'ús d'una pàgina web orientada a uns usuaris especials i, per tant, es revisa la facilitat d'accés d'una pàgina.
Resumo:
Aquest treball final de carrera consisteix en la creació d'un complement que afegeix noves característiques a un navegador conegut com Firefox produït i proporcionat pel Projecte Mozilla. Aquest projecte desenvolupa, implementa i promou el programari lliure. El complement consisteix en un filtre de pàgines web a nivell de contingut.
Resumo:
Aquest treball, basant-se en una aplicació concreta d'aquest concepte de web semàntic anomenada anotació semàntica de pàgines web, presenta els conceptes i els elements propis, com ara les ontologies i els llenguatges semàntics, i també un cas pràctic de disseny i desenvolupament d'una ontologia i una anotació semàntica de les pàgines d'un web a partir de l'ontologia creada.
Resumo:
L'objectiu de l'aplicació serà el facilitar i automatitzar en la mesura del possible el treball de les persones que mantenen bases de dades de productes en Internet, encara que es pot estendre en futures versions (i haurà d'estar preparat per a això) per a altres usos com l'actualització de la pàgina web amb informació de tercers en temps quasi-real.
Resumo:
En aquest projecte s'ha dut a terme la creació del programari de gestió i la pàgina web per a una botiga de mobles.