989 resultados para esami informatica jsbin web playground
Resumo:
La Facultad de Ciencias Sociales y de la Comunicación a través del Departamento de Periodismo II viene organizando desde hace cuatro años el Congreso Internacional de Ciberperiodismo y Web 2.0, un evento relacionado con el Periodismo e Internet, en general y con la Web 2.0, en particular. Un concepto éste, el de la Web 2.0, en el que el verdadero protagonismo recae en las audiencias. El público se está convirtiendo en el editor de información; es él el que define cómo quiere ver la información; y está constituyendo comunidades en este proceso. La Web 2.0 refuerza la idea del usuario como creador y no sólo como consumidor de medios. Aquellas personas que antes eran clientes de información se convierten paulatinamente en editores, y muchas de las aplicaciones asociadas con la web 2.0 pretenden ayudarles a organizar y publicar sus contenidos.
Resumo:
La Facultad de Ciencias Sociales y de la Comunicación a través del Departamento de Periodismo II viene organizando desde hace cinco años el Congreso Internacional de Ciberperiodismo y Web 2.0, un evento relacionado con el Periodismo e Internet, en general y con la Web 2.0, en particular. Un concepto éste, el de la Web 2.0, en el que el verdadero protagonismo recae en las audiencias. El público se está convirtiendo en el editor de información; es él el que define cómo quiere ver la información; y está constituyendo comunidades en este proceso. La Web 2.0 refuerza la idea del usuario como creador y no sólo como consumidor de medios. Aquellas personas que antes eran clientes de información se convierten paulatinamente en editores, y muchas de las aplicaciones asociadas con la web 2.0 pretenden ayudarles a organizar y publicar sus contenidos. El Congreso de este año, que se celebra los días 17 y 18 de noviembre en el Bizkaia Aretoa lleva por título "¿Son las audiencias indicadores de calidad?". La edición de este año del Congreso intentará responder acerca de cuáles son las estrategias de los medios de comunicación considerados de referencia, están adoptando ante el hecho de que las audiencias demanden más participación y, como consecuencia, estén cada vez más aceptando contenidos generados por los usuarios (User-Generated Content). Se explorarán características, herramientas, impacto y consecuencias para comprender, desde un punto de vista crítico, la naturaleza o el alcance de estos nuevos modelos. El objetivo es nuevamente reunir a especialistas en el área para analizar y debatir cuestiones centradas en la práctica del Ciberperiodismo actual a la luz de las nuevas realidades empresariales, profesionales y de formación. Los desafíos y los cambios provocados por la convergencia y la multitextualidad, por el también llamado “Periodismo ciudadano”, por las innovaciones tecnológicas y las experiencias emprendedoras en esta área serán temas a destacar. Se pretende, igualmente, que el congreso constituya un momento ideal para la actualización de conocimientos científicos sobre el Ciberperiodismo. Para ello, se cuenta con la presencia de académicos, tanto nacionales como extranjeros, que constituyen un referente en la investigación.
Resumo:
Background: Two distinct trends are emerging with respect to how data is shared, collected, and analyzed within the bioinformatics community. First, Linked Data, exposed as SPARQL endpoints, promises to make data easier to collect and integrate by moving towards the harmonization of data syntax, descriptive vocabularies, and identifiers, as well as providing a standardized mechanism for data access. Second, Web Services, often linked together into workflows, normalize data access and create transparent, reproducible scientific methodologies that can, in principle, be re-used and customized to suit new scientific questions. Constructing queries that traverse semantically-rich Linked Data requires substantial expertise, yet traditional RESTful or SOAP Web Services cannot adequately describe the content of a SPARQL endpoint. We propose that content-driven Semantic Web Services can enable facile discovery of Linked Data, independent of their location. Results: We use a well-curated Linked Dataset - OpenLifeData - and utilize its descriptive metadata to automatically configure a series of more than 22,000 Semantic Web Services that expose all of its content via the SADI set of design principles. The OpenLifeData SADI services are discoverable via queries to the SHARE registry and easy to integrate into new or existing bioinformatics workflows and analytical pipelines. We demonstrate the utility of this system through comparison of Web Service-mediated data access with traditional SPARQL, and note that this approach not only simplifies data retrieval, but simultaneously provides protection against resource-intensive queries. Conclusions: We show, through a variety of different clients and examples of varying complexity, that data from the myriad OpenLifeData can be recovered without any need for prior-knowledge of the content or structure of the SPARQL endpoints. We also demonstrate that, via clients such as SHARE, the complexity of federated SPARQL queries is dramatically reduced.
Resumo:
En este Proyecto de Fin de Grado se ha realizado el diseño y la implementación de la aplicación Baldugenda. El objetivo que tiene Baldugenda es juntar la agenda universitaria física con los teléfonos móviles y los servicios de Google, para que los alumnos puedan llevar al día los exámenes y sus notas mediante la aplicación. El desarrollo se ha realizado en un marco de integración y colaboración directa de los usuarios en el proyecto, partiendo de un producto mínimo viable inicial e integrando el feedback en la progresiva ampliación de las características del servicio.El sistema se basa en una aplicación nativa para Android conectada con los servicios web de Google Calendar y Google Drive. En implementación se han utilizado tecnologías emergentes, todas de código abierto: Sqlite para el almacenamiento de datos, y como cliente una aplicación Android nativa.
Resumo:
[ES]Este proyecto trata el problema del bloqueo de anuncios que existe actualmente en la web. Teniendo en cuenta la opinión de diversos autores sobre el tema, se analiza la problemática del uso de bloqueadores de anuncios. Además, se estudia cómo funcionan estos bloqueadores. En concreto, se analiza cómo está construido y cómo funciona, mediante ingeniería inversa, la extensión más popular en este campo, es decir, AdBlock Plus. Aparte de esto, se proponen una serie de soluciones para atacar al problema. Por último, se desarrolla e implementa una de las propuestas. Como resultado, se mejora el funcionamiento de AdBlock Plus, en el sentido de que da más libertad al usuario para elegir lo que bloquea dando la oportunidad a anunciantes y proveedores de contenido de mantener su modelo de negocio basado en la publicidad.
Resumo:
Se ha implementado la aplicación para el seguimiento de ejercicios en el aula llamada exerClick. Es una aplicación multiplataforma para móviles, evaluada en Android y en iOS y adaptada a esos sistemas gracias a la plataforma Apache Cordova. En su implementación se han utilizado las tecnologías web HTML5, CSS3 y Javascript, además de PHP para el servidor. La aplicación permite que los profesores añadan ejercicios y los alumnos le envíen feedback sobre su realización mediante dos opciones: marcar una duda en el ejercicio o marcar el ejercicio como finalizado.
Resumo:
Dokumentu honek magnet lotura eta web API arloak lantzen dituen Gradu Amaierako Proiektua deskribatzen du. Teknologia horiek liburu elektronikoak partekatzeko erabili dira eta sortutako aplikazioari Liburutruk izena eman zaio. Honakoak dira Liburutruk-en ezaugarri nagusienak: • Zerbitzariak web API api publiko eta dokumentatua eskaintzen du. • APIaren bidez liburuak eta horiei lotutako baliabideak kudeatu daitezke. • Gehitutako liburuak BitTorrent bidez partekatzen ditu eta liburu horien magnet loturak sortzen ditu. • Web-nabigatzaileetan exekutatzen den bezeroa du, orri bakarreko aplikazioa dena. • Bezeroak zerbitzariaren APIa erabiltzen du. • Aplikazioa eta kodea edonork eskura ditzake.
Resumo:
La herramienta pretende integrar datos de la UPV/EHU públicamente accesibles y establecer puentes entre distintos repositorios de información del ámbito académico. Para ello, aprovecharemos el Linked Data, "la forma que tiene la Web Semántica de vincular los distintos datos que están distribuidos en la Web", y los estándares que éste define. La herramienta pretende integrar datos de la UPV/EHU públicamente accesibles y establecer puentes entre distintos repositorios de información del ámbito académico. Para ello, aprovecharemos el Linked Data, "la forma que tiene la Web Semántica de vincular los distintos datos que están distribuidos en la Web", y los estándares que éste define. Los repositorios elegidos para este trabajo han sido el ADDI, Bilatu, las páginas de todos los centros de la UPV/EHU en el Campus de Gipuzkoa y la DBLP. La mayoría de las funcionalidades de esta aplicación son genéricas, por lo que podrían fácilmente aplicarse a repositorios de otras instituciones. El sistema es un prototipo que demuestra la factibilidad del objetivo de integración y que está abierto a la incorporación de más conjuntos de datos, siguiendo la misma metodología empleada en el desarrollo de este proyecto. La mayoría de las funcionalidades de esta aplicación son genéricas, por lo que podrían fácilmente aplicarse a repositorios de otras instituciones. El sistema es un prototipo que demuestra la factibilidad del objetivo de integración y que está abierto a la incorporación de más conjuntos de datos, siguiendo la misma metodología empleada en el desarrollo de este proyecto.
Resumo:
Gaur egun hain erabilia den Twitter aplikazioak badu euskarazko bertsioa, baina bertan idazten diren txioak oraindik ezin dira euskaraz atzitu, ez badira euskaraz itzultzen. Beste hizkuntza nagusietan ordea, Twitter aplikazio berak aukera ematen du hizkuntzaz aldatzeko txioen testua, bere elementu eta propietateak mantenduz. Hori da proiektu honen helburua. Txioetan idatzitako testua euskarara itzultzea, txioen formatua mantenduz. Horretarako Twitterren API-a erabiliko dugu, txio eredu ezberdinak jasotzeko, eta ondoren bertako elementuak desberdindu eta itzultzeko, beharrezkoa den heinean. Besteak beste, traolak, erabiltzaileen aipamenak eta RT-eak (berTxioak) duten eragina testuan eta itzulpenean. Txioen testua normalizatzeko aukera desberdinak inplementatu ditugu programan, Matxin web-zerbitzura bidali aurretik eta ondoren lortzen ditugun emaitzak aztertu. Proiektu honek hasiera batetik erakarri zidan, Twitterren API-a erabiltzeko aukera eskaintzen baitu, eta gaur egun lan mundua ikusirik, honelako API ahaltsu bat erabiltzeak asko balio baitu. Bestalde, Gradu amaierako azken urtean izan nuen itzultzaileen funtzionamenduekin lehenengoz harremana, eta ikasgaia aukerazkoa zenez, ez genuen nahi bezain guztia ikusi. Itzultzaileen munduak ere erakartzen zidanez hartu nuen proiektu hau. Amaitu ondoren, esan dezaket nire kuriositatea asetu dudala eta bai itzulpen automatiko bai Twitter API-ekin aplikazioak sortzeko gai naizela. Nire iritzian erabilera handiko produktu bat lortu dugu proiektu honen bidez. Etorkizunari begira, baliabide gehiago inplementatzeko aukerarekin.
Resumo:
En esta memoria se presenta el proyecto de fin de carrera “Centro de gestión de notificaciones Push para dispositivos móviles basados en IOS y Android”, cuyo objetivo es crear una herramienta web, de libre distribución, que permita gestionar, programar y realizar envíos de notificaciones Push para aplicaciones móviles que funcionen bajo entornos IOS (Apple) y Android.
Resumo:
La primera idea de la realización de este proyecto, fue concebida por la necesidad de tener un sistema por el cual se pudieran cambiar datos de una aplicación, en un sistema móvil, a través de una página web. Sin embargo al conocer la potencia que tiene RDF para ser muy escalable terminó siendo un sistema de gestión de contenido general en RDF. Este sistema de gestión se ha realizado para ser lo más simple posible para un usuario, de tal manera que con solo 2 click en la página web y rellenando un formulario simple, pudiera tener una base de datos sin muchos conocimientos sobre la gestión de las mismas. Aunque claramente no es un sistema potente como si fuera una base de datos en Oracle, por citar un ejemplo, sirve para poder agregar, modificar y eliminar datos con sencillez. Así este sistema de gestión da una posibilidad muy sencilla de realizar tus propias bases de datos. Además aunque tiene un motor SQL para la gestión interna de almacenamiento, la salida de los datos es en RDF/XML con lo que podría ser compatible con un sistema más amplio como Oracle Database Semantic Technologies. Este CMS también tendrá un sistema de seguridad basado en usuario y contraseña. Para que la edición del contenido sea accesible solo a usuarios con acceso, mientras que la exportación de los datos será pública, y podrá ser accesible por cualquier usuario mediante una URI.
Resumo:
188 p.
Resumo:
Gurutzetako ospitaleko Farmaziako departamentuan lantzen diren ensaio klinikoak kudeatzeko aplikazio bat da, ensaio horien sorkuntza egiteaz, bilaketa desberdinak egiteaz, medikamentuen kudeaketa eta kontrola izateaz, ensaioen gaineko errezetak sortzeaz eta alorrarekin zerikusia duten beste hainbat beharrezko eragiketa egiteaz arduratuko dena. Ensaio klinikoen gainean dagoen gaur eguneko kudeaketa-prozesua eta -sistema informatizatzea eta eraginkorragoa bihurtzean datza, benetako beharrizan bat asetuz. Hori lortzeko aplikazio erabilterraz eta intuitibo bat egingo da.
Resumo:
El TFG (Trabajo de Fin de Grado) que se presenta a continuación fue propuesto por el profesor Javier Álvez, miembro del grupo LoRea (Logic and Reasonning Group) de la Universidad del País Vasco, y forma parte de una tarea conjunta con el grupo IXA de la Universidad del País Vasco. La formalización de conocimiento en Adimen-SUMO es un trabajo continuado y en constante evolución. Con lo cual, resulta interesante disponer de herramientas que faciliten la edición y consulta del conocimiento en la ontología. Este trabajo trata de la implementación de una interfaz web para la consulta y edición de la ontología Adimen-SUMO.
Resumo:
Muchos de los servicios que hasta hace relativamente poco tiempo eran ofertados únicamente por los operadores de telecomunicaciones, han pasado en la actualidad a ser prestados por terceros gracias al modelo de servicios en la nube, impulsando el auge de este modelo frente al tradicional. Esto trae consigo un incremento en la complejidad en la implantación por parte del proveedor de políticas para la gestión de la QoS demandada por el cliente.En este nuevo escenario, el concepto de calidad de servicio ha venido evolucionando desde su definición clásica, entendida como el análisis objetivo de los indicadores intrínsecos de calidad que definen el rendimiento de un servicio, hacia una visión subjetiva centrada en el punto de vista del cliente respecto a dicho servicio. En este contexto, organismos de estandarización como la ITU, a través de sus grupos de trabajo, están fomentando el interesante planteamiento de abordar los servicios de telecomunicaciones ampliamente asentados y más que estudiados desde la vertiente clásica de la QoS, desde este nuevo prisma enfocado al cliente, en el que poder establecer una metodología de estudio de la QoE en dichos servicios. En particular, el trabajo presentado en este documento se asienta en la validación del draft de la recientemente aprobada recomendación ITU-T P.1501 (Metodología de test subjetiva para el servicio de navegación web), así como en la contribución a la recomendación G.1031 (Factores de QoE en el servicio de navegación web).