99 resultados para Ingeniería web


Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este proyecto, enmarcado dentro del campo de la web semántica, se ha desarrollado un sistema llamado littera que permite la federación de depósitos de datos enlazados. Dicho sistema permite consultar depósitos del dominio de la literatura de forma unificada a través de una interfaz web, así como construir colaborativamente un nuevo depósito de datos abiertos y enlazados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

“Urkiolaenea: Sistemas multidispositivo para negocios tradicionales” es un proyecto realizado en la empresa OrekaI.T. dentro de un contexto formativo, ya que a su vez es el proyecto con el que finalizo mis estudios de Ingeniería Informática. Con él, se ha pretendido dar respuesta a las necesidades de un cliente real que dispone de un negocio tradicional.En este caso, Urkiolaenea, una negocio de alojamiento rural que requería de una imagen renovada en Internet para lograr ser más competitiva en el ámbito del turismo rural, además de un sistema de gestión para mejorar sus procesos de negocio. Por otra parte, con este proyecto no sólo se ha buscado cumplir con las expectativas del cliente sino ir más allá, buscando las soluciones más adecuadas ante el mercado actual en Internet, dominado por los dispositivos móviles inteligentes. Por ello, gran parte de los esfuerzos realizados en este proyecto se han enfocado en conseguir que Urkiolaenea sea accesible cómodamente por cualquier persona, independientemente del dispositivo desde el que acceda.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Bezeroaren arazoak lantzeko Web Dynpro ABAP ingurunean sortutako intzidentzien kudeatzailea.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Memoria dokumentuan Auzolagun izeneko proiektuaren nondik-norakoak azaltzen dira. Sistema Informatikoko Ingeniaritza Teknikoko ikasketa amaierako proiektu hau, Talaios kooperatibarekin elkarlanean sortu da, helburu nagusitzat euskal komunitatearentzako crowdfunding sistema bat sortzea delarik.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este documento describe la interfaz web creada para facilitar la interacción con el Mining Module (Módulo de minería) del sistema de extracción de información KYOTO. Hasta ahora, la interacción con dicho módulo requería cierto nivel técnico y además era necesario tenerlo instalado en un entorno local. Ahora, en cambio, se alberga en un servidor web, por lo que se accederá a la interfaz mediante cualquier navegador. El núcleo de esta aplicación sigue siendo el Mining Module, pero ahora el usuario puede interactuar con el sistema de una forma más sencilla e intuitiva. De esta forma se podrán editar y visualizar los kybots y los resultados de una forma mucho más rápida y eficiente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Gradu-amaierako proiektu hau anotazio linguistiko konplexuen testuinguruan kokatzen da. Proiektuaren helburuak hiru zatitan bereizi dira. Lehena, Armiarma web-aplikazioa eta LibiXaML liburutegia egokitzea bilaketa konplexuagoak onartu ahal izateko; horretarako Relax NG eskemen erabilpena errazten duen JavaScript liburutegia garatu da. Ondoren, LibiXaML liburutegiak bilaketarako erabiltzen dituen XPath-en sorkuntza automatizatzea, Relax NG eskematik abiatuz. Eta amaitzeko, analisi-sorkuntzako prototipoa hobetzea, hasieran sortutako liburutegia berrerabiliz eta Relax NG eskemak erabiliz.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Duración (en horas): Más de 50 horas. Destinatario: Estudiante

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Duración (en horas): Más de 50 horas. Destinatario: Estudiante

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Panel de Administración que ofrece una solución completa a la hora de realizar visores para mapas y que permite al cliente configurar un visor en base a sus necesidades, mediante diferentes módulos. Dicho panel, se ha realizado utilizando un desarrollo basado en el prototipado. En el caso de este proyecto, se especifica el desarrollo de los dos primeros prototipos. Los módulos desarrollados son los siguientes: Panel de login: Este panel permite el acceso a la aplicación. Módulo de usuarios/grupos: Este componente permite gestionar grupos y usuarios, tanto la creación, edición de los mismos como la visualización de estos. Módulo de datos: Este componente permite gestionar las fuentes de datos del cliente. Crear plantillas a partir de datos procedentes de BBDD propias, así como la edición de dichas plantillas. Módulo GeoAsset: Este componente permite configurar aplicaciones web o visores. Un visor tendrá asociado un mapa, una lista de control de accesos, etc. Siguiendo la estructura de módulos, también es objeto del proyecto la realización de un segundo prototipo que contiene la mejora de uno de los módulos ya creados: Mejora de módulo de datos: Este componente implementa además de las funcionalidades creadas en la anterior versión, una funcionalidad para permitir la subida de datos a la aplicación.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El desarrollo de este proyecto tiene como objetivo integrar en la plataforma Geoservicios información relacionada con el tráfico, obtenida del distribuidor TomTom. Para ello se creará un API en Java sobre dicha plataforma, en la cual se utilizarán y almacenarán los datos de tráfico obtenidos, para la visualización de la información en cualquier tipo de mapa. Junto con la visualización en tiempo real, también se desea guardar un histórico de toda esa información para su posterior análisis. Este servicio está pensado para poder integrarse en diferentes tipos de aplicaciones. La demostración se hará sobre un visor web de mapas, pero también se puede integrar en aplicaciones de escritorio o en aplicaciones para smartphones.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este Proyecto Fin de Carrera ha realizado el diseño y la implementación de la aplicación social Faborez, para la petición de favores instantáneos. El desarrollo se ha realizado en un marco de integración y colaboración directa de los usuarios en el proyecto, partiendo de un Minimum Viable Product inicial e integrando su feedback en la progresiva ampliación de las características del servicio. En implementación se han utilizado tecnologías emergentes, todas de código abierto: MongoDB y Redis para el almacenamiento de datos, Sails.js como plataforma base para el backend y desarrollando como clientes una aplicación web y otra Android nativa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

[EN]If a frog is placed in boiling water, it will jump out; but if it is placed in cold water that is slowly heated, it will not perceive the danger and will be cooked to death. Without de ability to observe changing environmental conditions, the frog can find itself boiled alive before realizing it is in trouble. This is known as the boiling frog syndrome. In the same manner, it is impossible to be competitive without knowing and being aware of the environmental changes. From here comes the necessity for the Technological Watch and Competitive Intelligence. The main goals of this project are to evaluate the current Technological Vigilance System of the IK4-Tekniker research center and to develop services that help in improving the system. For that purpose, first of all the Technological Vigilance is going to be placed in the business field and its origins are going to be explained. Following that, the Technological Vigilance system of IK4-Tekniker is going to be analyzed for its evaluation. Finally the creation of the services previously mentioned are going to be described in detail, showing the technologies and tools used for that purpose like the Responsive Web Design.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El estudio de las redes complejas atrae cada vez más el interés de muchos investigadores por muchas razones obvias. Muchos sistemas tanto reales como tecnológicos pueden representarse como redes complejas, es decir, un conjunto de entidades en interacción de acuerdo a propiedades topológicas no triviales. La interacción entre los elementos de la red puede describir comportamientos globales tales como el tráfico en Internet, el servicio de suministro de electricidad o la evolución de los mercados. Una de las propiedades topológicas de los grafos que caracterizan estos sistemas complejos es la estructura de comunidad. La detección de comunidades tiene como objetivo la identificación de los módulos o grupos con alguna o varias propiedades en común basándose únicamente en la información codificada en la topología del grafo. La detección de comunidades es importante no sólo para caracterizar el grafo, sino que además ofrece información sobre la formación de la red así como sobre su funcionalidad. El estudio de las leyes subyacentes que gobiernan la dinámica y evolución de los sistemas complejos y la caracterización de sus grafos revela que las redes a gran escala, generalmente, se caracterizan por topologías complejas y estructuras heterogéneas. La estructura de conectividad de estas redes se manifiesta por la presencia de comunidades (clusters o grupos), es decir, conjuntos de nodos que comparten propiedades comunes o juegan roles similares en la red. Las comunidades pueden representar relaciones de amistad en las redes sociales, páginas web con una temática similar, o rutas bioquímicas en las redes metabólicas. Formalmente, una red es un grafo compuesto por un gran número de nodos altamente interconectados donde una comunidad se resalta por la presencia de un gran número de aristas conectando nodos dentro de grupos individuales, pero con baja concentración de aristas entre estos grupos. El mejor modo para establecer la estructura de comunidad de una red compleja es un problema todavía sin resolver. Durante los últimos años, se han propuesto muchos algoritmos que persiguen extraer la partición óptima de una red en comunidades. El clustering espectral, los algoritmos de particionamiento de grafos, los métodos basados en la modularidad o los algoritmos basados en la sincronización son sólo algunos de estos algoritmos de extracción de comunidades. Los algoritmos dinámicos basados en la sincronización han sido estudiados por varios autores, y han demostrado que la monitorización del proceso dinámico de la sincronización permite revelar las diferentes escalas topologicas presentes en una red compleja. Muchos de estos algoritmos se basan en el modelo Kuramoto o en algunas de sus variantes como el modelo de opinión, donde cada oscilador aislado es modelado en un espacio unidimensional. El objetivo principal del presente proyecto es la implementación de un algoritmo de detección de comunidades basado en la sincronización de osciladores acoplados. Cada oscilador ha sido modelado mediante el sistema dinámico de Rossler, un sistema de ecuaciones diferenciales definido en un espacio tridimensional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El trabajo realizado en este proyecto se enmarca dentro del área de Procesamiento del Lenguaje Natural aplicado al ámbito de la medicina. Para este fin se han utilizado técnicas de minería de datos y aprendizaje automático. El objetivo principal de este proyecto es el desarrollo de un modelo capaz de automatizar la clasificación de textos clínicos según el estándar ICD-9- CM (codificación estándar utilizada por la red hospitalaria europea). Aunque existe una herramienta web (https://eciemaps.mspsi.es/ecieMaps/ browser/index_9_mc.html), que facilita la clasificación, este trabajo, hoy en día es realizado manualmente. Básicamente se trata de un diccionario online, de los términos del estándar. Basándonos en trabajos previos relacionados, se ha obtenido un baseline a partir del cual se ha construido el proyecto. En primer lugar, como en cualquier trabajo relacionado con los Sistemas de Apoyo a la Decisión (DSS) se ha estructurado el trabajo en dos módulos principales, el preproceso y la clasificación. En el módulo dedicado al preproceso, se tratan los datos para hacerlos comprensibles a los algoritmos de clasificación. En este primer módulo también se realiza una fase de adición de atributos que aporten información útil a la hora de la clasificación y una posterior selección de los mismos, por si alguno fuera redundante o irrelevante. En el segundo módulo dedicado a la clasificación, seleccionamos aquellos algoritmos que consideramos mejores, basándonos para ello, en otros trabajos previos que abordan un problema similar. Una vez seleccionados los algoritmos, se procede a realizar barridos de parámetros que optimicen su rendimiento. Finalmente, se ha realizado la experimentación con distintas técnicas de preprocesamiento de los datos y con los distintos algoritmos de clasificación automática. Esta última de experimentación tiene como objetivo, encontrar la combinación de métodos que optimice el rendimiento de ambos módulos, y por tanto de todo el sistema.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nivel educativo: Grado.Duración (en horas): De 41 a 50 horas.Destinatario: Estudiante