973 resultados para Ingeniería web


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Gradu-amaierako proiektu hau anotazio linguistiko konplexuen testuinguruan kokatzen da. Proiektuaren helburuak hiru zatitan bereizi dira. Lehena, Armiarma web-aplikazioa eta LibiXaML liburutegia egokitzea bilaketa konplexuagoak onartu ahal izateko; horretarako Relax NG eskemen erabilpena errazten duen JavaScript liburutegia garatu da. Ondoren, LibiXaML liburutegiak bilaketarako erabiltzen dituen XPath-en sorkuntza automatizatzea, Relax NG eskematik abiatuz. Eta amaitzeko, analisi-sorkuntzako prototipoa hobetzea, hasieran sortutako liburutegia berrerabiliz eta Relax NG eskemak erabiliz.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Duración (en horas): Más de 50 horas. Destinatario: Estudiante

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Duración (en horas): Más de 50 horas. Destinatario: Estudiante

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Panel de Administración que ofrece una solución completa a la hora de realizar visores para mapas y que permite al cliente configurar un visor en base a sus necesidades, mediante diferentes módulos. Dicho panel, se ha realizado utilizando un desarrollo basado en el prototipado. En el caso de este proyecto, se especifica el desarrollo de los dos primeros prototipos. Los módulos desarrollados son los siguientes: Panel de login: Este panel permite el acceso a la aplicación. Módulo de usuarios/grupos: Este componente permite gestionar grupos y usuarios, tanto la creación, edición de los mismos como la visualización de estos. Módulo de datos: Este componente permite gestionar las fuentes de datos del cliente. Crear plantillas a partir de datos procedentes de BBDD propias, así como la edición de dichas plantillas. Módulo GeoAsset: Este componente permite configurar aplicaciones web o visores. Un visor tendrá asociado un mapa, una lista de control de accesos, etc. Siguiendo la estructura de módulos, también es objeto del proyecto la realización de un segundo prototipo que contiene la mejora de uno de los módulos ya creados: Mejora de módulo de datos: Este componente implementa además de las funcionalidades creadas en la anterior versión, una funcionalidad para permitir la subida de datos a la aplicación.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El desarrollo de este proyecto tiene como objetivo integrar en la plataforma Geoservicios información relacionada con el tráfico, obtenida del distribuidor TomTom. Para ello se creará un API en Java sobre dicha plataforma, en la cual se utilizarán y almacenarán los datos de tráfico obtenidos, para la visualización de la información en cualquier tipo de mapa. Junto con la visualización en tiempo real, también se desea guardar un histórico de toda esa información para su posterior análisis. Este servicio está pensado para poder integrarse en diferentes tipos de aplicaciones. La demostración se hará sobre un visor web de mapas, pero también se puede integrar en aplicaciones de escritorio o en aplicaciones para smartphones.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este Proyecto Fin de Carrera ha realizado el diseño y la implementación de la aplicación social Faborez, para la petición de favores instantáneos. El desarrollo se ha realizado en un marco de integración y colaboración directa de los usuarios en el proyecto, partiendo de un Minimum Viable Product inicial e integrando su feedback en la progresiva ampliación de las características del servicio. En implementación se han utilizado tecnologías emergentes, todas de código abierto: MongoDB y Redis para el almacenamiento de datos, Sails.js como plataforma base para el backend y desarrollando como clientes una aplicación web y otra Android nativa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

[EN]If a frog is placed in boiling water, it will jump out; but if it is placed in cold water that is slowly heated, it will not perceive the danger and will be cooked to death. Without de ability to observe changing environmental conditions, the frog can find itself boiled alive before realizing it is in trouble. This is known as the boiling frog syndrome. In the same manner, it is impossible to be competitive without knowing and being aware of the environmental changes. From here comes the necessity for the Technological Watch and Competitive Intelligence. The main goals of this project are to evaluate the current Technological Vigilance System of the IK4-Tekniker research center and to develop services that help in improving the system. For that purpose, first of all the Technological Vigilance is going to be placed in the business field and its origins are going to be explained. Following that, the Technological Vigilance system of IK4-Tekniker is going to be analyzed for its evaluation. Finally the creation of the services previously mentioned are going to be described in detail, showing the technologies and tools used for that purpose like the Responsive Web Design.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El estudio de las redes complejas atrae cada vez más el interés de muchos investigadores por muchas razones obvias. Muchos sistemas tanto reales como tecnológicos pueden representarse como redes complejas, es decir, un conjunto de entidades en interacción de acuerdo a propiedades topológicas no triviales. La interacción entre los elementos de la red puede describir comportamientos globales tales como el tráfico en Internet, el servicio de suministro de electricidad o la evolución de los mercados. Una de las propiedades topológicas de los grafos que caracterizan estos sistemas complejos es la estructura de comunidad. La detección de comunidades tiene como objetivo la identificación de los módulos o grupos con alguna o varias propiedades en común basándose únicamente en la información codificada en la topología del grafo. La detección de comunidades es importante no sólo para caracterizar el grafo, sino que además ofrece información sobre la formación de la red así como sobre su funcionalidad. El estudio de las leyes subyacentes que gobiernan la dinámica y evolución de los sistemas complejos y la caracterización de sus grafos revela que las redes a gran escala, generalmente, se caracterizan por topologías complejas y estructuras heterogéneas. La estructura de conectividad de estas redes se manifiesta por la presencia de comunidades (clusters o grupos), es decir, conjuntos de nodos que comparten propiedades comunes o juegan roles similares en la red. Las comunidades pueden representar relaciones de amistad en las redes sociales, páginas web con una temática similar, o rutas bioquímicas en las redes metabólicas. Formalmente, una red es un grafo compuesto por un gran número de nodos altamente interconectados donde una comunidad se resalta por la presencia de un gran número de aristas conectando nodos dentro de grupos individuales, pero con baja concentración de aristas entre estos grupos. El mejor modo para establecer la estructura de comunidad de una red compleja es un problema todavía sin resolver. Durante los últimos años, se han propuesto muchos algoritmos que persiguen extraer la partición óptima de una red en comunidades. El clustering espectral, los algoritmos de particionamiento de grafos, los métodos basados en la modularidad o los algoritmos basados en la sincronización son sólo algunos de estos algoritmos de extracción de comunidades. Los algoritmos dinámicos basados en la sincronización han sido estudiados por varios autores, y han demostrado que la monitorización del proceso dinámico de la sincronización permite revelar las diferentes escalas topologicas presentes en una red compleja. Muchos de estos algoritmos se basan en el modelo Kuramoto o en algunas de sus variantes como el modelo de opinión, donde cada oscilador aislado es modelado en un espacio unidimensional. El objetivo principal del presente proyecto es la implementación de un algoritmo de detección de comunidades basado en la sincronización de osciladores acoplados. Cada oscilador ha sido modelado mediante el sistema dinámico de Rossler, un sistema de ecuaciones diferenciales definido en un espacio tridimensional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El trabajo realizado en este proyecto se enmarca dentro del área de Procesamiento del Lenguaje Natural aplicado al ámbito de la medicina. Para este fin se han utilizado técnicas de minería de datos y aprendizaje automático. El objetivo principal de este proyecto es el desarrollo de un modelo capaz de automatizar la clasificación de textos clínicos según el estándar ICD-9- CM (codificación estándar utilizada por la red hospitalaria europea). Aunque existe una herramienta web (https://eciemaps.mspsi.es/ecieMaps/ browser/index_9_mc.html), que facilita la clasificación, este trabajo, hoy en día es realizado manualmente. Básicamente se trata de un diccionario online, de los términos del estándar. Basándonos en trabajos previos relacionados, se ha obtenido un baseline a partir del cual se ha construido el proyecto. En primer lugar, como en cualquier trabajo relacionado con los Sistemas de Apoyo a la Decisión (DSS) se ha estructurado el trabajo en dos módulos principales, el preproceso y la clasificación. En el módulo dedicado al preproceso, se tratan los datos para hacerlos comprensibles a los algoritmos de clasificación. En este primer módulo también se realiza una fase de adición de atributos que aporten información útil a la hora de la clasificación y una posterior selección de los mismos, por si alguno fuera redundante o irrelevante. En el segundo módulo dedicado a la clasificación, seleccionamos aquellos algoritmos que consideramos mejores, basándonos para ello, en otros trabajos previos que abordan un problema similar. Una vez seleccionados los algoritmos, se procede a realizar barridos de parámetros que optimicen su rendimiento. Finalmente, se ha realizado la experimentación con distintas técnicas de preprocesamiento de los datos y con los distintos algoritmos de clasificación automática. Esta última de experimentación tiene como objetivo, encontrar la combinación de métodos que optimice el rendimiento de ambos módulos, y por tanto de todo el sistema.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nivel educativo: Grado.Duración (en horas): De 41 a 50 horas.Destinatario: Estudiante

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nivel educativo: Grado. Duración (en horas): De 21 a 30 horas

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nivel educativo: Grado. Duración (en horas): Más de 50 horas

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The authors have been studying the control of phytoplankton biomass in several Australian reservoirs. To manipulate fish communities in order to reduce phytoplankton biomass, one needs a thorough understanding of processes in the plankton-associated food webs. In contrast to the situation found in lakes of the northern hemisphere, the planktivorous fish of Australian reservoirs are relatively small and they may deplete small rather than large zooplankters, so that animals as large as the adults of Daphnia carinata may avoid predation. This would result in promotion of Daphnia, particularly if fish eliminate its smaller competitors. The aim of biomanipulation should be the establishment and maintenance of a proper ratio of planktivores/piscivores, adequate for water quality requirements. Successful selection of the appropriate ratio for a given reservoir will depend on the extent of our understanding of its food web interactions. For practical application of biomanipulation in management, further development of the food web theory under Australian conditions is needed.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

[ES]El objetivo principal de este trabajo es el diseño y desarrollo de un sistema para la validación de las metodologías propuestas en el borrador de recomendación P.STMWeb [1] “Metodología para la evaluación subjetiva de la calidad percibida en la navegación web”. Como resultado de la validación realizada con el sistema han sido aprobadas las recomendaciones G.1031 [5] “Factores del QoE en web browsing” y P.1501 [6] “Metodología de prueba subjetiva para web browsing” de la ITU-T. El sistema propuesto se ha diseñado en base a las especificaciones marcadas en el borrador de la recomendación en vías de estandarización [P.STMWeb].Estas especificaciones han servido de base para el diseño e implementación de un sistema que permite una navegación web interactiva, con control y actualización de páginas web en base a variaciones de parámetros de red, como el retardo en un entorno controlado. Así mismo siguiendo la metodología establecida en el borrador de recomendación anteriormente mencionado se ha diseñado y desarrollado un sistema de encuestas para evaluar de forma subjetiva la calidad experimentada por los usuarios (QoE) en la navegación web. Para el diseño del sistema de encuestas, se analizaron y utilizaron como especificaciones los diferentes factores que se contemplan en el borrador de recomendación G.QoE-Web [2] “Factores relevantes y casos de uso para la QoE Web” de la ITU-T. En base al diseño realizado, se ha desarrollado un sistema que permite analizar la calidad experimentada por los usuarios en la navegación Web.