42 resultados para INGENIERÍA DEL TRANSPORTE
Resumo:
El trabajo de fin de grado consiste en realizar una aplicación móvil basada en Android [7]. Para calcular la ruta más sombreada desde un punto de origen a un punto de destino. Dicha aplicación móvil realizará peticiones a un servidor que estará ejecutando un programa que realizará el cálculo de rutas conforme a los parámetros que elegirá el usuario desde su móvil. Estos parámetros pueden ser: la hora de partida, la fecha y la importancia de la sombra a la hora de calcular la ruta. Siempre podremos elegir entre una ruta más corta o una más sombreada, según la importancia que le quiera dar el usuario. La lógica de la aplicación del lado del servidor que realiza el cálculo está basada en Open- TripPlanner, el cual usa algoritmos de búsqueda para encontrar el camino más corto. Sirviéndonos de dicho algoritmo realizaremos las modificaciones e implementaciones necesarias para calcular la ruta más sombreada.
Resumo:
Este Trabajo Fin de Grado aborda la especificación para el desarrollo de un sistema de comercialización orientado al sector Servicios que trabaje en tiempo real y que se fundamente en poner en contacto la oferta y la demanda. De esta forma, cuando un cliente requiera un servicio se activa como demandante y los proveedores de ese servicio reciben esa petición y pueden enviarle una oferta. El proyecto consta de una primera parte de introducción y descripción de las herramientas empleadas, para luego pasar a la metodología. La planificación especifica los requisitos del sistema que serán estudiados con más profundidad posteriormente en el estudio de viabilidad. Para el diseño y el análisis del sistema nos centramos en la definición de los casos de uso y las clases que se van a emplear durante el desarrollo. Por último se describe un prototipo que define las interfaces con las que se comunicarán los usuarios de la aplicación. Se describen en la parte final unas conclusiones y los posibles avances futuros del proyecto.
Resumo:
El presente trabajo consiste en elaborar un sistema que permita simular epidemias en un entorno a través de agentes que representan a los habitantes del entorno simulado. El trabajo consta de cuatro partes: una aplicación web realizada en JSF, una aplicación de escritorio realizado en Java, un sistema multiagente, que se encarga de realizar la simulación, realizado en Java junto al framework JADE y un servidor web que contiene la aplicación web y el sistema multiagente. La simulación, el entorno y la enfermedad pueden ser configuradas, por parte del usuario, con distintos parámetros necesarios para la realización de la simulación. Una vez realizada la simulación, ésta puede ser visualizada a través de una animación y/o a través de un gráfico que representa la evolución de la simulación. Con el fin de que el sistema tuviera un funcionamiento óptimo, se han desarrollado pruebas de estrés aumentando el número de días y de personas para poder comprobar la solidez del sistema y así realizar mejoras si es necesario. Todo esto conforma un sistema cuya finalidad es obtener unos datos a partir de los cuales se pueden realizar distintos estudios y sacar conclusiones a partir de ellos, ayudando a investigar cómo se comporta una epidemia en unas determinadas condiciones y también distintas formas de poder combatirlas
Resumo:
Este trabajo de fin de grado tiene como objetivo realizar un sistema multiagente para simular el desarrollo de las enfermedades epidemiológicas en un entorno concreto. Para ello se plantea hacer un servidor que haga una simulación, especificándole diversos parámetros del entorno, de la enfermedad y otros propios de la simulación. Estos parámetros se pueden especificar desde una aplicación web y desde una aplicación de escritorio. También se podrá visualizar esta simulación desde las dos aplicaciones, una vez que la simulación haya finalizado. Se decide estructurar el sistema de esta forma para dejar la mayor parte del cómputo en manos del servidor. El software se desarrolla íntegramente en Java, haciendo así que sea multiplataforma. Para el desarrollo de este proyecto se ha investigado sobre la programación orientada a agentes y sobre los distintos modelos de epidemias existentes. Este es un proyecto grupal, formado por dos compañeros y yo. Ha sido un arduo trabajo de análisis, diseño, implementación y prueba del software por parte de todos. Para facilitar todo este proceso, la sincronización y el reparto de tareas se sigue una metodología de desarrollo ágil.
Resumo:
Drag & Drop es una aplicación web diseñada para la creación de problemas a partir de piezas, en la que al profesor se le plantea una nueva posibilidad de evaluar a sus alumnos. La aplicación web servirá como un entorno dedicado a la elaboración de preguntas y respuestas. Para responder a dichas preguntas, se proporcionan unos elementos llamados “piezas” al alumno que se encargará de utilizar para construir su respuesta. A su vez, el profesor al elaborar la pregunta establecerá la solución ideal del problema y el conjunto de “piezas” que los alumnos podrán utilizar para crear las suyas propias. El alumno al terminar la solución de un problema, la enviará al servidor. Este se encargará de evaluarla y comparar la solución del alumno con la solución ideal propuesta por el profesor. Finalmente el profesor será el encargado de examinar el ejercicio y ajustar la calificación, ya sea aceptando la que propone el sistema o indicando una propia.
Resumo:
Coincidiendo con el planteamiento inicial de esta tesis y la entonces reciente aparición del decreto 357/2010, de 3 de agosto de la Junta de Andalucía por el que se aprueba el reglamento de la calidad del cielo nocturno frente a la contaminación lumínica y el establecimiento de medidas de ahorro y eficiencia energética, se estaban produciendo cambios sustanciales tanto en lo referente a normativas y requerimientos técnicos para su aplicación como en lo referente a tecnologías de alumbrado e instrumentación. Así, en la "Guía técnica de adaptación de las instalaciones de alumbrado exterior al decreto 357/2010", editada por la Junta de Andalucía, en lo referente a la instrumentación utilizable para las mediciones necesarias, se menciona: "Nuevas tendencias en medidas de niveles: La fotografía digital apunta como la nueva metodología de medición lumínica. Se aplica ya en casos específicos, pero los equipos y procesos son aún muy complejos y costosos. Se trabaja ya en el desarrollo de equipos y metodologías aplicables a la gestión práctica de instalaciones." El estudio y desarrollo de equipos y metodologías aplicables a la gestión práctica de instalaciones y, en particular, en lo concerniente a equipos de medición lumínica orientados a tales fines se convirtió así en uno de los principales motivos y objetivos de esta tesis. Esta tesis se realiza en las líneas de trabajo sobre la contaminación lumínica del Área de Proyectos de Ingeniería del Departamento de Expresión Gráfica, Diseño y Proyectos y en las líneas de trabajo sobre instrumentación y adquisición de datos del Departamento y Área de Tecnología Electrónica lo que supuso así una base idónea para la propuesta de este proyecto de tesis. Resultó así mismo motivadora, a modo de ejemplo, la consideración 9 que hace el Reglamento (CE) Nº 245/2009 de la Comisión de 18 de marzo de 2009 por el que se aplica la Directiva 2005/32/CE del Parlamento Europeo y del Consejo: "(9) A falta de métodos científicos consensuados internacionalmente para la medición de su impacto medioambiental, no ha podido evaluarse la importancia de la denominada «contaminación lumínica»." Esta afirmación deja claro que, en los momentos del comienzo de esta tesis, la contaminación lumínica no había alcanzado aún un consenso internacional en lo relativo a los métodos científicos para su medición y evaluación. Consecuentemente, esta tesis se planteó así mismo contribuir, en la medida de sus posibilidades, en la obtención de métodos científicos para la medición y evaluación de la contaminación lumínica. Uno de los primeros aspectos que se constataron fue que la contaminación lumínica estaba siendo contemplada, inicialmente, por el contexto astronómico, uno de los afectados por la misma, y la mayoría de los trabajos, primeras normativas y propuestas se encontraban en este contexto. El entorno urbano no sólo también está afectado sino que, además, es la principal causa que la provoca. Consecuentemente en esta tesis se plantean objetivos que se pueden resumir en implicarse y participar en el estudio de la medición y evaluación de la contaminación lumínica en el entorno urbano así como estudiar y proponer herramientas o alternativas a la escasa instrumentación actualmente en uso. En este sentido se desarrollan los siguientes puntos: * Estudio de la contaminación lumínica, su evolución histórica a través de la normativa que la regula y revisión de las principales organizaciones y proyectos relevantes (estado del arte). * Estudio de la instrumentación utilizada para su medición y evaluación y propuesta de la utilización de cámaras fotográficas comerciales para ello, incluyendo aportación de propuesta de método de calibración y desarrollo de herramienta basada en la propuesta. * Estudios y mediciones de casos prácticos como mediciones con SQM (Sky Quality Meter, un instrumento muy utilizado en contexto astronómico) o aplicación de la propuesta a la medición y evaluación de anuncios y señales luminosas, habiéndose publicado un artículo al respecto en revista referenciada en el JCR. Las conclusiones extraídas de la tesis se pueden resumir en: * Se ha validado una propuesta de calibración de máquina fotográfica digital comercial para su uso en la evaluación y medición de la contaminación lumínica . Se ha diseñado una herramienta basada en esta propuesta. * Los parámetros actualmente utilizados en la definición y consecuente medición y evaluación de la contaminación lumínica no son adecuados. * La contaminación lumínica no es un concepto que pueda ser medido con una única unidad de medida y requiere de una especificación multiparamétrica que contemple diversos aspectos y consideraciones. * La cámara fotográfica digital se postula como una herramienta útil y válida para su utilización como dispositivo de medida. * La normativa relativa a la contaminación lumínica, en particular en lo relativo al contexto urbano, debe revisarse para incluir aspectos más allá de la eficiencia energética, así como contemplar instrumentación más eficiente y válida que el luxómetro y el luminancímetro, que actualmente predominan.
Resumo:
R.TeMiS (R Text MIning Solution) (Bouchet-Valat & Bastin, 2013) es un paquete de R (RcmdrPlugin.temis) (Bouchet-Valat, 2016), concebido como plugin de R Commander, que permite analizar, manipular y crear corpus de textos (Garnier, 2014). La arquitectura estadística de RTemis corre a cargo del paquete tm desarrollado por Ingo Feinerer (Feinerer, 2008 ; 2011 ; Feinerer, Hornik y Meyer, 2008). R.TeMiS se ha completado con otros paquetes clásicos de R, como el paquete para la representación de los análisis factoriales de correspondencias de Nenadic y Greenacre (2007). También se han desarrollado paquetes específicos para facilitar el uso de R.TeMiS en los estudios de prensa, por ejemplo para la gestión de los corpus de artículos de prensa de la base de datos Factiva. R.TeMiS se presenta como un plugin de R Commander, desarrollado por Fox (2005), lo cual facilita su utilización para los no usuarios de R.
Resumo:
Las líneas de productos software son familias de productos que están íntimamente relacionados entre sí, normalmente formados por combinaciones de un conjunto de características software. Generalmente no es factible testar todos los productos de la familia, ya que el número de productos es muy elevado debido a la explosión combinatoria de características. Por este motivo, se han propuesto criterios de cobertura que pretenden probar al menos todas las interacciones entre características sin necesidad de probar todos los productos, por ejemplo todos los pares de características (emph{pairwise coverage}). Además, es deseable testar primero los productos compuestos por un conjunto de características prioritarias. Este problema es conocido como emph{Prioritized Pairwise Test Data Generation}. En este trabajo proponemos una técnica basada en programación lineal entera para generar este conjunto de pruebas priorizado. Nuestro estudio revela que la propuesta basada en programación lineal entera consigue mejores resultados estadísticamente tanto en calidad como en tiempo de computación con respecto a las técnicas existentes para este problema.
Resumo:
El problema de selección de requisitos (o Next Release Problem, NRP) consiste en seleccionar el subconjunto de requisitos que se va a desarrollar en la siguiente versión de una aplicación software. Esta selección se debe hacer de tal forma que maximice la satisfacción de las partes interesadas a la vez que se minimiza el esfuerzo empleado en el desarrollo y se cumplen un conjunto de restricciones. Trabajos recientes han abordado la formulación bi-objetivo de este problema usando técnicas exactas basadas en resolutores SAT y resolutores de programación lineal entera. Ambos se enfrentan a dificultades cuando las instancias tienen un gran tamaño, sin embargo la programación lineal entera (ILP) parece ser más efectiva que los resolutores SAT. En la práctica, no es necesario calcular todas las soluciones del frente de Pareto (que pueden llegar a ser muchas) y basta con obtener un buen número de soluciones eficientes bien distribuidas en el espacio objetivo. Las estrategias de búsqueda basadas en ILP que se han utilizado en el pasado para encontrar un frente bien distribuido en cualquier instante de tiempo solo buscan soluciones soportadas. En este trabajo proponemos dos estrategias basadas en ILP que son capaces de encontrar el frente completo con suficiente tiempo y que, además, tienen la propiedad de aportar un conjunto de soluciones bien distribuido en el frente objetivo en cualquier momento de la búsqueda.
Resumo:
Performance and scalability of model transformations are becoming prominent topics in Model-Driven Engineering. In previous works we introduced LinTra, a platform for executing model transformations in parallel. LinTra is based on the Linda model of a coordination language and is intended to be used as a middleware where high-level model transformation languages are compiled. In this paper we present the initial results of our analyses on the scalability of out-place model-to-model transformation executions in LinTra when the models and the processing elements are distributed over a set of machines.
Resumo:
Generating sample models for testing a model transformation is no easy task. This paper explores the use of classifying terms and stratified sampling for developing richer test cases for model transformations. Classifying terms are used to define the equivalence classes that characterize the relevant subgroups for the test cases. From each equivalence class of object models, several representative models are chosen depending on the required sample size. We compare our results with test suites developed using random sampling, and conclude that by using an ordered and stratified approach the coverage and effectiveness of the test suite can be significantly improved.
Resumo:
La Analítica Web supone hoy en día una tarea ineludible para las empresas de comercio electrónico, ya que les permite analizar el comportamiento de sus clientes. El proyecto Europeo SME-Ecompass tiene como objetivo desarrollar herramientas avanzadas de analítica web accesibles para las PYMES. Con esta motivación, proponemos un servicio de integración de datos basado en ontologías para recopilar, integrar y almacenar información de traza web procedente de distintas fuentes.Estas se consolidan en un repositorio RDF diseñado para proporcionar semántica común a los datos de análisis y dar servicio homogéneo a algoritmos de Minería de Datos. El servicio propuesto se ha validado mediante traza digital real (Google Analitics y Piwik) de 15 tiendas virtuales de diferentes sectores y países europeos (UK, España, Grecia y Alemania) durante varios meses de actividad.