58 resultados para Computación Efímera
Resumo:
Este trabajo fin de grado trata sobre la implementación de un simulador cinemático de un robot manipulador industrial, orientado al aprendizaje de los principios de programación y desarrollado mediante la herramienta de software matemático MATLAB, dicho simulador debe tener como características principales ser capaz de emular las características de programación que incorporan los lenguajes a nivel robot y resultar fácilmente accesible a los alumnos de las ingenierías. Asimismo, el simulador tendrá la capacidad de definir los objetos que integran el entorno físico que rodean al robot con el objeto de simular la interacción cinemática del brazo manipulador con dicho entorno. Para ello, primero se realizará un estudio de los lenguajes de nivel robot, en este caso concreto V+, con el objeto de elaborar un catálogo de funciones y estructuras relevantes, concretamente se trataran las estructuras de datos, funciones del robot, etc. A partir de estos, se elaborarán las especificaciones que debe cumplir el simulador cinemático. Por último se realizarán unas prácticas sobre el simulador orientadas al aprendizaje y elaboración de los manuales de usuario del mismo.
Resumo:
Este Trabajo Fin de Grado aborda la especificación para el desarrollo de un sistema de comercialización orientado al sector Servicios que trabaje en tiempo real y que se fundamente en poner en contacto la oferta y la demanda. De esta forma, cuando un cliente requiera un servicio se activa como demandante y los proveedores de ese servicio reciben esa petición y pueden enviarle una oferta. El proyecto consta de una primera parte de introducción y descripción de las herramientas empleadas, para luego pasar a la metodología. La planificación especifica los requisitos del sistema que serán estudiados con más profundidad posteriormente en el estudio de viabilidad. Para el diseño y el análisis del sistema nos centramos en la definición de los casos de uso y las clases que se van a emplear durante el desarrollo. Por último se describe un prototipo que define las interfaces con las que se comunicarán los usuarios de la aplicación. Se describen en la parte final unas conclusiones y los posibles avances futuros del proyecto.
Resumo:
Los electrocardiogramas (ECG) registran la actividad eléctrica del corazón a través de doce señales principales denominadas derivaciones. Estas derivaciones son analizadas por expertos médicos observando aquellos segmentos de la señal eléctrica que determinan cada una de las patologías que pueden afectar al corazón. Este hecho en general, es un condicionante muy importante para el diseño de sistemas expertos de diagnóstico médico, ya que es preciso conocer, delimitar y extraer de la señal eléctrica aquellos segmentos que determinan la patología. Dar solución a estos problemas, sería fundamental para facilitar el diseño de sistemas expertos para el diagnóstico de enfermedades cardiacas. El objetivo de este trabajo es demostrar que es posible identificar patologías cardiacas analizando la señal completa de las diferentes derivaciones de los ECGs, y determinar puntos concretos que determinan la patología en lugar de segmentos de la señal. Para ello se ha utilizado una BBDD de electrocardiogramas y se ha determinado mediante un algoritmo, los puntos de la señal que determinan la patología. Se ha aplicado a la patología de bloqueos de rama y los puntos obtenidos con el algoritmo se han utilizado para el diseño de un clasificador automático basado en redes neuronales artificiales, obteniendo un coeficiente de sensibilidad del 100% y de especificad del 99.24%, demostrando su validez para el diseño de sistemas expertos de clasificación.
Resumo:
El presente trabajo consiste en elaborar un sistema que permita simular epidemias en un entorno a través de agentes que representan a los habitantes del entorno simulado. El trabajo consta de cuatro partes: una aplicación web realizada en JSF, una aplicación de escritorio realizado en Java, un sistema multiagente, que se encarga de realizar la simulación, realizado en Java junto al framework JADE y un servidor web que contiene la aplicación web y el sistema multiagente. La simulación, el entorno y la enfermedad pueden ser configuradas, por parte del usuario, con distintos parámetros necesarios para la realización de la simulación. Una vez realizada la simulación, ésta puede ser visualizada a través de una animación y/o a través de un gráfico que representa la evolución de la simulación. Con el fin de que el sistema tuviera un funcionamiento óptimo, se han desarrollado pruebas de estrés aumentando el número de días y de personas para poder comprobar la solidez del sistema y así realizar mejoras si es necesario. Todo esto conforma un sistema cuya finalidad es obtener unos datos a partir de los cuales se pueden realizar distintos estudios y sacar conclusiones a partir de ellos, ayudando a investigar cómo se comporta una epidemia en unas determinadas condiciones y también distintas formas de poder combatirlas
Resumo:
Este trabajo de fin de grado tiene como objetivo realizar un sistema multiagente para simular el desarrollo de las enfermedades epidemiológicas en un entorno concreto. Para ello se plantea hacer un servidor que haga una simulación, especificándole diversos parámetros del entorno, de la enfermedad y otros propios de la simulación. Estos parámetros se pueden especificar desde una aplicación web y desde una aplicación de escritorio. También se podrá visualizar esta simulación desde las dos aplicaciones, una vez que la simulación haya finalizado. Se decide estructurar el sistema de esta forma para dejar la mayor parte del cómputo en manos del servidor. El software se desarrolla íntegramente en Java, haciendo así que sea multiplataforma. Para el desarrollo de este proyecto se ha investigado sobre la programación orientada a agentes y sobre los distintos modelos de epidemias existentes. Este es un proyecto grupal, formado por dos compañeros y yo. Ha sido un arduo trabajo de análisis, diseño, implementación y prueba del software por parte de todos. Para facilitar todo este proceso, la sincronización y el reparto de tareas se sigue una metodología de desarrollo ágil.
Resumo:
Drag & Drop es una aplicación web diseñada para la creación de problemas a partir de piezas, en la que al profesor se le plantea una nueva posibilidad de evaluar a sus alumnos. La aplicación web servirá como un entorno dedicado a la elaboración de preguntas y respuestas. Para responder a dichas preguntas, se proporcionan unos elementos llamados “piezas” al alumno que se encargará de utilizar para construir su respuesta. A su vez, el profesor al elaborar la pregunta establecerá la solución ideal del problema y el conjunto de “piezas” que los alumnos podrán utilizar para crear las suyas propias. El alumno al terminar la solución de un problema, la enviará al servidor. Este se encargará de evaluarla y comparar la solución del alumno con la solución ideal propuesta por el profesor. Finalmente el profesor será el encargado de examinar el ejercicio y ajustar la calificación, ya sea aceptando la que propone el sistema o indicando una propia.
Resumo:
Hardware vendors make an important effort creating low-power CPUs that keep battery duration and durability above acceptable levels. In order to achieve this goal and provide good performance-energy for a wide variety of applications, ARM designed the big.LITTLE architecture. This heterogeneous multi-core architecture features two different types of cores: big cores oriented to performance and little cores, slower and aimed to save energy consumption. As all the cores have access to the same memory, multi-threaded applications must resort to some mutual exclusion mechanism to coordinate the access to shared data by the concurrent threads. Transactional Memory (TM) represents an optimistic approach for shared-memory synchronization. To take full advantage of the features offered by software TM, but also benefit from the characteristics of the heterogeneous big.LITTLE architectures, our focus is to propose TM solutions that take into account the power/performance requirements of the application and what it is offered by the architecture. In order to understand the current state-of-the-art and obtain useful information for future power-aware software TM solutions, we have performed an analysis of a popular TM library running on top of an ARM big.LITTLE processor. Experiments show, in general, better scalability for the LITTLE cores for most of the applications except for one, which requires the computing performance that the big cores offer.
Resumo:
Las líneas de productos software son familias de productos que están íntimamente relacionados entre sí, normalmente formados por combinaciones de un conjunto de características software. Generalmente no es factible testar todos los productos de la familia, ya que el número de productos es muy elevado debido a la explosión combinatoria de características. Por este motivo, se han propuesto criterios de cobertura que pretenden probar al menos todas las interacciones entre características sin necesidad de probar todos los productos, por ejemplo todos los pares de características (emph{pairwise coverage}). Además, es deseable testar primero los productos compuestos por un conjunto de características prioritarias. Este problema es conocido como emph{Prioritized Pairwise Test Data Generation}. En este trabajo proponemos una técnica basada en programación lineal entera para generar este conjunto de pruebas priorizado. Nuestro estudio revela que la propuesta basada en programación lineal entera consigue mejores resultados estadísticamente tanto en calidad como en tiempo de computación con respecto a las técnicas existentes para este problema.
Resumo:
La memoria transaccional (TM) constituye un paradigma de concurrencia optimista en arquitecturas multinúcleo que puede ser de utilidad en la explotación de paralelismo en aplicaciones irregulares, en las que la información sobre las dependencias de datos no está disponible hasta la ejecución. Este trabajo presenta y discute cómo aprovechar las características de un sistema STM (software transactio- nal memory) en patrones de computación que involucren operaciones de reducción, ligadas frecuentemente a aplicaciones irregulares. Con el fin de comparar el uso de enfoques STM en esta clase de patrones con otras soluciones más clásicas, se ha implementa do como prueba de concepto un sistema STM, que denominaremos ReduxSTM, que combina dos ideas: una consolidación (commit) ordenada de las transacciones, que asegura una equivalencia con la ejecución secuencial del código; y una extensión del mecanismo de privatización subyacente al sistema STM que contempla las operaciones de reducción.
Resumo:
En el ámbito de las estructuras ordenadas, Ø. Ore introdujo en 1944 el concepto de conexión de Galois como un par de funciones antítonas entre dos conjuntos parcialmente ordenados, generalizando así la teoría de polaridades entre retículos completos. Este concepto supone una generalización de la correspondencia subgrupo-subcuerpo que se describe en el clásico Teorema Fundamental de la Teoría de Galois, de ahí el origen del término. Años más tarde, J. Schmidt mantuvo la terminología de conexión de Galois, pero cambió las funciones antítonas por funciones isótonas, lo cual favoreció la aplicabilidad de este concepto a Computación. El término adjunción fue introducido en 1958 por D. M. Kan. Originalmente fueron definidas en un contexto categórico y tal vez debido a esto, pueden encontrarse gran cantidad de ejemplos de adjunciones en varias áreas de investigación, que van desde las más teóricas a las más aplicadas. En 1965, Lotfi Zadeh introduce la Teoría de Conjuntos Difusos. En su trabajo se aborda definitivamente el problema del modelado matemático de la ambigüedad, con la definición de conjunto difuso X en un universo U como una aplicación X: U→ [0,1] que asocia a cada elemento u del conjunto U un valor del intervalo real [0,1] y donde X(u) representa el grado de pertenencia de u al conjunto difuso X. El término conexión de Galois difusa fue introducido por R. Belohlávek como un par de aplicaciones definidas entre los conjuntos de conjuntos difusos definidos sobre dos universos. Desde entonces, en el ámbito de la lógica difusa, se pueden encontrar numerosos artículos en los cuales se estudian las conexiones de Galois difusas desde un punto de vista algebraico y abstracto. El objetivo principal de este trabajo es estudiar y caracterizar, a partir de una aplicación f: A→ B desde un conjunto A dotado con una determinada estructura hasta un conjunto B no necesariamente dotado de estructura, las situaciones en las cuales se pueda definir una estructura en B similar a la de A, de forma que además se pueda construir una aplicación g: B→ A tal que el par (f,g) sea una adjunción (conexión de Galois isótona). Se considera el conjunto A dotado con un orden parcial y se realiza la descomposición canónica de la función f a través del conjunto cociente de A con respecto a la relación núcleo. Partiendo del problema inicial de deducir las condiciones necesarias y suficientes para la existencia de un orden parcial en B y para la definición de un adjunto por la derecha de f, con esta descomposición canónica se pretende dividir la cuestión en tres problemas más simples, a saber, la construcción de un orden en el codominio y un adjunto por la derecha para cada una de las aplicaciones que forman parte de la citada descomposición. Esto resuelve la cuestión planteada para el caso de funciones que son sobreyectivas. Para el caso general, es necesario analizar previamente cómo extender una relación de preorden definida sobre un subconjunto de un conjunto dado a dicho conjunto, así como la definición de un adjunto por la derecha para la inclusión natural del subconjunto dentro del conjunto. Se continua la investigación considerando el conjunto A dotado con un preorden, en este caso la ausencia de la propiedad antisimétrica hace necesario utilizar la denominada relación p-núcleo, que es el cierre transitivo de la unión de la relación núcleo y la relación de equivalencia núcleo simétrico. Asimismo, el hecho de que no se tenga unicidad para el máximo o el mínimo de un subconjunto, conduce a trabajar con relaciones definidas en el conjunto de partes de un conjunto (concretamente, con el preorden de Hoare). Todo ello hace aumentar la dificultad en la búsqueda de las condiciones necesarias y suficientes para la existencia de una relación de preorden en el codominio y la existencia de un adjunto por la derecha. Se finaliza esta sección con el análisis de la unicidad del adjunto por la derecha y del orden parcial (preorden) definido sobre el codominio. Después del estudio anterior, se introducen los denominados operadores y sistemas de ≈-cierre en conjuntos preordenados y se analiza la relación existente entre ambos (que deja de ser biunívoca, como sucede en el caso de órdenes parciales). Se trabaja con la noción de compatibilidad respecto a una relación de equivalencia y se caracteriza la construcción de adjunciones entre conjuntos preordenados en términos de la existencia de un sistema de ≈-cierre compatible con la relación núcleo. En una segunda parte de la tesis, se aportan las definiciones de las nociones de adjunción difusa, co-adjunción difusa y conexiones de Galois difusas por la derecha y por la izquierda entre conjuntos con preórdenes difusos. Además se presentan las distintas caracterizaciones de los conceptos anteriormente señalados, así como las relaciones entre ellos. Se aborda la construcción de adjunciones entre conjuntos con órdenes difusos, utilizando de nuevo la relación núcleo, en su versión difusa, y la descomposición canónica de la función de partida respecto a ella. El teorema principal de esta sección recoge una caracterización para la definición de una relación difusa de orden sobre el codominio B y un adjunto por la derecha para f:(A, ρA) → B donde (A, ρA) es un conjunto con un orden difuso. El estudio del problema anterior entre conjuntos con preórdenes difusos, hace necesario trabajar con la relación difusa denominada p-núcleo. También es preciso definir un preorden difuso en el conjunto de partes de un conjunto para describir las condiciones bajo las que es posible la construcción de una adjunción. Se finaliza proponiendo la definición de sistema de cierre en un conjunto con un preorden difuso y algunas caracterizaciones más manejables. También se trabaja con los operadores de cierre definidos en un conjunto con un preorden difuso y se analiza la relación con los sistemas de cierre. Todo ello encaminado a caracterizar la construcción de un adjunto por la derecha y un preorden difuso sobre el codominio B de una de una aplicación f:(A, ρA) → B, donde ρA es un preorden difuso sobre A.
Resumo:
The diversity in the way cloud providers o↵er their services, give their SLAs, present their QoS, or support di↵erent technologies, makes very difficult the portability and interoperability of cloud applications, and favours the well-known vendor lock-in problem. We propose a model to describe cloud applications and the required resources in an agnostic, and providers- and resources-independent way, in which individual application modules, and entire applications, may be re-deployed using different services without modification. To support this model, and after the proposal of a variety of cross-cloud application management tools by different authors, we propose going one step further in the unification of cloud services with a management approach in which IaaS and PaaS services are integrated into a unified interface. We provide support for deploying applications whose components are distributed on different cloud providers, indistinctly using IaaS and PaaS services.