825 resultados para Computación Efímera


Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta memoria se describe el diseño y las pautas seguidas para la construcción de una aplicación móvil que permite la creación de grupos de personas para la gestión de los gastos, facturas y deudas comunitarias. Con un soporte Front-End en Android, un Back-End desarrollado en PHP y un almacenamiento de la información en una base de datos NoSQL, concretamente en MongoDB. El proyecto se ha realizado en grupo, separando los módulos Front-End y Back-End en dos proyectos distintos. En este proyecto desarrollamos el módulo Back-End. En él encontraremos el diseño para la construcción de la arquitectura REST y dar solución a la comunicación cliente y servidor de la aplicación. Además se ha añadido la componente PaaS (Platform as a Service) para acercar el desarrollo de este proyecto a un entorno de producción más real, afrontando así problemas reales. Al tratarse de un proyecto en equipo, el uso de metodologías ágiles cobra más importancia, por ello en este proyecto se ha hecho uso de la metodología Scrum.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este Trabajo de Fin de Grado (TFG) se engloba en la línea general Social CRM. Concretamente, está vinculado a un trabajo de investigación llamado “Knowledge discovery in social networks by using a logic-based treatment of implications” desarrollado por P. Cordero, M. Enciso, A. Mora, M. Ojeda-Aciego y C. Rossi en la Universidad de Málaga, en el cual se ofrecen nuevas soluciones para la identificación de influencias de los usuarios en las redes sociales mediante herramientas como el Analisis de Conceptos Formales (FCA). El TFG tiene como objetivo el desarrollo de una aplicación que permita al usuario crear una configuración minimal de usuarios en Twitter a los que seguir para conocer información sobre un número determinado de temas. Para ello, obtendremos información sobre dichos temas mediante la API REST pública que proporciona Twitter y procesaremos los datos mediante algoritmos basados en el Análisis de Conceptos Formales (FCA). Posteriormente, la interpretación de los resultados de dicho análisis nos proporcionará información útil sobre lo expuesto al principio. Así, el trabajo se ha dividido en tres partes fundamentales: 1. Obtención de información (fuentes) 2. Procesamiento de los datos 3. Análisis de resultados El sistema se ha implementado como una aplicación web Java EE 7, utilizando JSF para las interfaces. Para el desarrollo web se han utilizado tecnologías y frameworks como Javascript, JQuery, CSS3, Bootstrap, Twitter4J, etc. Además, se ha seguido una metodología incremental para el desarrollo del proyecto y se ha usado UML como herramienta de modelado. Este proyecto se presenta como un trabajo inicial en el que se expondrán, además del sistema implementado, diversos problemas reales y ejemplos que prueben su funcionamiento y muestren la utilidad práctica del mismo

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proceso de desarrollo de software define una secuencia de actividades que se aplican en la creación de un producto o aplicación de tipo software.Entre las actividades que se pueden realizar dentro del ciclo de vida del desarrollo software destacamos algunas como pueden ser la captura de requisitos, el análisis, el diseño, la implementación, las pruebas, la documentación, el despliegue o el mantenimiento. En este trabajo fin de grado se propone desarrollar una aplicación web desde sus primeras etapas hasta las últimas, indicando como aplica cada una de ellas al ejemplo de un proyecto real. Para nuestro caso,el desarrollo de software consistirá en la creación de una aplicación web para una clínica podológica, en la que vamos a tener un cliente, en este caso el propietario de la clínica, que demanda funcionalidades y que necesita que el software cumpla con sus necesidades. Dicha página Web servirá para promocionar los servicios de la clínica, mostrar una galería de fotos, tendrá un formulario de contacto, gran cantidad de páginas de información, un mapa de geo-­ localización para mostrar la ubicación, menús de navegación, mapa web, buscador y otras funcionalidades más típicas de cualquier página Web. Además, la aplicación deberá cumplir ciertos requisitos de usabilidad así como ser navegable en dispositivos móviles, responsivo. La creación de la aplicación se hará con el sistema gestor de contenidos Drupal, una herramienta muy utilizada actualmente para crear y gestionar aplicaciones Web y con la que podremos implementar todas las funcionalidades demandadas por nuestro cliente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aquesta presentació resumeix les tècniques computacionals existents que aborden l'estudi dels fenòmens naturals i prososa una aproximació basada en funcions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This article will address the main technical aspects that facilitate the use and growth of computer technology in the cloud, which go hand in hand with the emergence of more and better services on the Internet and technological development of the broadband. Finally, we know what is the impact that the cloud computing technologies in the automation of information units.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad, existen un gran número de investigaciones que usan técnicas de aprendizaje automático basadas en árboles de decisión. Como evolución de dichos trabajos, se han desarrollado métodos que usan Multiclasificadores (Random forest, Boosting, Bagging) que resuelven los mismos problemas abordados con árboles de decisión simples, aumentando el porcentaje de acierto. El ámbito de los problemas resueltos tradicionalmente por dichas técnicas es muy variado aunque destaca la bio-informática. En cualquier caso, la clasificación siempre puede ser consultada a un experto considerándose su respuesta como correcta. Existen problemas donde un experto en la materia no siempre acierta. Un ejemplo, pueden ser las quinielas (1X2). Donde podemos observar que un conocimiento del dominio del problema aumenta el porcentaje de aciertos, sin embargo, predecir un resultado erróneo es muy posible. El motivo es que el número de factores que influyen en un resultado es tan grande que, en muchas ocasiones, convierten la predicción en un acto de azar. En este trabajo pretendemos encontrar un multiclasificador basado en los clasificadores simples más estudiados como pueden ser el Perceptrón Multicapa o Árboles de Decisión con el porcentaje de aciertos más alto posible. Con tal fin, se van a estudiar e implementar una serie de configuraciones de clasificadores propios junto a multiclasificadores desarrollados por terceros. Otra línea de estudio son los propios datos, es decir, el conjunto de entrenamiento. Mediante un estudio del dominio del problema añadiremos nuevos atributos que enriquecen la información que disponemos de cada resultado intentando imitar el conocimiento en el que se basa un experto. Los desarrollos descritos se han realizado en R. Además, se ha realizado una aplicación que permite entrenar un multiclasificador (bien de los propios o bien de los desarrollados por terceros) y como resultado obtenemos la matriz de confusión junto al porcentaje de aciertos. En cuanto a resultados, obtenemos porcentajes de aciertos entre el 50% y el 55%. Por encima del azar y próximos a los resultados de los expertos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad, cualquier ámbito profesional cuenta con herramientas software especializadas que mejoran la productividad en la realización de tareas repetitivas o facilitan la ejecución de tareas críticas con un alto grado de especialización. Entre estos sistemas software especializados se encuentran las herramientas informáticas que sirven de apoyo a la toma de decisiones, a veces basadas en sistemas expertos, que pueden alcanzar un grado de eficiencia y exactitud incomparables con procesos de elaboración artesanal. En este proyecto se detalla la creación de un sistema de ayuda a la toma de decisión clínica para la elaboración de pautas vacunales aceleradas en personas que no se encuentran correctamente vacunadas según su calendario de vacunación. Esta herramienta se sirve de una serie de algoritmos, extraídos de conocimiento experto y encargados de calcular un calendario de vacunación acelerado a medida del paciente, según su edad, género y dosis previamente administradas. Estos algoritmos son totalmente configurables y pueden ser adaptados a cualquier tipo de calendario vacunal y vacunas que formen parte de él. La herramienta software desarrollada en este trabajo pretende dar servicios a dos tipos de usuario. Los usuarios con perfil enfermero podrán acceder a la herramienta para la elaboración de pautas de vacunación acelerada. Los usuarios con perfil administrador podrán definir para cada una de las vacunas dadas de alta en el sistema los algoritmos de pautas de vacunación aceleradas según la edad del paciente y las dosis previamente recibidas dentro de cada rango temporal. El objetivo principal del proyecto consiste en contribuir, mediante un software de ayuda a la toma de decisión, a reducir el índice de error humano en el diseño de pautas de corrección vacunales, suministrando para ello unas pautas exactas y adecuadas a las circunstancias del paciente y su historia vacunal previa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este trabajo es presentar unas bases de conocimiento sobre el denominado General Game Playing (GGP) analizando los conceptos relacionados con esta área que ha surgido recientemente, de forma que nuestro trabajo pueda ser usado como base en futuras investigaciones y tesis relacionadas con la materia. Para ello, se hará un estudio de los enfoques que se han empleado para abordar el problema y se profundizará en otras técnicas algorítmicas, tales como por ejemplo la de Montecarlo Tree Search y los algoritmos bio-inspirados que no se han empleado (o se han empleado poco) en este contexto. Adicionalmente, se realiza una propuesta de un agente autónomo (es decir, un resolutor del problema), implementando un algoritmo bio-inspirado mixto, dentro de la plataforma para la General Video Game Artificial Intelligence Competition (GVGAI), analizando sus resultados y extrayendo conclusiones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plague es un editor de archivos escritos en lenguajes de planificación como STRIPS y PDDL, que permite lanzar el algoritmo GrahPlan a partir de los archivos de dominio y problema editados y encontrar una solución al problema planteado. El objetivo del editor es eminentemente pedagógico: su uso es muy simple y viene con variados ejemplos de ambos lenguajes de planificación, de modo que el usuario pueda aprenderlos de forma paulatina. Además, la salida de la ejecución permite ir viendo paso a paso el desarrollo del algoritmo GraphPlan: los operadores que se van ejecutando, los no-ops que se han seguido, los mutex que se han aplicado en cada nivel y el tiempo empleado, además de la solución final al problema si se alcanza. El programa hace uso de dos utilidades que permiten compilar el código STRIPS o PDDL que son JavaGP y PDDL4J. Una vez ejecutado el problema de planificación, se obtiene la salida en pantalla y también se puede imprimir el problema completo incluida la solución. El objetivo ha sido crear un programa que permita al usuario editar rápidamente archivos STRIPS y PDDL, los pueda compilar velozmente y obtener el resultado en un solo sitio, con una salida mucho más clara, organizada y entendible y se evite el problema de tener que usar editores externos y una ventana de línea de comando para ejecutar GraphPlan. Plague is a text editor for files written in action languages, such as STRIPS and PDDL, which allows running the GraphPlan algorithm from the domain archives and edited problems, and finding a solution to the proposed problem. The goal of the editor is primarily for pedagogical purposes: it is simple to use and comes equipped with a variety of examples in both action languages, so that the user can gradually learn. In addition, as the editor runs it allows the user to observe the step by step development of the GraphPlan algorithm: the operators being executed, the no-ops that have been followed, the mutex applied at each level and the time spent, as well as the final answer to the problem, if reached. The program uses two utilities allowing the STRIPS or PDDL code to be compiled: JavaGP and PDDL4J. Once the planning problem has been executed, the result is shown on screen and the complete problem can also be printed, including the solution. The objective has been to create a program that allows the user to quickly edit STRIPS and PDDL archives, to compile them swiftly and obtain the solution in a single place, with a result that is clear, organised and understandable, thus avoiding the problem of having to use external editors and command prompts to execute GraphPlan.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work focuses in the formal and technical analysis of some aspects of a constructed language. As a first part of the work, a possible coding for the language will be studied, emphasizing the pre x coding, for which an extension of the Hu man algorithm from binary to n-ary will be implemented. Because of that in the language we can't know a priori the frequency of use of the words, a study will be done and several strategies will be proposed for an open words system, analyzing previously the existing number of words in current natural languages. As a possible upgrade of the coding, we'll take also a look to the synchronization loss problem, as well as to its solution: the self-synchronization, a t-codes study with the number of possible words for the language, as well as other alternatives. Finally, and from a less formal approach, several applications for the language have been developed: A voice synthesizer, a speech recognition system and a system font for the use of the language in text processors. For each of these applications, the process used for its construction, as well as the problems encountered and still to solve in each will be detailed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo consiste en la elaboración de un sistema multiagente capaz de realizar simulaciones de enfermedades epidémicas, en determinados entornos, que pueden ser creados por los usuarios del sistema, así como la población que los ocupa, donde cada humano es un agente Jade. El trabajo se compone a su vez de cuatro módulos principales: una aplicación web realizada JSF, una aplicación de escritorio implementada en Java, el propio sistema multiagente que realiza las simulaciones, desarrollado usando Java sobre el framework de Jade y un servidor web que contiene al sistema multiagente y a la aplicación web mencionados anteriormente.El sistema desarrollado permite una gran cantidad de configuraciones sobre todos los aspectos que pueden influir en la simulación de una epidemia, como por ejemplo, parámetros de los entornos (tamaño, nivel de desarrollo, población de riesgo, etc.), población (porcentaje de población activa, estudiante, etc.) y enfermedades, así como sobre la propia simulación, ajustando por ejemplo el número de días de la duración o la probabilidad de que una persona decida ir a trabajar si está enferma. Además de realizar simulaciones, el sistema permite almacenarlas y consultarlas posteriormente, pudiendo tanto reproducirlas de nuevo como consultar información estadística detallada sobre la misma, así como distintas gráficas que muestran la evolución de la epidemia a lo largo de la simulación.Para garantizar un funcionamiento óptimo del sistema, este se ha ajustado y probado mediante diversas pruebas de estrés que garantizan que el rendimiento del mismo durante la realización de simulaciones es adecuado. Todo esto conforma un sistema cuya finalidad es la obtención de datos que puedan ser útiles de cara al estudio de enfermedades infecciosas potencialmente epidémicas y permitan extraer conclusiones sobre las mismas, ayudando al mejor entendimiento de este tipo de enfermedades y su comportamiento en determinados entornos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This talk, which is based on our newest findings and experiences from research and industrial projects, addresses one of the most relevant challenges for a decade to come: How to integrate the Internet of Things with software, people, and processes, considering modern Cloud Computing and Elasticity principles. Elasticity is seen as one of the main characteristics of Cloud Computing today. Is elasticity simply scalability on steroids? This talk addresses the main principles of elasticity, presents a fresh look at this problem, and examines how to integrate people, software services, and things into one composite system, which can be modeled, programmed, and deployed on a large scale in an elastic way. This novel paradigm has major consequences on how we view, build, design, and deploy ultra-large scale distributed systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nowadays, new computers generation provides a high performance that enables to build computationally expensive computer vision applications applied to mobile robotics. Building a map of the environment is a common task of a robot and is an essential part to allow the robots to move through these environments. Traditionally, mobile robots used a combination of several sensors from different technologies. Lasers, sonars and contact sensors have been typically used in any mobile robotic architecture, however color cameras are an important sensor due to we want the robots to use the same information that humans to sense and move through the different environments. Color cameras are cheap and flexible but a lot of work need to be done to give robots enough visual understanding of the scenes. Computer vision algorithms are computational complex problems but nowadays robots have access to different and powerful architectures that can be used for mobile robotics purposes. The advent of low-cost RGB-D sensors like Microsoft Kinect which provide 3D colored point clouds at high frame rates made the computer vision even more relevant in the mobile robotics field. The combination of visual and 3D data allows the systems to use both computer vision and 3D processing and therefore to be aware of more details of the surrounding environment. The research described in this thesis was motivated by the need of scene mapping. Being aware of the surrounding environment is a key feature in many mobile robotics applications from simple robotic navigation to complex surveillance applications. In addition, the acquisition of a 3D model of the scenes is useful in many areas as video games scene modeling where well-known places are reconstructed and added to game systems or advertising where once you get the 3D model of one room the system can add furniture pieces using augmented reality techniques. In this thesis we perform an experimental study of the state-of-the-art registration methods to find which one fits better to our scene mapping purposes. Different methods are tested and analyzed on different scene distributions of visual and geometry appearance. In addition, this thesis proposes two methods for 3d data compression and representation of 3D maps. Our 3D representation proposal is based on the use of Growing Neural Gas (GNG) method. This Self-Organizing Maps (SOMs) has been successfully used for clustering, pattern recognition and topology representation of various kind of data. Until now, Self-Organizing Maps have been primarily computed offline and their application in 3D data has mainly focused on free noise models without considering time constraints. Self-organising neural models have the ability to provide a good representation of the input space. In particular, the Growing Neural Gas (GNG) is a suitable model because of its flexibility, rapid adaptation and excellent quality of representation. However, this type of learning is time consuming, specially for high-dimensional input data. Since real applications often work under time constraints, it is necessary to adapt the learning process in order to complete it in a predefined time. This thesis proposes a hardware implementation leveraging the computing power of modern GPUs which takes advantage of a new paradigm coined as General-Purpose Computing on Graphics Processing Units (GPGPU). Our proposed geometrical 3D compression method seeks to reduce the 3D information using plane detection as basic structure to compress the data. This is due to our target environments are man-made and therefore there are a lot of points that belong to a plane surface. Our proposed method is able to get good compression results in those man-made scenarios. The detected and compressed planes can be also used in other applications as surface reconstruction or plane-based registration algorithms. Finally, we have also demonstrated the goodness of the GPU technologies getting a high performance implementation of a CAD/CAM common technique called Virtual Digitizing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este Trabajo de Fin de Grado va enfocado al desarrollo de un sistema eficaz para gestionar los recursos que componen una Unidad de Rescate en Montaña (URM). Estos recursos son tanto los medios humanos como los materiales, los primeros son los rescatadores, los segundos el material especializado que se emplea en las maniobras de rescate. Mantener información actualizada del estado del material es básico para garantizar la seguridad de las intervenciones de este tipo de unidad. Además saber qué cantidad, tipo y ubicación de dicho material, es básico documentar el empleo de este facilita la trazabilidad de su uso cumpliendo la normativa vigente que regula el trabajo en altura. Como modelo de forma de trabajo de una URM se tomará la perteneciente al Consorcio Provincial de Bomberos de Málaga (CPB Málaga). El sistema desarrollado es una aplicación web que bajo entorno Java Enterprise Edition (Java 2EE) que se ejecutará en un servidor Apache Tomcat y empleará una base de datos en MySql para almacenar la información, de esta forma se facilita el acceso distribuido de la gestión a los diferentes usuarios y el mantenimiento del sistema al estar todo centralizado, además de las ventajas que da un sistema desarrollado en Java que puede ser desplegado con independencia del sistema operativo empleado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una Visión de las Ciencias Básicas (Modelación y Formación aplicadas a casos reales) pretende ilustrar el impacto del modelado y la computación sobre la enseñanza, la investigación y la forma de analizar los fenómenos científicos. En esta obra se muestra como, a partir de estas herramientas, se pueden lograr soluciones a problemas en casos reales en las áreas de Sismología, Imágenes Médicas, Astrofísica, Tratamiento de aguas residuales y en Enseñanza de las Matemáticas. Este libro es producto de investigaciones realizadas por los grupos de Investigación del Departamento de Ciencias Básicas de la Universidad de Medellín: Educación Matemática (SUMMA), Modelación y Computación Científica, Materiales Nano Estructurados y Biomodelación y Ciencias de la Tierra y el Espacio. Los resultados, presentados en este libro, fueron socializados en las X Jornadas de Investigación de la Universidad de Medellín, realizadas en Septiembre de 2012.