35 resultados para Algoritmos computacionais
Resumo:
290 p.
Resumo:
190 p.
Resumo:
El estudio de las redes complejas atrae cada vez más el interés de muchos investigadores por muchas razones obvias. Muchos sistemas tanto reales como tecnológicos pueden representarse como redes complejas, es decir, un conjunto de entidades en interacción de acuerdo a propiedades topológicas no triviales. La interacción entre los elementos de la red puede describir comportamientos globales tales como el tráfico en Internet, el servicio de suministro de electricidad o la evolución de los mercados. Una de las propiedades topológicas de los grafos que caracterizan estos sistemas complejos es la estructura de comunidad. La detección de comunidades tiene como objetivo la identificación de los módulos o grupos con alguna o varias propiedades en común basándose únicamente en la información codificada en la topología del grafo. La detección de comunidades es importante no sólo para caracterizar el grafo, sino que además ofrece información sobre la formación de la red así como sobre su funcionalidad. El estudio de las leyes subyacentes que gobiernan la dinámica y evolución de los sistemas complejos y la caracterización de sus grafos revela que las redes a gran escala, generalmente, se caracterizan por topologías complejas y estructuras heterogéneas. La estructura de conectividad de estas redes se manifiesta por la presencia de comunidades (clusters o grupos), es decir, conjuntos de nodos que comparten propiedades comunes o juegan roles similares en la red. Las comunidades pueden representar relaciones de amistad en las redes sociales, páginas web con una temática similar, o rutas bioquímicas en las redes metabólicas. Formalmente, una red es un grafo compuesto por un gran número de nodos altamente interconectados donde una comunidad se resalta por la presencia de un gran número de aristas conectando nodos dentro de grupos individuales, pero con baja concentración de aristas entre estos grupos. El mejor modo para establecer la estructura de comunidad de una red compleja es un problema todavía sin resolver. Durante los últimos años, se han propuesto muchos algoritmos que persiguen extraer la partición óptima de una red en comunidades. El clustering espectral, los algoritmos de particionamiento de grafos, los métodos basados en la modularidad o los algoritmos basados en la sincronización son sólo algunos de estos algoritmos de extracción de comunidades. Los algoritmos dinámicos basados en la sincronización han sido estudiados por varios autores, y han demostrado que la monitorización del proceso dinámico de la sincronización permite revelar las diferentes escalas topologicas presentes en una red compleja. Muchos de estos algoritmos se basan en el modelo Kuramoto o en algunas de sus variantes como el modelo de opinión, donde cada oscilador aislado es modelado en un espacio unidimensional. El objetivo principal del presente proyecto es la implementación de un algoritmo de detección de comunidades basado en la sincronización de osciladores acoplados. Cada oscilador ha sido modelado mediante el sistema dinámico de Rossler, un sistema de ecuaciones diferenciales definido en un espacio tridimensional.
Resumo:
El trabajo realizado en este proyecto se enmarca dentro del área de Procesamiento del Lenguaje Natural aplicado al ámbito de la medicina. Para este fin se han utilizado técnicas de minería de datos y aprendizaje automático. El objetivo principal de este proyecto es el desarrollo de un modelo capaz de automatizar la clasificación de textos clínicos según el estándar ICD-9- CM (codificación estándar utilizada por la red hospitalaria europea). Aunque existe una herramienta web (https://eciemaps.mspsi.es/ecieMaps/ browser/index_9_mc.html), que facilita la clasificación, este trabajo, hoy en día es realizado manualmente. Básicamente se trata de un diccionario online, de los términos del estándar. Basándonos en trabajos previos relacionados, se ha obtenido un baseline a partir del cual se ha construido el proyecto. En primer lugar, como en cualquier trabajo relacionado con los Sistemas de Apoyo a la Decisión (DSS) se ha estructurado el trabajo en dos módulos principales, el preproceso y la clasificación. En el módulo dedicado al preproceso, se tratan los datos para hacerlos comprensibles a los algoritmos de clasificación. En este primer módulo también se realiza una fase de adición de atributos que aporten información útil a la hora de la clasificación y una posterior selección de los mismos, por si alguno fuera redundante o irrelevante. En el segundo módulo dedicado a la clasificación, seleccionamos aquellos algoritmos que consideramos mejores, basándonos para ello, en otros trabajos previos que abordan un problema similar. Una vez seleccionados los algoritmos, se procede a realizar barridos de parámetros que optimicen su rendimiento. Finalmente, se ha realizado la experimentación con distintas técnicas de preprocesamiento de los datos y con los distintos algoritmos de clasificación automática. Esta última de experimentación tiene como objetivo, encontrar la combinación de métodos que optimice el rendimiento de ambos módulos, y por tanto de todo el sistema.
Resumo:
Rule the World es una aplicación para móviles Android. Consiste en introducir al jugador en una realidad aumentada, mediante el uso de su localización, debe de recoger diferentes objetos para darles diferentes usos, como llevarlos equipados, usarlos para construir otros objetos o enviárselos a amigos. En el siguiente documento se muestra el completo desarrollo de este proyecto, como se ha realizado la gestión, en que partes se ha dividido, la planificación que se ha llevado para realizar el trabajo, el análisis que se hizo de la aplicación, junto con su diseño, como se ha realizado el desarrollo y las pruebas. Este proyecto ha servido para afianzar conocimientos adquiridos a lo largo del grado, como el desarrollo de bases de datos, seguridad y arquitecturas y algoritmos software. Pero también ha servido para aprender nuevas cosas, como programar para un sistema diferente, utilizar elementos poco vistos en el grado, como la geolocalización y los mapas.
Resumo:
[ES]Este proyecto investigador tiene como objetivo el ayudar con la calibración del mecanismo de cinco pares de rotación montado en el taller de Ingeniería Mecánica de la ETSI de Bilbao. En primer lugar se estudiarán los algoritmos de optimización prestando especial atención a la comparativa entre Levenberg-Marquart y Gauss-Newton. Se realizarán estudios en Matlab para concluir cuál de los dos es más eficaz tanto en rapidez como en precisión. El que sea más adecuado se implementará en un programa para la calibración del mecanismo 5R. En segundo lugar se estudiarán los índices de observabilidad. Los estudios que se han realizado sobre ellos hasta ahora son poco concluyentes asique se intentará aclarar su utilidad y determinar cuál es el que conviene utilizar en este caso. Para ello se deberá programar la resolución del problema cinemático inverso. Por último se presentarán los resultados y las conclusiones correspondientes. Se propondrá también un plan de desarrollo de una línea de investigación futura que partirá con este trabajo como base.
Resumo:
167 p.
Resumo:
[ES]Este proyecto tiene como objetivo analizar el rendimiento de diferentes técnicas criptográficas que el protocolo de movilidad HIP puede utilizar para proporcionar los servicios de seguridad que se determinen. Lo primero que se hará será seleccionar los diferentes algoritmos criptográficos que HIP podría utilizar para cubrir los servicios de seguridad considerados más relevantes, estos son autenticación, confidencialidad e integridad de datos. A continuación se identificarán los parámetros más significativos en relación al rendimiento y se definirá un escenario y un plan de pruebas para realizar las mediciones. Posteriormente se realizarán las mediciones con los algoritmos criptográficos previamente seleccionados, y por último se analizarán y valorarán los resultados obtenidos para así determinar la eficiencia de cada algoritmo criptográfico.
Resumo:
221 p.
Resumo:
250 p. + anexos
Resumo:
[ES]Este documento va a estudiar el desarrollo de un método alternativo de análisis granulométrico de polvos metálicos de láser cladding por procesamiento digital de imágenes. El concepto de tamaño de partícula, la cual, normalmente, tiene forma irregular, es muy importante de cara a controlar de manera fiable ciertas fases de procesos industriales. Un buen control del tamaño de partícula y de su forma repercute en una mayor calidad del proceso y del producto final. Tradicionalmente, el análisis granulométrico en procesos industriales se ha realizado por el método de tamizado, un método mecánico que consiste en que la muestra de polvo atraviese sucesivamente mallas con orificios progresivamente decrecientes. En los últimos años, los avances tecnológicos han revolucionado los procesos industriales. En concreto, campos como la visión artificial han adquirido gran presencia por tener como ventajas una alta velocidad de operación, gran capacidad de aumento, funcionamiento las 24 horas del día o la repetitividad de las medidas. Su objetivo es normalmente comprobar la conformidad de una pieza de acuerdo a ciertos requisitos especificados. Se propone un método adaptado a las nuevas tecnologías. En concreto, se busca ganar en información, fiabilidad, rapidez y repetitividad respecto a los métodos granulométricos clásicos. Se van a desarrollar algoritmos de análisis haciendo uso de herramientas informáticas y el software comercial Matlab. En el análisis, se van a crear indicadores que permitan caracterizar la muestra con la mayor fiabilidad posible. Finalmente, se van a aplicar los métodos desarrollados en muestras de polvo reales y diversas para comprobar el buen funcionamiento del método.
Resumo:
169 p.
Resumo:
[ES]Este Trabajo Fin de Grado consiste en el diseño de una herramienta gráfica para el desarrollo de prácticas de laboratorio basadas en el procesado de señales electrocardiográficas (ECG) para la asignatura de Procesado de Señales Biomédicas. El proyecto se concreta en la aplicación de la herramienta para tres prácticas de laboratorio diferentes basadas en ECG, las cuales tendrán objetivos y técnicas de procesado diferentes. El objetivo final es que los docentes y los estudiantes sean capaces de trabajar con señales de ECG, analizar sus principales características y comprender distintas técnicas y algoritmos de procesado típicas de este ámbito.
Resumo:
[EU]Proiektu honen helburua sare ezberdinetan algoritmo metaheuristikoen erabileraren bitartez bideratze arazoak ebaztea eta aztertzea da. Helburu honetarako erabiliko diren algoritmoak Coral Reefs Optimization eta Firefly Algorithm dira. Bi algoritmoak Python erabiliz inplementatuko dira, baita sareak simulatzen dituen programa ere. Modu honetan, algoritmo bakoitzaren gaitasuna aztertuko da sareko bi punturen arteko bide bideragarri bat, zeinek ezarritako murrizketak betetzen dituen, aurkitzeko; prozesu hau ausaz sortutako simulatutako sare batean oinarrituz garatuko da. Honen bitartez, arazo honen ebazpenerako algoritmo bakoitza egokia den eta bietariko zein den egokiena ondorioztatu ahalko da.
Resumo:
[ES]El objetivo de este trabajo es el diseño e implementación de un complemento adicional a OpenFlow que permita la ejecución de los mensajes en el switch dentro de un espacio de tiempo concreto que previamente ha sido definido. El primer paso será la definición de objetivos y especificaciones del trabajo, para posteriormente realizar el diseño de un escenario mediante el análisis de posibles alternativas, y que permitirá la consecución de dichos objetivos. A continuación se añadirá el código necesario para que los equipos sean capaces de realizar el envío y ejecución de los mensajes en el tiempo programado y se finalizará realizando simulaciones y pruebas tanto del funcionamiento como del formato que utilizan los mensajes intercambiados entre el controlador y los switches que maneja, con el objetivo de verificar la viabilidad del módulo desarrollado.