906 resultados para Algoritmos computacionales


Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES] El proyecto estudia algoritmos de detección de bordes aplicados a imágenes fotográficas y procedentes de nubes de puntos, posteriormente combina los resultados y analiza las posibilidades de mejora de la solución conjunta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La formación de los bomberos es un proceso que incluye contenidos prácticos sobre cómo actuar ante incendios forestales y urbanos. La utilización de simuladores físicos tiene limitaciones impuestas por las condiciones de seguridad requeridas. Realizar prácticas controladas en condiciones reales está también altamente limitado por razones de factibilidad y de seguridad. Por tanto, la utilización de sistemas de entrenamiento de Realidad Virtual tiene especial relevancia.Las aportaciones de esta tesis están centradas en tres aspectos. El primero es el desarrollo de un entorno virtual para la simulación del entrenamiento e bomberos. Los escenarios considerados incluyen entornos forestales urbanos y mixtos. El entorno virtual puede ser accedido por bomberos que asumen distintos roles.El segundo es la generación de los algoritmos necesarios de la propagación y extinción de incendios dentro de los parámetros de interactividad del simulador. Para cumplir estos requisitos, se ha reducido la complejidad algorítmica a los elementos más fundamentales, entre ellos, la pendiente del terreno y la velocidad y dirección del viento. Además, se han añadido diversos efectos que aportan realismo a la propagación del fuego y su extinción: Spotting Fires, evaporación, modelo WaterJet.La definición de los escenarios incluye la clasificación del terreno o uso del suelo, los edificios y las barreras. La reconstrucción de escenarios reales a partir de información existente plantea problemas de heterogeneidad entre las distintas fuentes. La tercera aportación de esta tesis presenta las tecnologías semánticas como herramientas para solucionar los problemas de heterogeneidad de los datos y los distintos roles de los usuarios del sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la presente tesis se ha realizado el estudio de primeros principios (esto es, sinhacer uso de parámetros ajustables) de la estructura electrónica y la dinámica deexcitaciones electrónicas en plomo, tanto en volumen como en superficie y en formade películas de espesor nanométrico. Al presentar el plomo un número atómico alto(82), deben tenerse en cuenta los efectos relativistas. Con este fin, el doctorando haimplementado el acoplo espín-órbita en los códigos computacionales que hanrepresentado la principal herramienta de trabajo.En volumen, se han encontrado fuertes efectos relativistas asi como de lalocalización de los electrones, tanto en la respuesta dieléctrica (excitacioneselectrónicas colectivas) como en el tiempo de vida de electrones excitados. Lacomparación de nuestros resultados con medidas experimentales ha ayudado aprofundizar en dichos efectos.En el estudio de las películas a escala nanométrica se han hallado fuertes efectoscuánticos debido al confinamiento de los estados electrónicos. Dichos efectos semanifiestan tanto en el estado fundamental (en acuerdo con estudiosexperimentales), como en la respuesta dieléctrica a través de la aparición y dinámicade plasmones de diversas características. Los efectos relativistas, a pesar de no serimportantes en la estructura electrónica de las películas, son los responsables de ladesaparación del plasmón de baja energía en nuestros resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto se analiza y compara el comportamiento del algoritmo CTC diseñado por el grupo de investigación ALDAPA usando bases de datos muy desbalanceadas. En concreto se emplea un conjunto de bases de datos disponibles en el sitio web asociado al proyecto KEEL (http://sci2s.ugr.es/keel/index.php) y que han sido ya utilizadas con diferentes algoritmos diseñados para afrontar el problema de clases desbalanceadas (Class imbalance problem) en el siguiente trabajo: A. Fernandez, S. García, J. Luengo, E. Bernadó-Mansilla, F. Herrera, "Genetics-Based Machine Learning for Rule Induction: State of the Art, Taxonomy and Comparative Study". IEEE Transactions on Evolutionary Computation 14:6 (2010) 913-941, http://dx.doi.org/10.1109/TEVC.2009.2039140 Las bases de datos (incluidas las muestras del cross-validation), junto con los resultados obtenidos asociados a la experimentación de este trabajo se pueden encontrar en un sitio web creado a tal efecto: http://sci2s.ugr.es/gbml/. Esto hace que los resultados del CTC obtenidos con estas muestras sean directamente comparables con los obtenidos por todos los algoritmos obtenidos en este trabajo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La única forma que tienen los profesionales de aprender los procedimientos de extinción de incendios y gestión de los recursos es a través de maquetas o simulacros controlados. Este proyecto hace énfasis en la verificación de un conjunto de algoritmos de simulación y propagación de incendios facilitando la validación de los mismos por expertos. Los algoritmos validados se integrarán en un simulador interactivo dirigido al entrenamiento e instrucción del uso de los recursos para la extinción de incendios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este trabajo es estudiar el Desastre del Titanic, utilizando la metodología del Descubrimiento del Conocimiento (KDD). La tesis propone diferentes variantes de cómo aplicar técnicas de Minería de Datos y herramientas del Aprendizaje Automático para predecir de forma eficiente la sobrevivencia de los pasajeros. Con este fin se han adaptado diferentes algoritmos de pre-procesamiento de datos, selección de variables y clasificación, a las características particulares del problema tratado. Algunos de estos algoritmos han sido implementados o sus implementaciones han sido modificadas para el caso específico del problema del Titanic.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

190 p.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El estudio de las redes complejas atrae cada vez más el interés de muchos investigadores por muchas razones obvias. Muchos sistemas tanto reales como tecnológicos pueden representarse como redes complejas, es decir, un conjunto de entidades en interacción de acuerdo a propiedades topológicas no triviales. La interacción entre los elementos de la red puede describir comportamientos globales tales como el tráfico en Internet, el servicio de suministro de electricidad o la evolución de los mercados. Una de las propiedades topológicas de los grafos que caracterizan estos sistemas complejos es la estructura de comunidad. La detección de comunidades tiene como objetivo la identificación de los módulos o grupos con alguna o varias propiedades en común basándose únicamente en la información codificada en la topología del grafo. La detección de comunidades es importante no sólo para caracterizar el grafo, sino que además ofrece información sobre la formación de la red así como sobre su funcionalidad. El estudio de las leyes subyacentes que gobiernan la dinámica y evolución de los sistemas complejos y la caracterización de sus grafos revela que las redes a gran escala, generalmente, se caracterizan por topologías complejas y estructuras heterogéneas. La estructura de conectividad de estas redes se manifiesta por la presencia de comunidades (clusters o grupos), es decir, conjuntos de nodos que comparten propiedades comunes o juegan roles similares en la red. Las comunidades pueden representar relaciones de amistad en las redes sociales, páginas web con una temática similar, o rutas bioquímicas en las redes metabólicas. Formalmente, una red es un grafo compuesto por un gran número de nodos altamente interconectados donde una comunidad se resalta por la presencia de un gran número de aristas conectando nodos dentro de grupos individuales, pero con baja concentración de aristas entre estos grupos. El mejor modo para establecer la estructura de comunidad de una red compleja es un problema todavía sin resolver. Durante los últimos años, se han propuesto muchos algoritmos que persiguen extraer la partición óptima de una red en comunidades. El clustering espectral, los algoritmos de particionamiento de grafos, los métodos basados en la modularidad o los algoritmos basados en la sincronización son sólo algunos de estos algoritmos de extracción de comunidades. Los algoritmos dinámicos basados en la sincronización han sido estudiados por varios autores, y han demostrado que la monitorización del proceso dinámico de la sincronización permite revelar las diferentes escalas topologicas presentes en una red compleja. Muchos de estos algoritmos se basan en el modelo Kuramoto o en algunas de sus variantes como el modelo de opinión, donde cada oscilador aislado es modelado en un espacio unidimensional. El objetivo principal del presente proyecto es la implementación de un algoritmo de detección de comunidades basado en la sincronización de osciladores acoplados. Cada oscilador ha sido modelado mediante el sistema dinámico de Rossler, un sistema de ecuaciones diferenciales definido en un espacio tridimensional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El trabajo realizado en este proyecto se enmarca dentro del área de Procesamiento del Lenguaje Natural aplicado al ámbito de la medicina. Para este fin se han utilizado técnicas de minería de datos y aprendizaje automático. El objetivo principal de este proyecto es el desarrollo de un modelo capaz de automatizar la clasificación de textos clínicos según el estándar ICD-9- CM (codificación estándar utilizada por la red hospitalaria europea). Aunque existe una herramienta web (https://eciemaps.mspsi.es/ecieMaps/ browser/index_9_mc.html), que facilita la clasificación, este trabajo, hoy en día es realizado manualmente. Básicamente se trata de un diccionario online, de los términos del estándar. Basándonos en trabajos previos relacionados, se ha obtenido un baseline a partir del cual se ha construido el proyecto. En primer lugar, como en cualquier trabajo relacionado con los Sistemas de Apoyo a la Decisión (DSS) se ha estructurado el trabajo en dos módulos principales, el preproceso y la clasificación. En el módulo dedicado al preproceso, se tratan los datos para hacerlos comprensibles a los algoritmos de clasificación. En este primer módulo también se realiza una fase de adición de atributos que aporten información útil a la hora de la clasificación y una posterior selección de los mismos, por si alguno fuera redundante o irrelevante. En el segundo módulo dedicado a la clasificación, seleccionamos aquellos algoritmos que consideramos mejores, basándonos para ello, en otros trabajos previos que abordan un problema similar. Una vez seleccionados los algoritmos, se procede a realizar barridos de parámetros que optimicen su rendimiento. Finalmente, se ha realizado la experimentación con distintas técnicas de preprocesamiento de los datos y con los distintos algoritmos de clasificación automática. Esta última de experimentación tiene como objetivo, encontrar la combinación de métodos que optimice el rendimiento de ambos módulos, y por tanto de todo el sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rule the World es una aplicación para móviles Android. Consiste en introducir al jugador en una realidad aumentada, mediante el uso de su localización, debe de recoger diferentes objetos para darles diferentes usos, como llevarlos equipados, usarlos para construir otros objetos o enviárselos a amigos. En el siguiente documento se muestra el completo desarrollo de este proyecto, como se ha realizado la gestión, en que partes se ha dividido, la planificación que se ha llevado para realizar el trabajo, el análisis que se hizo de la aplicación, junto con su diseño, como se ha realizado el desarrollo y las pruebas. Este proyecto ha servido para afianzar conocimientos adquiridos a lo largo del grado, como el desarrollo de bases de datos, seguridad y arquitecturas y algoritmos software. Pero también ha servido para aprender nuevas cosas, como programar para un sistema diferente, utilizar elementos poco vistos en el grado, como la geolocalización y los mapas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES]Este proyecto investigador tiene como objetivo el ayudar con la calibración del mecanismo de cinco pares de rotación montado en el taller de Ingeniería Mecánica de la ETSI de Bilbao. En primer lugar se estudiarán los algoritmos de optimización prestando especial atención a la comparativa entre Levenberg-Marquart y Gauss-Newton. Se realizarán estudios en Matlab para concluir cuál de los dos es más eficaz tanto en rapidez como en precisión. El que sea más adecuado se implementará en un programa para la calibración del mecanismo 5R. En segundo lugar se estudiarán los índices de observabilidad. Los estudios que se han realizado sobre ellos hasta ahora son poco concluyentes asique se intentará aclarar su utilidad y determinar cuál es el que conviene utilizar en este caso. Para ello se deberá programar la resolución del problema cinemático inverso. Por último se presentarán los resultados y las conclusiones correspondientes. Se propondrá también un plan de desarrollo de una línea de investigación futura que partirá con este trabajo como base.