843 resultados para Grado en Ingeniería de Computadores - Trabajos Fin de Grado


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract: Medical image processing in general and brain image processing in particular are computationally intensive tasks. Luckily, their use can be liberalized by means of techniques such as GPU programming. In this article we study NiftyReg, a brain image processing library with a GPU implementation using CUDA, and analyse different possible ways of further optimising the existing codes. We will focus on fully using the memory hierarchy and on exploiting the computational power of the CPU. The ideas that lead us towards the different attempts to change and optimize the code will be shown as hypotheses, which we will then test empirically using the results obtained from running the application. Finally, for each set of related optimizations we will study the validity of the obtained results in terms of both performance and the accuracy of the resulting images.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se ha realizado el modelado orientado a objetos del sistema de control cardiovascular en situaciones de diálisis aplicando una analogía eléctrica en el que se emplean componentes conectados mediante interconexiones. En este modelado se representan las ecuaciones diferenciales del sistema cardiovascular y del sistema de control barorreceptor así como las ecuaciones dinámicas del intercambio de fluidos y solutos del sistema hemodializador. A partir de este modelo se ha realizado experiencias de simulación en condiciones normales y situaciones de hemorragias, transfusiones de sangre y de ultrafiltración e infusión de fluido durante tratamiento de hemodiálisis. Los resultados obtenidos muestran en primer lugar la efectividad del sistema barorreceptor para compensar la hipotensión arterial inducida por los episodios de hemorragia y transfusión de sangre. En segundo lugar se muestra la respuesta del sistema de control ante diferentes tasas de ultrafiltración durante la hemodiálisis y se sugieren valores óptimos para la adecuada operación.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este Trabajo de Fin de Grado constituye el primero en una línea de Trabajos con un objetivo común: la creación de una aplicación o conjunto de aplicaciones que apoye a la administración de un cluster de supercomputación mediante una representación en tres dimensiones del mismo accesible desde un navegador. Esta aplicación deberá ser de fácil manejo para el personal que haga uso de ella, que recibirá información procedente de distintas fuentes sobre el estado de cada uno de los dispositivos del cluster. Concretamente, este primer Trabajo se centra en la representación gráfica del cluster mediante WebGL, el estándar para renderizado 3D en navegadores basado en OpenGL, tomando como modelo de desarrollo el SCBI (Centro de Supercomputación y Bioinnovación) de la Universidad de Málaga. Para ello, se apoyará en la creación de una herramienta con la que describir texualmente de forma intuitiva los elementos de una sala de supercomputadores y los datos asociados a los mismos. Esta descripción será modificable para adaptarse a las necesidades del administrador de los datos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La minería de opinión o análisis de sentimiento es un tipo de análisis de texto que pretende ayudar a la toma de decisiones a través de la extracción y el análisis de opiniones, identificando las opiniones positivas, negativas y neutras; y midiendo su repercusión en la percepción de un tópico. En este trabajo se propone un modelo de análisis de sentimiento basado en diccionarios, que a través de la semántica y de los patrones semánticos que conforman el texto a clasificar, permite obtener la polaridad del mismo, en la red social Twitter. Para el conjunto de datos de entrada al sistema se han considerado datos públicos obtenidos de la red social Twitter, de compañías del sector de las telecomunicaciones que operan en el mercado Español.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este proyecto nosotros vamos a hacer una pasada por un sistema colaborativo de resolución de test. En este entorno el estudiante resuelve preguntas en un grupo de estudiantes en tres fases diferentes (individual, colaborativa y final). Este sistema ha demostrado que los alumnos que resuelven los test en este entorno mejoran sus respuestas. Esto se debe a que los estudiante aprenden como sus compañeros se enfrentan a las cuestiones planteadas y como las resuelven. Este sistema esta actualmente funcionando en la plataforma siette, pero esta teniendo problemas de compatibilidad con algunos navegadores y esto presenta un problema para desarrollar nueva funcionalidad. Nosotros queremos resolver esto con la utilización de HTML5, CSS y JavaScript. Este Sistema será diseñado para funcionar en conjunto con la plataforma de resolución de tests (Siette) en un modo que llamaremos modo colaborativo que solo será usado para resolver test en grupo con otros compañeros. Siette nos propone un entorno donde trabajan profesores diseñando test y alumnos que testean su conocimiento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este documento se expondrá una implementación del problema del viajante de comercio usando una implementación personalizada de un mapa auto-organizado basándose en soluciones anteriores y adaptándolas a la arquitectura CUDA, haciendo a la vez una comparativa de la implementación eficiente en CUDA C/C++ con la implementación de las funciones de GPU incluidas en el Parallel Computing Toolbox de Matlab. La solución que se da reduce en casi un cuarto las iteraciones necesarias para llegar a una solución buena del problema mencionado, además de la mejora inminente del uso de las arquitecturas paralelas. En esta solución se estudia la mejora en tiempo que se consigue con el uso específico de la memoria compartida, siendo esta una de las herramientas más potentes para mejorar el rendimiento. En lo referente a los tiempos de ejecución, se llega a concluir que la mejor solución es el lanzamiento de un kernel de CUDA desde Matlab a través de la funcionalidad incluida en el Parallel Computing Toolbox.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La reputación corporativa es la percepción que los diferentes públicos de una empresa tienen acerca de la misma. Estos públicos o stakeholders, son aquellos que se relacionan con la empresa de cualquier manera, pudiéndose distinguir entre públicos internos, empleados, accionistas, directivos, …; y públicos externos, clientes, proveedores, fondos de inversión, …. En los últimos años estamos presenciando como las empresas e instituciones dedican importantes esfuerzos a desarrollar políticas de Reputación Corporativa, ya que una disminución de la reputación redunda directamente en la cuenta de resultados de las compañías por lo que las mejoras que se introduzcan en la gestión de la reputación redundaran directamente en su sostenibilidad económica y social del país donde operan.Para poder medir la RC de una empresa o institución es preciso determinar el sentimiento que dicha empresa o institución tiene en sus públicos. Pero llevar a cabo esta medición es cada día más difícil, ya que la sociedad de la información donde estamos inmersos, hace que los canales de comunicación de los públicos sean mucho mayores que hace unos años( redes sociales, blog, diarios, foros, …) y además, la comunicación puede hacerse casi en tiempo real, tal como sucede en las redes sociales. Para hacer estas mediciones, las principales empresas del sector han utilizado principalmente encuestas las cuales las realizaban empresas especializadas, lo que supone un alto coste y además, los resultados son obtenidos a tiempo pasado o no se alcanza un tamaño de población significativa.El objetivo de este trabajo es realizar una aplicación para determinar la reputación de una empresa en medios de comunicación online. Para ello, se ha desarrollado un sistema de lectura de medios online, que permite localizar y extraer la información de los medios de comunicación online; un clasificador semántico para analizar la información recogida y clasificarla en diferentes temáticas extrayendo el sentimiento de los textos; y finalmente, una interfaz para interactuar con el usuario.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este Trabajo de Fin de Grado (TFG) se engloba en la línea general Social CRM. Concretamente, está vinculado a un trabajo de investigación llamado “Knowledge discovery in social networks by using a logic-based treatment of implications” desarrollado por P. Cordero, M. Enciso, A. Mora, M. Ojeda-Aciego y C. Rossi en la Universidad de Málaga, en el cual se ofrecen nuevas soluciones para la identificación de influencias de los usuarios en las redes sociales mediante herramientas como el Analisis de Conceptos Formales (FCA). El TFG tiene como objetivo el desarrollo de una aplicación que permita al usuario crear una configuración minimal de usuarios en Twitter a los que seguir para conocer información sobre un número determinado de temas. Para ello, obtendremos información sobre dichos temas mediante la API REST pública que proporciona Twitter y procesaremos los datos mediante algoritmos basados en el Análisis de Conceptos Formales (FCA). Posteriormente, la interpretación de los resultados de dicho análisis nos proporcionará información útil sobre lo expuesto al principio. Así, el trabajo se ha dividido en tres partes fundamentales: 1. Obtención de información (fuentes) 2. Procesamiento de los datos 3. Análisis de resultados El sistema se ha implementado como una aplicación web Java EE 7, utilizando JSF para las interfaces. Para el desarrollo web se han utilizado tecnologías y frameworks como Javascript, JQuery, CSS3, Bootstrap, Twitter4J, etc. Además, se ha seguido una metodología incremental para el desarrollo del proyecto y se ha usado UML como herramienta de modelado. Este proyecto se presenta como un trabajo inicial en el que se expondrán, además del sistema implementado, diversos problemas reales y ejemplos que prueben su funcionamiento y muestren la utilidad práctica del mismo

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En la actualidad, existen un gran número de investigaciones que usan técnicas de aprendizaje automático basadas en árboles de decisión. Como evolución de dichos trabajos, se han desarrollado métodos que usan Multiclasificadores (Random forest, Boosting, Bagging) que resuelven los mismos problemas abordados con árboles de decisión simples, aumentando el porcentaje de acierto. El ámbito de los problemas resueltos tradicionalmente por dichas técnicas es muy variado aunque destaca la bio-informática. En cualquier caso, la clasificación siempre puede ser consultada a un experto considerándose su respuesta como correcta. Existen problemas donde un experto en la materia no siempre acierta. Un ejemplo, pueden ser las quinielas (1X2). Donde podemos observar que un conocimiento del dominio del problema aumenta el porcentaje de aciertos, sin embargo, predecir un resultado erróneo es muy posible. El motivo es que el número de factores que influyen en un resultado es tan grande que, en muchas ocasiones, convierten la predicción en un acto de azar. En este trabajo pretendemos encontrar un multiclasificador basado en los clasificadores simples más estudiados como pueden ser el Perceptrón Multicapa o Árboles de Decisión con el porcentaje de aciertos más alto posible. Con tal fin, se van a estudiar e implementar una serie de configuraciones de clasificadores propios junto a multiclasificadores desarrollados por terceros. Otra línea de estudio son los propios datos, es decir, el conjunto de entrenamiento. Mediante un estudio del dominio del problema añadiremos nuevos atributos que enriquecen la información que disponemos de cada resultado intentando imitar el conocimiento en el que se basa un experto. Los desarrollos descritos se han realizado en R. Además, se ha realizado una aplicación que permite entrenar un multiclasificador (bien de los propios o bien de los desarrollados por terceros) y como resultado obtenemos la matriz de confusión junto al porcentaje de aciertos. En cuanto a resultados, obtenemos porcentajes de aciertos entre el 50% y el 55%. Por encima del azar y próximos a los resultados de los expertos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este informe recoge las guías del docente y del estudiante para la puesta en marcha, seguimiento continuo y evaluación de la asignatura Ingeniería del Software del segundo curso del Grado en Ingeniería Informática. Todo ello basado en metodologías activas, concretamente la metodología de Aprendizaje Basado en Proyectos (ABP, o PBL de Project Based Learning). El trabajo publicado en este informe es el resultado obtenido por los autores dentro del programa de formación del profesorado en metodologías activas (ERAGIN), auspiciado por el Vicerrectorado de Calidad e Innovación Docente de la Universidad del País Vasco (UPV/EHU).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo de la presente tesis doctoral, se centra en plantear las posibilidades estructurales de fibras cortas de acero como refuerzo de la matriz de hormigón, habitualmente denominado HRFA, junto con la posibilidad de proporcionarle propiedades autocompactantes, que mejoren ciertos aspectos del material, formando el denominado Hormigón Autocompactante Reforzado con Fibras de Acero (HACRFA), en determinadas condiciones, gracias a las propiedades y características que se han atestiguado en este documento. Para tal fin y a diferencia de la mayoría de las experiencias anteriores que conocemos, se construye y analiza un tramo de muro de gran envergadura (3 metros de alto y 6 metros de largo). Este planteamiento permite estudiar la disposición de las fibras de acero dentro de un elemento estructural de gran tamaño y ejecutado en condiciones reales de obra, para determinar el comportamiento del material teniendo en cuenta todos los condicionantes posibles, algunos de los cuales no están presentes en las investigaciones de laboratorio. La exhaustiva caracterización del material que compone la estructura, conlleva la división del muro en 380 probetas de diversos tamaños que se someten a prometedores ensayos no destructivos y a los habituales ensayos destructivos. Las correlaciones establecidas entre ambos campos, posibilitan la determinación de aspectos resistentes de forma indirecta y sin dañar el material, estableciendo nuevas vías para un interesante control de calidad sobre la propia estructura. Para complementar el análisis a posteriori, se establece una metodología para determinar de manera previa a la ejecución de los trabajos la orientación de las fibras dentro de la masa de hormigón. Las simulaciones realizadas por medio de la Dinámica Computacional de Fluídos, permiten además establecer una serie de estimaciones de las resistencias residuales del material a partir de la orientación de las fibras prevista, detectando a priori puntos débiles o inadecuados procesos de hormigonado. Como colofón se realiza una comparativa económica y sostenibilidad medioambiental entre la aplicación a depósitos de contención cilíndricos propuesta, ejecutada por un lado mediante un hormigón convencional y el HACRFA por el otro. Cada sistema presenta sus ventajas y desventajas pero se concluye que el HACRFA puede resultar igual o más económico y sostenible, que un diseño estructural convencional. Estos trabajos se enmarcan dentro de las investigaciones desarrolladas por el Área de Conocimiento de Ingeniería de la Construcción adscrito al Departamento de Ingeniería Mecánica de la Universidad del País Vasco / Euskal Herriko Unibertsitatea (UPV/EHU).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Duración (en horas): Más de 50 horas. Destinatario: Estudiante y Docente

Relevância:

100.00% 100.00%

Publicador:

Relevância:

100.00% 100.00%

Publicador:

Resumo:

[ES] Este proyecto corresponde a una actualización del siguiente proyecto fin de carrera:

Relevância:

100.00% 100.00%

Publicador:

Resumo:

[ES] Este proyecto genera productos adicionales de trabajos también disponibles en el repositori, en concreto: