57 resultados para Grado en Ingeniería de Computadores - Trabajos Fin de Grado
Resumo:
La reputación corporativa es la percepción que los diferentes públicos de una empresa tienen acerca de la misma. Estos públicos o stakeholders, son aquellos que se relacionan con la empresa de cualquier manera, pudiéndose distinguir entre públicos internos, empleados, accionistas, directivos, …; y públicos externos, clientes, proveedores, fondos de inversión, …. En los últimos años estamos presenciando como las empresas e instituciones dedican importantes esfuerzos a desarrollar políticas de Reputación Corporativa, ya que una disminución de la reputación redunda directamente en la cuenta de resultados de las compañías por lo que las mejoras que se introduzcan en la gestión de la reputación redundaran directamente en su sostenibilidad económica y social del país donde operan.Para poder medir la RC de una empresa o institución es preciso determinar el sentimiento que dicha empresa o institución tiene en sus públicos. Pero llevar a cabo esta medición es cada día más difícil, ya que la sociedad de la información donde estamos inmersos, hace que los canales de comunicación de los públicos sean mucho mayores que hace unos años( redes sociales, blog, diarios, foros, …) y además, la comunicación puede hacerse casi en tiempo real, tal como sucede en las redes sociales. Para hacer estas mediciones, las principales empresas del sector han utilizado principalmente encuestas las cuales las realizaban empresas especializadas, lo que supone un alto coste y además, los resultados son obtenidos a tiempo pasado o no se alcanza un tamaño de población significativa.El objetivo de este trabajo es realizar una aplicación para determinar la reputación de una empresa en medios de comunicación online. Para ello, se ha desarrollado un sistema de lectura de medios online, que permite localizar y extraer la información de los medios de comunicación online; un clasificador semántico para analizar la información recogida y clasificarla en diferentes temáticas extrayendo el sentimiento de los textos; y finalmente, una interfaz para interactuar con el usuario.
Resumo:
Este Trabajo de Fin de Grado (TFG) se engloba en la línea general Social CRM. Concretamente, está vinculado a un trabajo de investigación llamado “Knowledge discovery in social networks by using a logic-based treatment of implications” desarrollado por P. Cordero, M. Enciso, A. Mora, M. Ojeda-Aciego y C. Rossi en la Universidad de Málaga, en el cual se ofrecen nuevas soluciones para la identificación de influencias de los usuarios en las redes sociales mediante herramientas como el Analisis de Conceptos Formales (FCA). El TFG tiene como objetivo el desarrollo de una aplicación que permita al usuario crear una configuración minimal de usuarios en Twitter a los que seguir para conocer información sobre un número determinado de temas. Para ello, obtendremos información sobre dichos temas mediante la API REST pública que proporciona Twitter y procesaremos los datos mediante algoritmos basados en el Análisis de Conceptos Formales (FCA). Posteriormente, la interpretación de los resultados de dicho análisis nos proporcionará información útil sobre lo expuesto al principio. Así, el trabajo se ha dividido en tres partes fundamentales: 1. Obtención de información (fuentes) 2. Procesamiento de los datos 3. Análisis de resultados El sistema se ha implementado como una aplicación web Java EE 7, utilizando JSF para las interfaces. Para el desarrollo web se han utilizado tecnologías y frameworks como Javascript, JQuery, CSS3, Bootstrap, Twitter4J, etc. Además, se ha seguido una metodología incremental para el desarrollo del proyecto y se ha usado UML como herramienta de modelado. Este proyecto se presenta como un trabajo inicial en el que se expondrán, además del sistema implementado, diversos problemas reales y ejemplos que prueben su funcionamiento y muestren la utilidad práctica del mismo
Resumo:
En la actualidad, existen un gran número de investigaciones que usan técnicas de aprendizaje automático basadas en árboles de decisión. Como evolución de dichos trabajos, se han desarrollado métodos que usan Multiclasificadores (Random forest, Boosting, Bagging) que resuelven los mismos problemas abordados con árboles de decisión simples, aumentando el porcentaje de acierto. El ámbito de los problemas resueltos tradicionalmente por dichas técnicas es muy variado aunque destaca la bio-informática. En cualquier caso, la clasificación siempre puede ser consultada a un experto considerándose su respuesta como correcta. Existen problemas donde un experto en la materia no siempre acierta. Un ejemplo, pueden ser las quinielas (1X2). Donde podemos observar que un conocimiento del dominio del problema aumenta el porcentaje de aciertos, sin embargo, predecir un resultado erróneo es muy posible. El motivo es que el número de factores que influyen en un resultado es tan grande que, en muchas ocasiones, convierten la predicción en un acto de azar. En este trabajo pretendemos encontrar un multiclasificador basado en los clasificadores simples más estudiados como pueden ser el Perceptrón Multicapa o Árboles de Decisión con el porcentaje de aciertos más alto posible. Con tal fin, se van a estudiar e implementar una serie de configuraciones de clasificadores propios junto a multiclasificadores desarrollados por terceros. Otra línea de estudio son los propios datos, es decir, el conjunto de entrenamiento. Mediante un estudio del dominio del problema añadiremos nuevos atributos que enriquecen la información que disponemos de cada resultado intentando imitar el conocimiento en el que se basa un experto. Los desarrollos descritos se han realizado en R. Además, se ha realizado una aplicación que permite entrenar un multiclasificador (bien de los propios o bien de los desarrollados por terceros) y como resultado obtenemos la matriz de confusión junto al porcentaje de aciertos. En cuanto a resultados, obtenemos porcentajes de aciertos entre el 50% y el 55%. Por encima del azar y próximos a los resultados de los expertos.
Resumo:
Este Trabajo Fin de Grado (TFG) tiene como objetivo la creación de un framework para su uso en sistemas de recomendación. Se ha realizado por dos personas en la modalidad de trabajo en equipo. Las tareas de este TFG están divididas en dos partes, una realizada conjuntamente y la otra de manera individual. La parte conjunta se centra en construir un sistema que sea capaz de, a partir de comentarios y opiniones sobre puntos de interés (POIs) y haciendo uso de la herramienta de procesamiento de lenguaje natural AlchemyAPI, construir contextos formales y contextos formales multivaluados. Para crear este último es necesario hacer uso de ontologías. El context formal multivaluado es el punto de partida de la segunda parte (individual), que consistirá en, haciendo uso del contexto multivaluado, obtener un conjunto de dependencias funcionales mediante la implementación en Java del algoritmo FDMine. Estas dependencias podrán ser usados en un motor de recomendación. El sistema se ha implementado como una aplicación web Java EE versión 6 y una API para trabajar con contextos formales multivaluados. Para el desarrollo web se han empleado tecnologías actuales como Spring y jQuery. Este proyecto se presenta como un trabajo inicial en el que se expondrán, además del sistema construido, diversos problemas relacionados con la creacion de conjuntos de datos validos. Por último, también se propondrán líneas para futuros TFGs.
Resumo:
La monitorización del funcionamiento del corazón se realiza generalmente por medio del análisis de los potenciales de acción generados en las células responsables de la contracción y relajación de este órgano. El proceso de monitorización mencionado consta de diferentes partes. En primer lugar, se adquieren las señales asociadas a la actividad de las células cardíacas. La conexión entre el cuerpo humano y el sistema de acondicionamiento puede ser implementada mediante diferentes tipos de electrodos – de placa metálica, de succión, top-hat, entre otros. Antes de la adquisición la señal eléctrica recogida por los electrodos debe ser acondicionada de acuerdo a las especificaciones de la entrada de la tarjeta de adquisición de datos (DAQ o DAC). Básicamente, debe amplificar la señal de tal manera que se aproveche al máximo el rango dinámico del cuantificador. Las características de ruido del amplificador requerido deben ser diseñadas teniendo en cuenta que el ruido interno del amplificador no afecte a la interpretación del electrocardiograma original (ECG). Durante el diseño del amplificador se han tenido en cuenta varios requisitos. Deberá optimizarse ña relación señal a ruido (SNR) de la señal entre la señal del ECG y el ruido de cuantificación. Además, el nivel de la señal ECG a la entrada de la DAQ deberá alcanzar el máximo nivel del cuantificador. También, el ruido total a la entrada del cuantificador debe ser despreciable frente a la mínima señal discernible del ECG Con el objetivo de llevar a cabo un diseño electrónico con esas prestaciones de ruido, es necesario llevar a cabo un minucioso estudio de los fundamentos de caracterización de ruido. Se han abarcado temas como la teoría básica de señales aleatorias, análisis espectral y su aplicación a la caracterización en sistemas electrónicos. Finalmente, todos esos conceptos han sido aplicados a la caracterización de las diferentes fuentes de ruido en los circuitos con amplificadores operacionales. Muchos prototipos de amplificadores correspondientes a diferentes diseños han sido implementados en placas de circuito impreso (PCB – Printed Board Circuits). Aunque el ancho de banda del amplificador operacional es adecuado para su implementación en una ‘protoboard’, las especificaciones de ruido obligan al uso de PCB. De hecho, los circuitos implementados en PCB son menos sensibles al ruido e interferencias que las ‘protoboard’ dadas las características físicas de ambos tipos de prototipos.
Resumo:
El hidroxiapatito es el biomineral de los tejidos duros de los mamíferos y por ello ha sido ampliamente estudiado como biomaterial en cementos óseos, recubrimientos de metales implantables y scaffold en ingeniería de tejidos. En este trabajo, se estudia un proceso síntesis y caracterización de un derivado de este material, donde el ion fosfonato: 2- hidroxifosfonoacetato sustituye parcialmente al ion fosfato [1-10%]. El proceso de síntesis de hidroxiapatito consiste en dos etapas: (1) una reacción a 100ºC entre el ácido fosfórico (añadido lentamente) y una mezcla de hidróxido de calcio + 2-hidroxifosfonoacetato de calcio (Relación Ca/P=1.67). (2) un tratamiento térmico de los sólidos obtenidos en (1) a 150ºC. Los productos finales se han caracterizado mediante análisis químico, análisis termogravimétrico, difracción de rayos-X con análisis de Rietveld, microscopía SEM y determinación de la superficie específica y porosidad. En las fases cristalinas, el grado de pureza de los hidroxiapatitos oscila entre 91-100%. Todos presentan estructura monoclínica, en contraste con la estructura hexagonal que habitualmente se obtiene aplicando métodos de síntesis similares. Esta variación se atribuye a la presencia de fosfonato. El contenido de éste también influye en la morfología y en la porosidad de los materiales, siendo las muestras con más fosfonato las más porosas. Los materiales, al menos aquellos con una cantidad menor o igual 5% de fosfonato, muestran una biocompatibilidad similar a un material de hidroxiapatito de referencia.
Resumo:
Las transformaciones tecnológicas y de información que está experimentando la sociedad, especialmente en la última década, está produciendo un crecimiento exponencial de los datos en todos los ámbitos de la sociedad. Los datos que se generan en los diferentes ámbitos se corresponden con elementos primarios de información que por sí solos son irrelevantes como apoyo a las tomas de decisiones. Para que estos datos puedan ser de utilidad en cualquier proceso de decisión, es preciso que se conviertan en información, es decir, en un conjunto de datos procesados con un significado, para ayudar a crear conocimiento. Estos procesos de transformación de datos en información se componen de diferentes fases como la localización de las fuentes de información, captura, análisis y medición.Este cambio tecnológico y a su vez de la sociedad ha provocado un aumento de las fuentes de información, de manera que cualquier persona, empresas u organización, puede generar información que puede ser relevante para el negocio de las empresas o gobiernos. Localizar estas fuentes, identificar información relevante en la fuente y almacenar la información que generan, la cual puede tener diferentes formatos, es el primer paso de todo el proceso anteriormente descrito, el cual tiene que ser ejecutado de manera correcta ya que el resto de fases dependen de las fuentes y datos recolectados. Para la identificación de información relevante en las fuentes se han creado lo que se denomina, robot de búsqueda, los cuales examinan de manera automática una fuente de información, localizando y recolectando datos que puedan ser de interés.En este trabajo se diseña e implementa un robot de conocimiento junto con los sistemas de captura de información online para fuentes hipertextuales y redes sociales.
Resumo:
Un sistema de SDR (Software Defined Radio) es un sistema de radio programable que delega gran parte del procesamiento hecho clásicamente en hardware,en software corriendo en un ordenador. Dos ventajas inmediatas de un dispositivo de SDR frente a un dispositivo de radio tradicional son el abaratamiento del coste del hardware (menos y menos complejo) y la facilidad de modificación de la funcionalidad específica de la radio (implementaciones software, tan simple como programar cualquier protocolo deseado). Debido al abaratamiento de estos productos y su facilidad de programación e interconexión con un ordenador personal, el mundo de la radiocomunicación es bastante más accesible. Cuando un dominio es poco conocido o accesible, es típico que los sistemas no sean seguros por diseño, sino por oscuridad. Si en un corto periodo de tiempo la accesibilidad a ese dominio aumenta considerablemente, los sistemas seguros por oscuridad se encuentran en peligro. Este trabajo pretende estudiar si efectivamente, al ser más accesible el dominio de la radiocomunicación debido a la accesibilidad de los dispositivos de SDR, ciertos sistemas se encuentran expuestos. La investigación del estado del arte y el estudio práctico de sistemas públicos en el ámbito local, nos permitirá entender hasta qué punto existen riesgos reales. Si se encuentra en el ámbito local una vulnerabilidad en algún sistema, se documentará y se propondrá una posible forma de aprovecharla y solucionarla.
Resumo:
This work focuses in the formal and technical analysis of some aspects of a constructed language. As a first part of the work, a possible coding for the language will be studied, emphasizing the pre x coding, for which an extension of the Hu man algorithm from binary to n-ary will be implemented. Because of that in the language we can't know a priori the frequency of use of the words, a study will be done and several strategies will be proposed for an open words system, analyzing previously the existing number of words in current natural languages. As a possible upgrade of the coding, we'll take also a look to the synchronization loss problem, as well as to its solution: the self-synchronization, a t-codes study with the number of possible words for the language, as well as other alternatives. Finally, and from a less formal approach, several applications for the language have been developed: A voice synthesizer, a speech recognition system and a system font for the use of the language in text processors. For each of these applications, the process used for its construction, as well as the problems encountered and still to solve in each will be detailed.
Resumo:
Este trabajo nace de una idea conjunta del desarrollo de un software capaz de trabajar con una máquina de rayos X para la toma de mamografías, y ser una herramienta para los radiólogos a la hora de analizar las imágenes y localizar zonas que pudieran ser sensibles de tener algún tipo de tumoración. No se trata de un software que pretenda suplantar la función de un radiólogo; es importante tener claro que el experto en radiología es el único capaz de analizar, comparar y tomar decisiones reales, y este software pretende simplificar esa tarea al máximo. Este programa utiliza como recursos para su funcionamiento una base de datos de mamografías procesadas anteriormente, a partir de las cuales entrena a la red neuronal para que sea capaz de clasificar mamografías nuevas y mostrar las posibles zonas críticas. Esta base de datos debe indicar a la red qué mamografías presentan algún tumor y dónde, para que la red aprenda a diferenciar entre zonas críticas y zonas no críticas. Esta idea deriva en la realización de dos trabajos que se especializan en los dos ámbitos del proyecto, en primer lugar el procesamiento y el análisis de esas mamografías obtenidas de la máquina de rayos X, que da lugar al presente trabajo; y en segundo lugar, deriva en un trabajo paralelo que explica la obtención, el análisis y la clasificación de los datos que se desprenden de este proyecto utilizando redes neuronales, titulado “Detección y clasificación de tumores en mamografías a través de redes neuronales”; realizado por Rodrigo Culotta López
Resumo:
Los electrocardiogramas (ECG) registran la actividad eléctrica del corazón a través de doce señales principales denominadas derivaciones. Estas derivaciones son analizadas por expertos médicos observando aquellos segmentos de la señal eléctrica que determinan cada una de las patologías que pueden afectar al corazón. Este hecho en general, es un condicionante muy importante para el diseño de sistemas expertos de diagnóstico médico, ya que es preciso conocer, delimitar y extraer de la señal eléctrica aquellos segmentos que determinan la patología. Dar solución a estos problemas, sería fundamental para facilitar el diseño de sistemas expertos para el diagnóstico de enfermedades cardiacas. El objetivo de este trabajo es demostrar que es posible identificar patologías cardiacas analizando la señal completa de las diferentes derivaciones de los ECGs, y determinar puntos concretos que determinan la patología en lugar de segmentos de la señal. Para ello se ha utilizado una BBDD de electrocardiogramas y se ha determinado mediante un algoritmo, los puntos de la señal que determinan la patología. Se ha aplicado a la patología de bloqueos de rama y los puntos obtenidos con el algoritmo se han utilizado para el diseño de un clasificador automático basado en redes neuronales artificiales, obteniendo un coeficiente de sensibilidad del 100% y de especificad del 99.24%, demostrando su validez para el diseño de sistemas expertos de clasificación.
Resumo:
El propósito general de esta tesis doctoral fue el de ampliar el conocimiento acerca del papel que la Inteligencia Emocional (IE) desempeña en la explicación de las conductas agresivas. Para ello, se plantearon 4 estudios, cuyos resultados, de forma general, han arrojado evidencias de la existencia de una relación negativa entre IE y agresión, es decir, las personas que presentan dificultades para percibir, usar, comprender y regular sus emociones y la de los demás, muestran una mayor incidencia en el uso de comportamientos agresivos que aquellas personas con mayores niveles de IE. En el primer estudio, el objetivo fue revisar de forma sistemática la literatura que se ha centrado en analizar las relaciones entre IE y agresión. De esta revisión se obtuvo como resultado 19 trabajos empíricos que mostraban la existencia de una asociación negativa entre la IE y la realización de conductas agresiva consistente en muestras de diferentes edades y contextos culturales y parece independiente del tipo de agresión estudiada. Teniendo en cuenta la literatura revisada en el primer trabajo, el objetivo del segundo estudio fue ampliar esta línea de investigación centrándonos en la relación de la agresión y la IE como habilidad. Para ello se realizaron dos subestudios. En el primer subestudio exploramos la relación entre IEH y agresión en adultos a nivel transversal y analizamos la validez incremental de la IEH sobre los factores de personalidad en la explicación de conductas agresivas de tipo físico y verbal. En el segundo trabajo, nuestros objetivos fueron corroborar los resultados encontrados en el subestudio 1 en una muestra de población adolescente y analizar la relación temporal entre ambas variables en un estudio longitudinal. Los resultados obtenidos en ambos subestudios muestran de forma consistente una clara relación entre la IEH y la agresión física, y una asociación más débil en el caso de la agresión verbal. La finalidad del tercer estudio fue la adaptación al español de una medida de agresión y de variables emocionales asociadas a la conducta agresiva, con el fin de que el uso de esta escala posibilite el avance en este campo de estudio. Por último, el propósito del cuarto estudio fue profundizar en el conocimiento sobre la relación entre IEH y agresión. Para ello, en primer lugar, se apotaron datos preliminares acerca de la asociación entre variables que no han sido estudiadas hasta la fecha, como la relación entre IEH y agresión indirecta, y entre IEH y rumiación de la ira. En segundo lugar, se ha examinando el mecanismo a través del cual las habilidades emocionales ejercen su papel sobre las conductas agresivas, analizando el papel mediador de la rumiación de la ira en esta relación. En conjunto, los cuatro trabajos presentados añaden evidencias sobre la existencia de una relación negativa entre IEH y agresión.