21 resultados para Trabajo de fin de grado
em Universidade Complutense de Madrid
Resumo:
Se presenta el protocolo a seguir para una correcta evaluación del Trabajo Fin de Grado (TFG). Este diseño aglutina el análisis y reflexión de la experiencia realizada en este tema por diferentes universidades internacionales y nacionales en distintos foros y jornadas científicas de innovación docente. Se busca establecer una serie de pasos a seguir por los estudiantes que favorezcan su total autonomía en la realización, seguimiento y evaluación. Este proceso se establece a través de la total participación activa de los estudiantes. Los estudiantes tienen que ser autónomos en la realización de su trabajo y desafortunadamente tienen la dificultad de no contar con estructuras o procesos ordenados que les guíen en ello. Estas circunstancias nos han llevado a la configuración de un protocolo o proceso estructurado de pautas que los estudiantes deben cumplir de forma rigurosa. Este protocolo permite la redacción y adecuada elaboración de un trabajo académico, mediante la utilización de los requisitos establecidos y el respeto a los controles de calidad fijados previamente. Por último, se ha revisado la literatura científica sobre protocolos de evaluación utilizados de TFGs en diferentes universidades del área social y jurídica.
Resumo:
Actualmente vivimos en una época de cambios en la que podemos ver como las tecnologías están presentes en todos lo ámbitos de nuestra vida y cada día avanzan más rápido. Es por eso que el objetivo principal de este trabajo de fin de grado es una propuesta para la innovación educativa, en colaboración con la Universidad Autónoma de Madrid, de actualizar la educación a los tiempos que corren, de utilizar las tecnologías que tenemos a nuestra disposición para facilitar tanto a profesores como a alumnos la labor de enseñanza y aprendizaje. Este proyecto es de nueva creación y se propone la creación de una plataforma móvil que incorpore información creada por los propios alumnos, para que puedan, estudiar o repasar contenidos vistos en clase directamente en sus propios móviles. Para ello se van a utilizar herramientas de desarrollo de aplicaciones móviles, en nuestro caso Android Studio. Como propósito se encuentra el crear una aplicación que sea funcional en la mayoría de los dispositivos actuales, y que por lo tanto no requiera de unas altas especificaciones para su correcto funcionamiento, ni tenga requerimientos excesivos de memoria y batería. También se ha diseñado una plataforma web a través del cual los usuario incluyan su propia información. Se propone estudiar también como los alumnos aceptan este tipo de propuesta.
Resumo:
A lo largo de la historia, nuestro planeta ha atravesado numerosas y diferentes etapas. Sin embargo, desde finales del cretácico no se vivía un cambio tan rápido como el actual. Y a la cabeza del cambio, nosotros, el ser humano. De igual manera que somos la causa, debemos ser también la solución, y el análisis a gran escala de la tierra está siendo un punto de interés para la comunidad científica en los últimos años. Prueba de ello es que, cada vez con más frecuencia, se lanzan gran cantidad de satélites cuya finalidad es el análisis, mediante fotografías, de la superficie terrestre. Una de las técnicas más versátiles para este análisis es la toma de imágenes hiperespectrales, donde no solo se captura el espectro visible, sino numerosas longitudes de onda. Suponen, eso sí un reto tecnológico, pues los sensores consumen más energía y las imágenes más memoria, ambos recursos escasos en el espacio. Dado que el análisis se hace en tierra firme, es importante una transmisión de datos eficaz y rápida. Por ello creemos que la compresión en tiempo real mediante FPGAs es la solución idónea, combinando un bajo consumo con una alta tasa de compresión, posibilitando el análisis ininterrumpido del astro en el que vivimos. En este trabajo de fin de grado se ha realizado una implementación sobre FPGA, utilizando VHDL, del estándar CCSDS 123. Este está diseñado para la compresión sin pérdida de imágenes hiperespectrales, y permite una amplia gama de configuraciones para adaptarse de manera óptima a cualquier tipo de imagen. Se ha comprobado exitosamente la validez de la implementación comparando los resultados obtenidos con otras implementaciones (software) existentes. Las principales ventajas que presentamos aquí es que se posibilita la compresión en tiempo real, obteniendo además un rendimiento energético muy prometedor. Estos resultados mejoran notablemente los de una implementación software del algoritmo, y permitirán la compresión de las imágenes a bordo de los satélites que las toman.
Resumo:
La gestión de un archivo fotográfico es un tema complejo, sobre todo en lo que se refiere a su conservación, ya que son muchos los factores que pueden llegar a influir en la preservación de una colección de estas características. Todos estos aspectos quedan reflejados en este trabajo, en el que se lleva a cabo el estudio de la colección de 3.000 placas de linterna de Eduardo Hernández-Pacheco, almacenada en dos archivadores de madera, y que actualmente se encuentra en la Biblioteca Histórica del Marqués de Valdecilla. En la revisión del estado de conservación, y dada la magnitud de la colección, se ha seleccionado un conjunto de 100 placas de linterna, recogiendo los datos obtenidos en una serie de gráficas y tablas que muestran de una forma visual y resumida el estudio realizado, todo ello a su vez acompañado de documentación fotográfica. Atendiendo a la variedad de estratos que conforman las placas de linterna, es fundamental realizar un análisis en profundidad de la tecnología de manufactura y el comportamiento de cada uno de los materiales constitutivos, ya que todo ello se debe tener en cuenta en la elaboración de la propuesta de conservación y restauración. Sin embargo, es la relación que con el paso del tiempo se establece entre el sistema de almacenaje y las fotografías donde radica la complejidad de este proyecto. Los archivadores de madera que conservan la colección desde el principio y que irremediablemente aportan a la misma un sentido de unidad y conjunto, en este caso, se ponen en entredicho por su falta de conveniencia para la conservación de las placas. Este estudio fue presentado por la autora como Trabajo de Fin de Grado de Conservación y Restauración del Patrimonio Cultural de la UCM, siendo tutora del mismo Silvia García Fernández-Villa.
Resumo:
El siguiente trabajo versará sobre la propuesta de intervención de dos encuadernaciones históricas de diferente tipología del fondo de patrimonio documental de la Biblioteca Histórica Marqués de Valdecilla de la Universidad Complutense de Madrid. Se realizará un estudio documental y un análisis detallado del estado de conservación para elaborar una propuesta de intervención ciñéndose a los criterios de metodología e intervención actuales, seguidos a nivel tanto nacional como internacional por las diferentes instituciones y recomendaciones. El proyecto se reforzará con la creación de una base de datos, que contendrá toda la información referente a las obras. También se realizará la virtualización en 3D de las encuadernaciones a partir de la técnica de la fotogrametría para poder visualizarlas desde todos sus puntos de vista, dando así una puesta en valor a las nuevas tecnologías aplicadas a la conservación y restauración. Junto con lo antes mencionado, se indicarán unas recomendaciones de conservación preventiva apropiadas, tanto para su correcta manipulación como para su almacenaje y posible exposición. Se incluirán al final del documento varios anexos con información adicional necesaria para la correcta comprensión del trabajo. El estudio fue presentado por la autora como Trabajo de Fin de Grado en los estudios de Conservación y Restauración del Patrimonio Cultural de la UCM, siendo tutora del mismo María José García Molina.
Resumo:
El objetivo de este Trabajo de Fin de Grado es la creación de un software para la comunicación de personas con discapacidad exclusivamente motriz, incluyendo el habla, pero sin tener afectada la cognición; concretamente va dirigido a un niño que padece una parálisis cerebral. Dicho software se ha desarrollado en dos programas separados. El primero es un software de seguimiento de pupila basado en la tecnología de EyeTracking, para lo que se usa un ratón de mirada proporcionado por un programa ya existente. La aportación en este apartado ha sido crear una interfaz, como capa superior, mediante botones que ejecutan las acciones correspondientes a seleccionar el método de comunicación y las opciones correspondientes a cada método que ofrece el sistema. Nuestro niño, Moisés, sufre disponía, lo que implica fluctuación ene el tono muscular, unas veces hipertónico y otras hipotónico en distintas partes de su cuerpo, afectándole a la sujeción de la cabeza. Por ese motivo se ha desarrollado un segundo programa que funciona con ratón y teclado, al cual se le ha añadido un pulsador. Incluye un menú para seleccionar distintas formas de comunicación. Las opciones de este menú se le ofrecen al usuario de forma secuencial ya que solo podrá comunicarse con el sistemas mediante clicks de ratón o pulsaciones de teclado. En España la empresa Vía Libre de la fundación ONCE vende materiales ortopédicos y de comunicación, todos con licencia de uso, como el usado por Stephen Hawking, no asequibles a familias que ya tienen gastos en sillas, adaptadores, y material ortopédico. Este segundo programa ha sido probado y modificado según las principales necesidades de comunicación de Moisés, es de código abierto y puede ser descargable desde https://sourceforge.net/p/clickspeak/
Resumo:
La industria del videojuego ha avanzado a grandes pasos durante los últimos años respecto a la creación de "inteligencia artificial" para sus personajes, afirmando siempre que la utilizan para dotar de realismo y credibilidad a sus personajes. Sin embargo este concepto ha variado sustancialmente año tras año, y aún hoy, la inteligencia que encontramos en los personajes está lejos de lo que uno podría esperar de ello, incluso lejos de lo ya estudiado y conocido en la correspondiente disciplina académica. En el afán por desarrollar personajes que sean realmente autónomos y tomen sus propias decisiones tras razonar acerca de lo que ocurre en el juego, en este trabajo porponemos un sistema capaz de dotar de control autónomo a los personajes de un videojuego y con potencial para mostrar una mayor inteligencia. Para ello conectamos un armazón de desarrollo de videojuegos llamado IsoUnity, desarrollado sobre el entorno Unity, con un sistema multi-agente llamado Jason e implementado en Java, que utiliza el conocido modelo cognitivo Creencia-Deseo-Intención para representar el estado interno de la mente de los agentes, que en nuestro caso serán personajes de videojuego. A la hora de producir un videojuego, se implementa mediante un sistema de agentes inteligentes, con información subjetiva sobre el mundo, objetivos y planes y tareas que realizar, el jugador tendrá una experiencia más plena. Nuestra visión es la de adoptar este sistema en el desarrollo de videojuegos independientes de perspectiva isométrica y recursos sencillos de estilo retro, de ahí el uso de IsoUnity. En esta memoria, además de explicar en detalle nuestro sistema de control, documentamos las pruebas y las adaptaciones que proponemos para llevar a la práctica este concepto, sentando las bases tecnológicas para producir un videojuego completo utilizando este sistema. Siguiendo el camino iniciado en anteriores Trabajos de Fin de Grado de esta Facultad, queríamos continuar en esa línea de trabajo afinando más el concepto y abordando un tema nuevo, el de dotar a los personajes de videojuegos creados con IsoUnity de una autonomía mayor y mejores herramientas de toma de decisión para poder interactuar con su entorno y con otros personajes.
Resumo:
El póker en todas sus modalidades, tanto presenciales como online, lleva mucho tiempo siendo uno de los juegos de apuestas y azar más jugados del mundo. Dentro de los diferentes tipos de partidas de póker (Omaha, NLHE, PLHE, etc.) el más jugado es el NLHE, sobre el cual se va a desarrollar estetrabajo de fin de grado; particularmente la versión online de la aplicación PokerStars. Existen herramientas para recoger información de estas partidas (PokerTracker, Holdem Manager), pero de la persona que los maneje depende saber el uso de los datos que nos dan estas herramientas, además de la información de las tablas de rangos de autores como Janda (Janda, 2013), o la clasificación de manos de Sklansky-Chubukov (Muñoz, 2009). Con este trabajo queremos dar un apoyo a las personas que se inicien en el mundo del póker a tomar decisiones acertadas aunque no sean óptimas contra todos los jugadores. Algunos jugadores jugaran peor que la óptima y serán objetivos para ser “explotados” y así aumentar nuestro beneficio. Para saber cuáles son estos jugadores explotables, usaremos los datos que nos proporciona la herramienta PokerTracker 4. A la hora de obtener los datos en el momento de la jugada hemos preparado un reconocedor de imágenes adaptado a PokerStars para recoger los datos que hay en la pantalla en el momento de nuestro turno y así decidir lo que debemos hacer. También se ha implementado un entrenador de jugadas para aprender qué hacer frente a unas jugadas, que utiliza unos datos introducidos por el usuario o generados aleatoriamente, y dentro de las aleatorias se pueden simplificar para jugadores noveles a dos de las situaciones más comunes: Open Raise y 3-bet.
Resumo:
El estudio de las relaciones causales y su expresión lingüística ha sido comúnmente estudiado desde diferentes perspectivas en los años recientes. Sin embargo, pocos estudios han intentado combinar diferentes enfoques para establecer el significado de estas relaciones, y han investigado de manera contrastiva las señales usadas para expresarlas. Este trabajo de fin de master es un proyecto para avanzar el conocimiento en este área mediante la investigación de: a) la posibilidad de caracterizar las relaciones causales en diferentes tipos, usando características que combinan un enfoque funcional y cognitivo; b) los tipos de relaciones causales preferidas en los textos expositivos en inglés y sus traducciones al español; c) las expresiones lingüísticas preferidas para expresar dichas relaciones causales en los textos originales en inglés y sus traducciones al español. La metodología usada en esta investigación se basa en la anotación manual de un corpus bilingüe compuesto de un total de 37 textos expositivos (incluyendo los textos originales en inglés y sus traducciones al español) extraídos del corpus MULTINOT, un corpus de alta calidad, con registros diversificados y multifuncional bilingüe inglésespañol, actualmente compilado y anotado multidimensionalmente por los miembros del grupo de investigación FUNCAP con el proyecto MULTINOT (véase Lavid et al.2015) El estudio se llevó a cabo en cuatro pasos principales: primero, un esquema de anotación para las relaciones causales en inglés y español fue diseñado constando de tres sistemas interrelacionados y sus correspondientes características; tras ello, se compiló un inventario de señales para las relaciones causales en inglés y español, y una categorización en diferentes tipos; seguidamente, el esquema de anotación fue implementado en la herramienta UAM Corpus Tool y el conjunto de textos bilingües fue anotado por el autor de este estudio; finalmente, los datos extraídos de la anotación fueron analizados estadísticamente para comprobar las posibles diferencias entre los textos originales en inglés y sus traducciones al español respecto a la selección del tipo de relación de causa y sus señales. El análisis estadístico de los datos anotados sugiere que los tipos de relaciones de causa preferidos en los textos originales en inglés y son los tipos de contenido y no volitivos, que el orden de aparición de estos tipos de señales preferido es la segunda posición, y las señales más recurrentes usadas para expresar dichas relaciones son las conjunciones, seguidas de los sintagmas verbales. El análisis de las traducciones al español revela un alto grado de similitud con los datos de los textos originales en inglés, lo que sugiere que en las traducciones al español se conservan las preferencias de los textos originales en la mayoría de los casos y que estas elecciones pueden considerarse un indicativo de los textos expositivos en inglés. Proyectos futuros se centraran en el análisis de los textos originales en español para comprobar si las tendencias observadas en los textos originales en inglés y sus traducciones al español son también validas en textos originales en español, y en la especificación de patrones que puede ayudar al análisis automático de estas relaciones
Resumo:
Actualmente en internet se puede encontrar información y materiales prácticamente de cualquier tema. Sin embargo los avances para clasificar y medir la calidad de los materiales han sido mínimos y dispersos. Cualquiera puede crear un material y publicarlo, pero nadie asegura ni garantiza que ese material será accesible o si sus contenidos serán adecuados para el estudio. Esta situación hace que, aunque se disponga de un número inabarcable de materiales, sea complicado recuperar aquellos con una calidad mínima. Este problema general se agudiza en dominios de formación, como el universitario, donde los profesores crean y actualizan continuamente sus materiales educativos digitales sin ninguna orientación sobre los requisitos mínimos para que sus materiales no tengan problemas técnicos – como portabilidad y durabilidad-, didácticos –como la coherencia entre objetivos y destinatarios, y formato y diseño adecuados al estudio- y, de accesibilidad –como garantizar la perceptibilidad del contenido audiovisual y textual-. En este contexto, se ha creado una norma UNE de calidad de los materiales educativos. Tomando como base dicha nota se ha desarrollado una herramienta web que implementa la norma y facilita la evaluación de la calidad de un material educativo digital. En el presente trabajo fin de grado se presenta la herramienta desarrollada, sus principales características y funcionalidades desarrolladas.
Resumo:
Las I Jornadas de Jóvenes Investigadores en Arqueología fueron el fruto de una iniciativa, surgida en el seno de la Universidad Complutense de Madrid, por parte de un grupo de alumnos, pertenecientes al Máster de Arqueología del Mediterráneo en la Antigüedad Clásica, cuya intención era poder mostrar al mundo académico el resultado de sus investigaciones científicas, producidas como resultado de sus trabajos de fin de máster. Gracias al apoyo del doctor Jorge García Sánchez y al Departamento de Ciencias y Técnicas Historiográficas y de Arqueología, se pudieron realizar, en febrero de 2016, las I Jornadas de Jóvenes Investigadores en Arqueología, donde un nutrido grupo de noveles investigadores acudió a presentar los primeros resultados obtenidos tras la realización de sus trabajos de fin de grado o de máster y de tesis doctorales, siempre adscritos al ámbito de la Arqueología. En un mundo académico donde los más jóvenes no tienen, apenas, posibilidad de compartir el resultado de su esfuerzo investigador, hemos querido brindarles un pequeño espacio donde su voz pueda ser escuchada, siendo el origen de nuestra iniciativa, la cual esperamos sea prolongada en el tiempo para dar cabida a todos aquellos que quieran compartir sus resultados. Nuestro principal interés es difundir todos los avances científicos producidos en la Arqueología, siempre desde un enfoque multidisciplinar donde veamos como colaboran investigadores de distintas disciplinas con el propósito de aumentar nuestros conocimientos en el ámbito arqueológico. Resultado de este interés han sido las I Jornadas de Jóvenes Investigadores en Arqueología, cuyo Libro de Actas os presentamos a continuación, y la creación de una Asociación (Jóvenes Investigadores en Arqueología: ¡Excavemos!), que tiene por principal objetivo el trabajo multidisciplinar y la promoción y difusión de los más jóvenes en el mundo investigador. Por ello, os invitamos a vosotros, apreciados lectores a formar parte de este nuevo proyecto, que nació con la realización de estas I Jornadas, y que esperamos tenga una fructífera proyección futura.
Resumo:
Las úlceras por presión (UPP) constituyen un importante problema de salud, que puede llegar a tener graves consecuencias para los pacientes ingresados en un hospital de cuidados agudos. En el año 2005 el Ministerio de Sanidad y Consumo en su Estudio Nacional sobre los Efectos Adversos ligados a la Hospitalización, identificó a las UPP, como un Efecto Adverso relacionado directamente con los cuidados de Enfermería. A partir de este estudio, las UPP se afianzan como indicadores de calidad de los cuidados que realiza el personal de enfermería. En nuestro País, el Grupo Nacional para el Estudio y Asesoramiento de las úlceras por presión y Heridas crónicas (GNEAUPP) recomienda la implantación de sistemas preventivos como estrategia fundamental para controlar las UPP, por considerar que son evitables hasta en un 95% de los casos. Para lograr la máxima eficiencia de las medidas de prevención de UPP, es imprescindible conseguir que el personal de enfermería, se conciencie de la importancia de aplicarlas. Dentro del Servicio Vasco de Salud-Osakidetza, en el año 2008 se implantó el Protocolo de prevención y cuidados de UPP en todas las organizaciones de servicios. En el presente trabajo se estudia el grado de cumplimiento de este protocolo de prevención y cuidados de UPP, en las unidades de medicina y cirugía de seis hospitales generales de cuidados agudos de este sistema de salud...
Resumo:
El cáncer es la segunda causa de muerte en niños y adolescentes. No obstante, las tasas de supervivencia son actualmente elevadas. Ante esta realidad, ha aumentado el interés por conocer los factores psicológicos asociados al ajuste psicológico a largo plazo y en la situación de recidiva del cáncer infanto-juvenil. Debido a la escasez de estudios sobre estos factores en el contexto brasileño, el objetivo de este trabajo fue comparar el grado de ajuste psicológico de niños/adolescentes brasileños aquejados de cáncer (en recaída y supervivientes) y sus cuidadores, con relación a un grupo control de niños/adolescentes sin historia de cáncer y sus familiares. Adicionalmente, se buscó analizar la asociación entre medidas de psicopatología y variables sociodemográficas, médicas, clima familiar y apoyo social recibido por los cuidadores. Las muestras se distribuyeron en tres grupos: el grupo 1 tenía 31 niños/adolescentes con recaída de cáncer y 32 padres/cuidadores; el grupo 2 estaba compuesto por 78 niños/adolescentes supervivientes y 75 padres/cuidadores; y el grupo 3 estaba formado por 71 niños/adolescentes sin historia conocida de cáncer y 76 padres/cuidadores. Los instrumentos de medida aplicados a los niños/adolescentes fueron las escalas BASC - autoinforme, RCMAS y la Escala de Autoconcepto Piers-Harris. En los padres/cuidadores se aplicaron las escalas BASC – informe de los padres, los inventarios Beck de ansiedad y depresión (BAI y BDI), el cuestionario SCL-90, el Cuestionario de Apoyo Social de Norbeck y la Escala de Clima Social en la Familia. Se analizaron los datos a partir de ANCOVAS, ANOVAS, pruebas de Kruskal-Wallis y correlaciones de Pearson y Spearman...
Resumo:
En el siguiente Trabajo de Fin de Máster se pone en práctica la Minería de Datos (Data Mining), llevando a cabo una investigación de CRM (Customer Relationship Management) en la cual se analizan los comportamientos de compra de los clientes de una empresa que comercializa solo por internet (online). Este negocio es de origen español y mediante estos análisis podremos saber principalmente cuántos tipos de clientes posee y cómo son sus hábitos de compra para poder clasificarlos. Para ello, utilizaremos la segmentación RFM (Recency, Frequency, Monetary) que la calcularemos mediante dos metodologías muy importantes que son el Método Convencional y el Método de las 2-Tuplas. En el primer método realizaremos una clasificación numérica mediante quintiles que se numerarán de 1 a 5 tanto para la Recencia, la Frecuencia y el Valor Monetario, con los que podremos determinar el comportamiento de compra de cada cliente. En el segundo método veremos otra clasificación de los clientes más precisa, más detallada y con la ventaja que ofrece un valor lingüístico para poder entender mejor a que cluster pertenece cada cliente. Finalmente, realizaremos unos análisis de clusters con el método de “K-medias” con diferentes segmentos (entre 5 y 7 segmentos) que nos permitirán distinguir cuántos tipos de clientes tiene este negocio y cómo son con respecto a su hábito de compra. Todo esto con el fin de dar respuesta a este negocio sobre cómo es el comportamiento de compra de cada cliente, cuáles son los más importantes, cuáles son los menos importantes, cuántos han dejado de comprar, etc.