18 resultados para TFG
em Universidade Complutense de Madrid
Resumo:
En el presente trabajo se analizan los distintos aspectos de una previsión normativa de especial relevancia dentro del ordenamiento jurídico español como es la responsabilidad concursal. La importancia de la norma como mecanismo de protección tanto de acreedores como del tráfico jurídico, la controversia acerca de determinados aspectos de la misma y la novedad que supuso la inclusión de la misma en la Ley Concursal de 2003 justifican la exégesis del precepto en pos de una mejor comprensión y aplicación del mismo.
Resumo:
En estos últimos años la curiosidad por el sector informático, y más específicamente en la programación, ha producido una gran demanda por los interesados en estas áreas. Esto ha provocado que el número de tutoriales y entrenadores haya aumentado de una forma considerable. Debido a esta gran demanda, ha surgido la idea de desarrollar una herramienta con la que poder gestionar tutoriales de programación con una aplicación de escritorio. La finalidad de este proyecto es poder crear tutoriales interactivos que permitan a los alumnos adquirir conocimientos de una forma sencilla y atractiva. Esto se consigue mediante la posibilidad de enriquecer el formato del texto al mostrar las explicaciones o los enunciados de las preguntas y añadir imágenes. Para evitar que sea un tutorial de sólo lectura, que resulta poco atractivo y no permite al estudiante evaluar los conocimientos adquiridos, con esta herramienta se podrán intercalar preguntas entre la teoría para enganchar más al alumno, y conseguir que el aprendizaje sea muy incremental, para no tener una cantidad abrumadora de información en poco tiempo. Con estos tutoriales el alumno podrá comprobar los conocimientos adquiridos gracias al seguimiento continuo. El estudiante, según lea la teoría y realice los ejercicios con grado de dificultad creciente, tendrá más capacidad para resolver ejercicios nuevos y prepararse para continuar el tutorial. El resultado de este proyecto ha sido una herramienta multiplataforma y con licencia abierta MIT, que puede ser descargada de https://github.com/Kherdu/TFG.
Resumo:
Hoy en día la tecnología no tiene nada que ver con la de hace unos años. En estos tiempos todo está informatizado, desde fábricas enteras, hasta tu propia casa, pero resulta curioso que algo tan sencillo como es un sistema de gestión de notas de evaluación continua nunca cuente con la atención total del alumno. Los alumnos consultan su nota de evaluación continua cuando ya ha acabado el curso y ven la nota final de la asignatura, pero la gran mayoría no hace un seguimiento con ninguna herramienta para ver su nota de participación en clase día a día. Por otra parte, desde el punto de vista del profesor, en clases grandes como ocurre en las universidades, es mucha carga de trabajo para el profesor llevar a cabo tareas diarias para tantos alumnos y gestionar sus notas día a día. En este proyecto se ha desarrollado una aplicación para la gestión de los positivos de una asignatura. El profesor, que previamente se ha tenido que dar de alta en una asignatura en la web, imprime códigos de registro en formato PDF que contiene un código QR con una cadena de números que pertenece a la asignatura para que los alumnos puedan escanear dicho código y darse de alta en la asignatura. Luego, el alumno debe escanear el código QR para darse de alta en dicha asignatura, para que más tarde pueda escanear los positivos conseguidos en clase. La aplicación se divide en dos partes: una web y una aplicación móvil. La web es desde dónde el profesor puede gestionar todas sus asignaturas y puede imprimir todos los códigos que desee repartir. La propia web se encarga de realizar las estadísticas, que es un apartado que pueden ver tanto alumnos (sólo viendo su nombre frente al resto) como profesores (viendo los positivos generales con todos los nombres). Dichas estadísticas sirven para llevar el seguimiento a lo largo del curso de la asignatura según los alumnos vayan escaneando positivos. También se pueden dar de alta grupos que auto gestionan los alumnos. La aplicación móvil, es donde el alumno gestiona sus positivos frente a otros alumnos de manera privada viendo un ranking y su posición frente al resto de alumnos. Puede también escanear códigos para sumar más positivos y tener la mayor nota. También pueden puntuar desde la propia aplicación a sus compañeros del mismo grupo quitándole trabajo al profesor. Se concluye por tanto que la aplicación creada en este TFG es una herramienta tan útil para profesores como para alumnos, ya que los profesores no tienen tanta carga de trabajo y pueden hacer un fácil seguimiento al alumno que asiste a sus clases, mientras que el alumno que use la aplicación podrá ver su participación en clase y podrá ver si lleva una buena nota de evaluación continua o por el contrario no está participando tanto como el resto.
Resumo:
Este trabajo presenta el desarrollo de una aplicación destinada al análisis de secuencias de imágenes para la detección de movimiento en la escena. Se trata de un campo importante de la Visión Artificial, con múltiples aplicaciones entre las que se encuentra la videovigilancia con fines de seguridad, el control de tráfico, el movimiento de personas o el seguimiento y localización de objetos entre otras muchas. Para ello se utilizan métodos de análisis como son el de Lucas-Kanade y Gauss-Seidel, que obtienen el denominado flujo óptico. Este describe el movimiento que ha tenido lugar entre las imágenes y su fundamento estriba en la determinación de las variables espaciales y temporales en las imágenes, siendo precisamente la variable temporal la que introduce el concepto fundamental para el análisis del movimiento a partir de las imágenes captadas en diferentes instantes de tiempo dentro de la secuencia analizada. Para el desarrollo de la aplicación se han utilizado técnicas propias del tratamiento de la Visión Artificial, así como la metodología proporcionada por la Ingeniería del Software. Así, se ha realizado una especificación de requisitos, se ha elaborado y seguido un plan de proyecto y se ha realizado un análisis de alto nivel, que se materializa en el correspondiente diseño e implementación, junto con las pruebas de verificación y validación, obviamente adaptados en todos los casos a las dimensiones del proyecto, pero que establecen claramente los planteamientos básicos para el desarrollo de una aplicación a nivel empresarial. La aplicación planteada se enmarca perfectamente dentro del paradigma, hoy en día en pleno auge, conocido como el Internet de las Cosas (IoT). El IoT permite la intercomunicación entre dispositivos remotos, de forma que mediante la correspondiente comunicación a través de conexiones a Internet es posible obtener datos remotos para su posterior análisis, bien en nodos locales o en la nube, como concepto íntimamente relacionado con el IoT. Este es el caso de la aplicación que se presenta, de suerte que los métodos de procesamiento de las imágenes pueden aplicarse localmente o bien transmitir las mismas para su procesamiento en nodos remotos.
Resumo:
En los últimos años hemos sido testigos de la expansión del paradigma big data a una velocidad vertiginosa. Los cambios en este campo, nos permiten ampliar las áreas a tratar; lo que a su vez implica una mayor complejidad de los sistemas software asociados a estas tareas, como sucede en sistemas de monitorización o en el Internet de las Cosas (Internet of Things). Asimismo, la necesidad de implementar programas cada vez robustos y eficientes, es decir, que permitan el cómputo de datos a mayor velocidad y de los se obtengan información relevante, ahorrando costes y tiempo, ha propiciado la necesidad cada vez mayor de herramientas que permitan evaluar estos programas. En este contexto, el presente proyecto se centra en extender la herramienta sscheck. Sscheck permite la generación de casos de prueba basados en propiedades de programas escritos en Spark y Spark Streaming. Estos lenguajes forman parte de un mismo marco de código abierto para la computación distribuida en clúster. Dado que las pruebas basadas en propiedades generan datos aleatorios, es difícil reproducir los problemas encontrados en una cierta sesion; por ello, la extensión se centrará en cargar y guardar casos de test en disco mediante el muestreo de datos desde colecciones mayores.
Resumo:
El póker en todas sus modalidades, tanto presenciales como online, lleva mucho tiempo siendo uno de los juegos de apuestas y azar más jugados del mundo. Dentro de los diferentes tipos de partidas de póker (Omaha, NLHE, PLHE, etc.) el más jugado es el NLHE, sobre el cual se va a desarrollar estetrabajo de fin de grado; particularmente la versión online de la aplicación PokerStars. Existen herramientas para recoger información de estas partidas (PokerTracker, Holdem Manager), pero de la persona que los maneje depende saber el uso de los datos que nos dan estas herramientas, además de la información de las tablas de rangos de autores como Janda (Janda, 2013), o la clasificación de manos de Sklansky-Chubukov (Muñoz, 2009). Con este trabajo queremos dar un apoyo a las personas que se inicien en el mundo del póker a tomar decisiones acertadas aunque no sean óptimas contra todos los jugadores. Algunos jugadores jugaran peor que la óptima y serán objetivos para ser “explotados” y así aumentar nuestro beneficio. Para saber cuáles son estos jugadores explotables, usaremos los datos que nos proporciona la herramienta PokerTracker 4. A la hora de obtener los datos en el momento de la jugada hemos preparado un reconocedor de imágenes adaptado a PokerStars para recoger los datos que hay en la pantalla en el momento de nuestro turno y así decidir lo que debemos hacer. También se ha implementado un entrenador de jugadas para aprender qué hacer frente a unas jugadas, que utiliza unos datos introducidos por el usuario o generados aleatoriamente, y dentro de las aleatorias se pueden simplificar para jugadores noveles a dos de las situaciones más comunes: Open Raise y 3-bet.
Resumo:
Hoy en día la mayor parte de los sensores de energía IoT (Internet of Things) están orientados a la medida de corriente alterna (AC). No son aptos para monitorizar equipos que no estén conectados a la red eléctrica (baterías, paneles fotovoltaicos, etc.) o que formen parte de otros equipos más grandes y que estén situados detrás del transformador (ej. aceleradores de cómputo en supercomputadores). El presente trabajo tiene como objetivo principal construir un sistema, con una instalación sencilla y reducida, que permita la monitorización de consumo de dispositivos conectados a corriente continua. Toda la información recogida será mostrada a través de una interfaz web, que nos permitirá observar los cambios en el consumo en tiempo real con un intervalo de actualización especificado por el usuario. Además el sistema será robusto, con bajo coste de implementación y permitirá una alta escalabilidad, ya que el objetivo del proyecto es que sea escalable a nivel de centro de datos o institución.
Resumo:
Las comunidades colaborativas, donde grandes cantidades de personas colaboran para la producción de recursos compartidos (e.g. Github, Wikipedia, OpenStreetMap, Arduino, StackOverflow) están extendiéndose progresivamente a multitud de campos. No obstante, es complicado comprender cómo funcionan y evolucionan. ¿Qué tipos de usuarios son más activos en Wikia? ¿Cómo ha evolucionado el número de wikis activas en los últimos años? ¿Qué perfil de actividad presentan la mayor parte de colaboradores de Wikia? ¿Son más activos los hombres o las mujeres en la Wikipedia? En los proyectos de Github, ¿el esfuerzo de programación (y frecuencia de commits) se distribuye de forma homogénea a lo largo del tiempo o suele estar concentrado? Estas comunidades, típicamente online, dejan registrada su actividad en grandes bases de datos, muchas de ellas disponibles públicamente. Sin embargo, el ciudadano de a pie no tiene ni las herramientas ni el conocimiento necesario para sacar conclusiones de esos datos. En este TFG desarrollamos una herramienta de análisis exploratorio y visualización de datos de la plataforma Wikia, sitio web colaborativo que permite la creación, edición y modificación del contenido y estructura de miles de páginas web de tipo enciclopedia basadas en la tecnología wiki. Nuestro objetivo es que esta aplicación web sea usable por cualquiera y que no requiera que el usuario sea un experto en Big Data para poder visualizar las gráficas de evolución o distribuciones del comportamiento interno de la comunidad, pudiendo modificar algunos de sus parámetros y visualizando cómo cambian. Como resultado de este trabajo se ha desarrollado una primera versión de la aplicación disponible en GitHub1 y en http://chartsup.esy.es/
Resumo:
Los juegos serios (o videojuegos educativos), se consideran una herramienta importante para la educación en el futuro. Por ello, se está invirtiendo mucho esfuerzo en el análisis de su corrección e idoneidad para alcanzar los objetivos educativos pretendidos. El campo de análisis de aprendizaje con juegos pretende proporcionar herramientas que verifiquen estas características mejorando la calidad y efectividad de los juegos serios. Para ello, se necesitan normalmente tres etapas: 1), monitorizar los datos de la interacción del jugador con el juego; 2), analizar esos datos recolectados; y 3), visualizar los resultados. En este contexto, hay algunos asuntos importantes a considerar: nivel de conocimiento del juego, receptor de las visualizaciones finales o cantidad y complejidad de los datos. Estas ideas se ponen en práctica con dos ejemplos de juegos serios centrándonos en las dos últimas etapas del proceso. Se realizan varios análisis y visualizaciones con ellos considerando los diferentes aspectos antes mencionados. Entre las conclusiones que se pueden extraer, destaca que, a pesar de haber algunos aspectos aún por mejorar, el análisis de aprendizaje con juegos es una herramienta esencial para muchos usuarios con una amplia variedad de intereses en juego serios.
Resumo:
El flujo óptico y la estimación de movimiento es área de conocimiento muy importante usado en otros campos del conocimiento como el de la seguridad o el de la bioinformática. En estos sectores, se demandan aplicaciones de flujo óptico que realicen actividades muy importantes con tiempos de ejecución lo más bajos posibles, llegando a tiempo real si es posible. Debido a la gran complejidad de cálculos que siguen a este tipo de algoritmos como se observará en la sección de resultados, la aceleración de estos es una parte vital para dar soporte y conseguir ese tiempo real tan buscado. Por lo que planteamos como objetivo para este TFG la aceleración de este tipo de algoritmos mediante diversos tipos de aceleradores usando OpenCL y de paso demostrar que OpenCL es una buena herramienta que permite códigos paralelizados con un gran Speedup a la par que funcionar en toda una diversa gama de dispositivos tan distintos como un GPU y una FPGA. Para lo anteriormente mencionado trataremos de desarrollar un código para cada algoritmo y optimizarlo de forma no especifica a una plataforma para posteriormente ejecutarlo sobre las diversas plataformas y medir tiempos y error para cada algoritmo. Para el desarrollo de este proyecto partimos de la teoría de dos algoritmos ya existentes: Lucas&Kanade monoescala y el Horn&Schunck. Además, usaremos estímulos para estos algoritmos muy aceptados por la comunidad como pueden ser el RubberWhale o los Grove, los cuales nos ayudarán a establecer la corrección de estos algoritmos y analizar su precisión, dando así un estudio referencia para saber cual escoger.
Resumo:
Durante el desarrollo del proyecto he aprendido sobre Big Data, Android y MongoDB mientras que ayudaba a desarrollar un sistema para la predicción de las crisis del trastorno bipolar mediante el análisis masivo de información de diversas fuentes. En concreto hice una parte teórica sobre bases de datos NoSQL, Streaming Spark y Redes Neuronales y después diseñé y configuré una base de datos MongoDB para el proyecto del trastorno bipolar. También aprendí sobre Android y diseñé y desarrollé una aplicación de móvil en Android para recoger datos para usarlos como entrada en el sistema de predicción de crisis. Una vez terminado el desarrollo de la aplicación también llevé a cabo una evaluación con usuarios.
Resumo:
El 27 de octubre de 2015, el Juzgado Central de Instrucción número tres de la Audiencia Nacional (AN), procesó a cinco dirigentes etarras a los que considera responsables de un delito de lesa humanidad tipificado en el artículo 607 bis del vigente CP, en concurso real con delitos de asesinato. La causa se centra en los atentados mortales perpetrados por ETA a partir del 1 de octubre de 2004, fecha en la que se introdujo el delito de lesa humanidad en el CP español. En este trabajo se analizan los conceptos de terrorismo y delitos de lesa humanidad, con la finalidad de intentar aclarar la controversia suscitada, centrándose principalmente en establecer si los atentados cometidos por la banda terrorista ETA pueden tipificarse como delitos de lesa humanidad, y en caso afirmativo, desde qué fecha. Además contiene un apartado dedicado a las víctimas, que incluye una entrevista realizada a D. Daniel Portero de la Torre, presidente de la Asociación “Dignidad y Justicia”.
Resumo:
Se presenta el protocolo a seguir para una correcta evaluación del Trabajo Fin de Grado (TFG). Este diseño aglutina el análisis y reflexión de la experiencia realizada en este tema por diferentes universidades internacionales y nacionales en distintos foros y jornadas científicas de innovación docente. Se busca establecer una serie de pasos a seguir por los estudiantes que favorezcan su total autonomía en la realización, seguimiento y evaluación. Este proceso se establece a través de la total participación activa de los estudiantes. Los estudiantes tienen que ser autónomos en la realización de su trabajo y desafortunadamente tienen la dificultad de no contar con estructuras o procesos ordenados que les guíen en ello. Estas circunstancias nos han llevado a la configuración de un protocolo o proceso estructurado de pautas que los estudiantes deben cumplir de forma rigurosa. Este protocolo permite la redacción y adecuada elaboración de un trabajo académico, mediante la utilización de los requisitos establecidos y el respeto a los controles de calidad fijados previamente. Por último, se ha revisado la literatura científica sobre protocolos de evaluación utilizados de TFGs en diferentes universidades del área social y jurídica.
Resumo:
Un sueño escaso o de mala calidad puede tener repercusiones negativas en la vida diaria. Si esta situación se prolonga en el tiempo, puede afectar al estado de ánimo e interferir en el trabajo y la vida social de una persona. Son muchos los factores que determinan la calidad del sueño. No es suficiente con dormir, sino que hay que dormir bien para que el sueño sea realmente reparador y se pueda uno levantar descansado y con energía. Muchos aspectos como la actividad física, las comidas y bebidas, los horarios, pueden alterar la calidad del sueño o generar dificultades para conciliarlo por lo que en los últimos años han salido al mercado varios dispositivos y aplicaciones cuantificadoras que ayudan a monitorizar el sueño. Existen dispositivos que solamente registran el movimiento y la temperatura corporal y aun así generan una gran cantidad de datos. Debido a esto, la información producida puede no ser fácilmente interpretable. En este proyecto usamos un dispositivo de monitorización que ofrece más información (como temperatura y flujo térmico) por lo que queremos mejorar la interpretabilidad de los datos que se generan para ayudar a facilitar el trabajo de los médicos que las utilizan con sus pacientes intentando descubrir trastornos metabólicos. Se aspira a simplificar el trabajo manual que ahora se realiza intentando que sea más automático. Para ello, en este proyecto se utilizan técnicas de minería de datos en series temporales que permiten hacer un análisis exploratorio de los datos y agrupar la información de forma que los resultados se muestren de una forma resumida y concreta y que pueda ser percibida de un vistazo. Utilizando estas técnicas creamos una aplicación que obtiene series temporales de los datos particionadas en distintos tipos de episodios, centrándonos en episodios de sueño y de actividad física, clasificando los episodios de sueño por su similitud y presentando un resumen de la actividad del paciente a lo largo de toda la monitorización.
Resumo:
La educación es el pilar fundamental de los sistemas de aprendizaje en la sociedad moderna. Numerosos estudios alrededor del mundo se centran en buscar nuevas alternativas para complementar los sistemas educativos con experiencias cada vez más amenas e interactivas para los alumnos, con el objetivo de mantener su interés y a la vez facilitar el trabajo de los docentes. Para ello se utilizan y desarrollan técnicas cada vez más innovadoras que han demostrado resultados positivos en la formación académica de las nuevas generaciones. Las Microanotaciones son una herramienta que, orientada a entornos educativos, ofrecen la oportunidad de expresar en pocos caracteres una idea. La Gamificación busca convertir el aprendizaje en un juego, basándose en el reconocimiento del progreso usando premios (trofeo y medallas) por la realización de acciones concretas que demuestren los conocimientos y formación adquiridos. Ambas técnicas han demostrado su fiabilidad y alto potencial para la formación académica como herramientas de aprendizaje pero trabajándose por separado en diferentes plataformas e investigaciones. Se considera que Microblogging y Gamificación podrían ser herramientas fusionables para ofrecer servicios de formación e interacción académica, asegurando que se dará el servicio dentro de parámetros aceptables de desempeño.