58 resultados para COMPUTACIÓN
Resumo:
Drag & Drop es una aplicación web diseñada para la creación de problemas a partir de piezas, en la que al profesor se le plantea una nueva posibilidad de evaluar a sus alumnos. La aplicación web servirá como un entorno dedicado a la elaboración de preguntas y respuestas. Para responder a dichas preguntas, se proporcionan unos elementos llamados “piezas” al alumno que se encargará de utilizar para construir su respuesta. A su vez, el profesor al elaborar la pregunta establecerá la solución ideal del problema y el conjunto de “piezas” que los alumnos podrán utilizar para crear las suyas propias. El alumno al terminar la solución de un problema, la enviará al servidor. Este se encargará de evaluarla y comparar la solución del alumno con la solución ideal propuesta por el profesor.Finalmente el profesor será el encargado de examinar el ejercicio y ajustar la calificación, ya sea aceptando la que propone el sistema o indicando una propia.
Resumo:
Este trabajo fin de grado tiene como objetivo satisfacer la necesidad por parte del Club Deportivo de la Universidad de Málaga de disponer de una herramienta software que permita almacenar y gestionar información sobre las competiciones que se realizan en el club de una forma cómoda y rápida para así mejorar los procesos actuales de recogida y manipulación de los datos. Para lograr ese objetivo se ha desarrollado una aplicación para dispositivos móviles compatible con Windows Phone y Android para la gestión de eventos de atletismo de carácter general y con una licencia de software libre para que cualquier usuario tenga la libertad de usar y modificar la aplicación sin restricciones. Para el desarrollo de la aplicación se ha hecho uso de los conocimientos y técnicas aprendidas a lo largo de la carrera. En esta memoria se describe todo lo relacionado con el trabajo llevado a cabo para alcanzar los objetivos del proyecto; desde la fase inicial de requisitos hasta la fase de pruebas y validación del producto obtenido, incluyendo artefactos generados en el proceso de diseño y modelado.
Resumo:
La intención del proyecto es mostrar las diferentes características que ofrece Oracle en el campo de la minería de datos, con la finalidad de saber si puede ser una plataforma apta para la investigación y la educación en la universidad. En la primera parte del proyecto se estudia la aplicación “Oracle Data Miner” y como, mediante un flujo de trabajo visual e intuitivo, pueden aplicarse las distintas técnicas de minería (clasificación, regresión, clustering y asociación). Para mostrar la ejecución de estas técnicas se han usado dataset procedentes de la universidad de Irvine. Con ello se ha conseguido observar el comportamiento de los distintos algoritmos en situaciones reales. Para cada técnica se expone como evaluar su fiabilidad y como interpretar los resultados que se obtienen a partir de su aplicación. También se muestra la aplicación de las técnicas mediante el uso del lenguaje PL/SQL. Gracias a ello podemos integrar la minería de datos en nuestras aplicaciones de manera sencilla. En la segunda parte del proyecto, se ha elaborado un prototipo de una aplicación que utiliza la minería de datos, en concreto la clasificación para obtener el diagnóstico y la probabilidad de que un tumor de mama sea maligno o benigno, a partir de los resultados de una citología.
Resumo:
Preguntarse acerca de la influencia que la tecnología pueda tener en la mentalidad de la creación implica preguntarse acerca del pasado y del futuro de la creación. No es posible separar el desarrollo tecnológico del desarrollo de la creación, porque tanto la tecnología como la creación son actividades que caracterizan marcadamente al ser humano. En cierta medida, todo hombre crea y usa para ello la tecnología que encuentra a su alcance, a veces incluso como una caja negra, sin comprenderla verdaderamente. Recursivamente, uno de los productos distinguidos del proceso de creación es la tecnología. En líneas generales, la tecnología actúa sobre el significante. No actúa sobre los significados más que indirectamente. En el caso de la música, no es ella, ni tan sólo el sonido, el objeto directo de su actuación: por medio de las tecnologías que se han venido usando hasta ahora, únicamente se alteran las unidades materiales cuya organización, dado un cierto conjunto de características convergentes en una situación, posee una cierta significación. La música, el sonido, las imágenes, el arte, no existen más que como representaciones en algún cerebro, en algún sistema que los reconoce como tales. Ello no debe ser óbice para pensar que no existan: son tan reales como cualquier otro ente que podamos considerar, pero son fenómenos, no cosas. En cuanto a esas tecnologías que nos ocupan, quisiera destacar en primer lugar el hecho de que sus últimas contribuciones están estrechamente ligadas al uso de todo tipo de máquinas de computación digital, es decir, ordenadores digitales. Es importante tomar nota de ello porque la introducción de la discretización de las señales comporta capacidades de almacenamiento, manipulación y transporte jamás alcanzadas con anterioridad. Tal panorama tecnológico, sensiblemente más complejo de lo que aquí se esboza, evolucionará rápidamente hasta que la fibra óptica conecte un gran número de puntos distantes en el globo. Otro de los aspectos que al principio me proponía tratar, la dispersión geográfica de las actividades basadas en la aplicación de las tecnologías de la comunicación, está íntimamente relacionada con ello. Muchos Eventos Artísticos Basados en Telecomunicaciones (EABT) pueden producirse en áreas geográficas muy grandes y se diferencian de otras experiencias artísticas en que su percepción no puede ser global. La dispersión geográfica ocurre cuando un EABT se percibe o se genera de forma claramente parcial debido a las diferencias locales en lo que concierne a las posibilidades tecnológicas y a los canales por los que es transmitido. Piénsese, por ejemplo, en el caso de un EABT donde confluyen diversas contribuciones televisivas y radiofónicas cuya localización geográfica sea diseminada. Como cada emisión afecta a una zona que le es característica, la percepción del paisaje creado por ese EABT varía en función de la situación geográfica desde la que se pretende observar. La dispersión mediática ocurre en virtud de la confluencia de medios diferentes. Como todo tipo de imágenes visuales, acústicas, incluso cinestésicas, puede ser transmitido y reproducido a cualquier distancia para su posterior reelaboración, y como esas informaciones son esencialmente similares, la creación artística experimenta grandes facilidades especialmente en el hipermedio , ese lugar donde confluye gran número de medios de forma que, desde su terminal, cada elaborador de información puede acceder a informaciones procedentes de otros elaboradores, reelaborarlas, aunque 'a priori' no sean de su especialidad, y devolverlas nuevamente a su origen o mandarlas a un destino nuevo: el pensamiento se expresa al modificar la materia que le sirve de soporte y accede por esa vía al dominio de otros pensamientos. La creación -comportamiento, manifestación, síntoma, del pensamiento-, tradicionalmente se ha expresado a través de medios diversos, antiguamente estancos. La introducción de las nuevas tecnologías ha sido más o menos ardua en cada medio. En general, como las nuevas tecnologías son descendientes directos de la física y de las matemáticas, su relación con esos medios ha dependido de lo matematizable que cada uno haya sido a lo largo de su historia, amén de las dimensiones del reto tecnológico que la implementación de herramientas adecuadas supone. Ahora que los niveles de aplicación de la tecnología a los diversos medios está más equilibrada, la creación teleinformática tiende a expresarse a través de formas cada vez más híbridas. El efecto del incremento en la velocidad de intercambio de información en la creación parece claro: difícilmente los EABT podrán ser considerados como eventos cerrados sobre sí mismos. Se trata de procesos de comunicación globales en los que la creación toma parte y se automodifica. En realidad eso siempre ha ocurrido fuera del hipermedio y de las telecomunicaciones. La obra de un autor es un proceso artístico de comunicación, igual que las obras pertenecientes a un determinado estilo. La novedad está en que el ritmo del proceso por el que se produce el intercambio de información no ha sido nunca tan intenso como en este momento, en el que cabe esperar diferencias cualitativas. Sea dicho de paso que, como efecto colateral, el ruido informativo es creciente y se impone una maduración de las técnicas de selección, en el momento inicial de esta reflexión muy primitivas. Conferencia publicada por primera vez en Media-Culture. Claudia Giannetti, Ed. Ediciones L'Angelot.
Resumo:
La tecnología conocida como Microsoft Visual Studio Tools for Office (VSTO) ofrece la posibilidad de integrar Office con la plataforma .NET de forma que podamos implementar aplicaciones .NET con la apariencia de documentos de Microsoft Office. La utilización de la tecnología VSTO con hojas de cálculo para la creación de herramientas de simulación es un campo interesante por la familiaridad que las hojas de cálculo ofrecen a cualquier usuario. Cuando se desarrolla un complemento para un simulador, dicho complemento suele ser muy específico de un simulador concreto, por lo que los elementos desarrollados en estos proyectos no es posible reutilizarlos con otro simulador. Esta es la motivación que lleva a crear este proyecto: facilitar la creación de extensiones para Excel adaptables a distintos tipos de simulador, de manera que sea posible reutilizar las extensiones y sus elementos constituyentes.Para eso, se ha desarrollado un framework para la creación de extensiones Excel con VSTO que puedan ser fácilmente adaptables a diferentes tipos de simuladores. Los principales puntos que toca este framework son: - Elementos comunes a todo proyecto de simuladores. Se han ofrecido precargados un conjunto de elementos que son comunes en el desarrollo de estas aplicaciones, de manera que no sea necesario tener que implementarlos. - Definición de elementos de simulación, lo que se ha denominado en el framework controles. Se ha buscado reducir el coste de desarrollo y maximizar la reutilización. - Comunicación con los simuladores. Se ha definido e implementado una interfaz que permite la comunicación de las hojas Excel con los posibles motores de simulación. Se ha ofrecido esta interfaz en la interfaz ISimulatorService y se ha ofrecido también un cliente para comunicar con los simuladores de esta interfaz.
Resumo:
Este proyecto ha consistido en la realización de una aplicación web para cubrir una necesidad del centro universitario; la necesidad de gestionar los horarios y la asignación de aulas cada inicio de curso de una forma más automática de la que se usa en la actualidad. El objetivo principal ha sido que la aplicación fuera lo más intuitiva posible y que tenga una facilidad de uso que motivase su utilización. Para ello nos hemos decantado por una serie de características tanto visuales (distribución de la información, códigos de colores), como de uso (sistema de Drag&Drop). La aplicación tiene tres módulos principales: Un primer módulo para el manejo de los horarios, el cual nos permite la construcción de un horario para un grupo determinado evitando cualquier tipo de conflicto.El segundo módulo para la asignación de grupo a aulas, de forma que nos permite tener un control de los espacios del centro. El tercero y último, con una fuerte relación con el segundo, que en este caso se utiliza para asignar asignaturas optativas a aulas. Todo esto va acompañado por una variedad de páginas de información y de una vista administrativa para gestionar los datos necesarios para usar la aplicación. Una de las ventajas más importantes que tiene esta aplicación es la automatización a la hora de realizar todas las comprobaciones necesarias para hacer cualquier asignación. Debido a la envergadura del proyecto, optamos por realizar este proyecto conjuntamente entre tres personas para ser capaces de ofrecer un producto lo más completo posible sin salirnos de los límites de este trabajo de fin de grado.
Resumo:
En este documento se expondrá una implementación del problema del viajante de comercio usando una implementación personalizada de un mapa auto-organizado basándose en soluciones anteriores y adaptándolas a la arquitectura CUDA, haciendo a la vez una comparativa de la implementación eficiente en CUDA C/C++ con la implementación de las funciones de GPU incluidas en el Parallel Computing Toolbox de Matlab. La solución que se da reduce en casi un cuarto las iteraciones necesarias para llegar a una solución buena del problema mencionado, además de la mejora inminente del uso de las arquitecturas paralelas. En esta solución se estudia la mejora en tiempo que se consigue con el uso específico de la memoria compartida, siendo esta una de las herramientas más potentes para mejorar el rendimiento. En lo referente a los tiempos de ejecución, se llega a concluir que la mejor solución es el lanzamiento de un kernel de CUDA desde Matlab a través de la funcionalidad incluida en el Parallel Computing Toolbox.
Resumo:
La reputación corporativa es la percepción que los diferentes públicos de una empresa tienen acerca de la misma. Estos públicos o stakeholders, son aquellos que se relacionan con la empresa de cualquier manera, pudiéndose distinguir entre públicos internos, empleados, accionistas, directivos, …; y públicos externos, clientes, proveedores, fondos de inversión, …. En los últimos años estamos presenciando como las empresas e instituciones dedican importantes esfuerzos a desarrollar políticas de Reputación Corporativa, ya que una disminución de la reputación redunda directamente en la cuenta de resultados de las compañías por lo que las mejoras que se introduzcan en la gestión de la reputación redundaran directamente en su sostenibilidad económica y social del país donde operan.Para poder medir la RC de una empresa o institución es preciso determinar el sentimiento que dicha empresa o institución tiene en sus públicos. Pero llevar a cabo esta medición es cada día más difícil, ya que la sociedad de la información donde estamos inmersos, hace que los canales de comunicación de los públicos sean mucho mayores que hace unos años( redes sociales, blog, diarios, foros, …) y además, la comunicación puede hacerse casi en tiempo real, tal como sucede en las redes sociales. Para hacer estas mediciones, las principales empresas del sector han utilizado principalmente encuestas las cuales las realizaban empresas especializadas, lo que supone un alto coste y además, los resultados son obtenidos a tiempo pasado o no se alcanza un tamaño de población significativa.El objetivo de este trabajo es realizar una aplicación para determinar la reputación de una empresa en medios de comunicación online. Para ello, se ha desarrollado un sistema de lectura de medios online, que permite localizar y extraer la información de los medios de comunicación online; un clasificador semántico para analizar la información recogida y clasificarla en diferentes temáticas extrayendo el sentimiento de los textos; y finalmente, una interfaz para interactuar con el usuario.
Resumo:
Las transformaciones tecnológicas y de información que está experimentando la sociedad, especialmente en la última década, está produciendo un crecimiento exponencial de los datos en todos los ámbitos de la sociedad. Los datos que se generan en los diferentes ámbitos se corresponden con elementos primarios de información que por sí solos son irrelevantes como apoyo a las tomas de decisiones. Para que estos datos puedan ser de utilidad en cualquier proceso de decisión, es preciso que se conviertan en información, es decir, en un conjunto de datos procesados con un significado, para ayudar a crear conocimiento. Estos procesos de transformación de datos en información se componen de diferentes fases como la localización de las fuentes de información, captura, análisis y medición.Este cambio tecnológico y a su vez de la sociedad ha provocado un aumento de las fuentes de información, de manera que cualquier persona, empresas u organización, puede generar información que puede ser relevante para el negocio de las empresas o gobiernos. Localizar estas fuentes, identificar información relevante en la fuente y almacenar la información que generan, la cual puede tener diferentes formatos, es el primer paso de todo el proceso anteriormente descrito, el cual tiene que ser ejecutado de manera correcta ya que el resto de fases dependen de las fuentes y datos recolectados. Para la identificación de información relevante en las fuentes se han creado lo que se denomina, robot de búsqueda, los cuales examinan de manera automática una fuente de información, localizando y recolectando datos que puedan ser de interés.En este trabajo se diseña e implementa un robot de conocimiento junto con los sistemas de captura de información online para fuentes hipertextuales y redes sociales.
Resumo:
Unity3d es un motor gráfico para la implementación de videojuegos creado por Unity3d Technologies que tiene el honor de ser una de las principales herramientas que propició el auge de los estudios independientes. Pese a estar enfocado al desarrollo de videojuegos en 3D, los desarrolladores lograban crear contenido en 2D a base de manipulaciones como la cámara y de utilizar herramientas no nativas. Afortunadamente, a partir de la versión 4.3 Unity3d integra herramientas nativas que facilitan esta tarea. Este proyecto consiste en la creación de un tutorial sobre la implementación de un videojuego del género puzles en 2D y enfocado a plataformas móviles, empleando para ello Unity3d y concretamente las nuevas herramientas nativas para 2D. La implementación de un videojuego es una tarea muy complicada y extensa, es por ello que en el tutorial se va a tratar la fase de diseño del videojuego y a nivel de implementación centrarse en dichas herramientas para el 2D, mostrando al final una versión jugable del videojuego implementado. Por otra parte, al ser numerosas las herramientas, es imposible tratar cada una de las herramientas aunque se intentará abarcar lo máximo posible y mencionar las que no se incluyan dentro de la implementación del videojuego. El resultado generado de este proyecto puede constituir una referencia para otras personas interesadas en aprender cómo usar Unity3d para programar videojuegos en 2D, lo cual les allanará seguramente el camino y les suavizará la curva de aprendizaje.
Resumo:
El “Entorno de información y gestión para el alumnado de la ETSII” es una herramienta que permite la consulta de los datos más relevantes en el día a día de un alumno y realizar tareas simples pero de uso frecuente. El sistema se compone de dos partes, una aplicación web y una aplicación móvil para dispositivos Android. La aplicación web se encarga de leer los datos de entrada a partir de distintos archivos con extensión .csv y los almacena en una base de datos MySQL, mientras que la aplicación móvil recibe esos datos mediante servicios REST y ejecuta toda la funcionalidad con los mismos. El conjunto de funcionalidades que ofrece la aplicación requieren la autenticación en la misma a través de una cuenta de usuario en Google. El sistema además permite la generación de los horarios del alumno, adición de los exámenes al calendario personal del usuario, consulta de datos del profesorado, concertado de tutorías, asistente de matriculación y consulta del calendario lectivo de la titulación correspondiente. Con todo ello se pretende agilizar la consulta de datos relevantes de uso frecuente por parte del alumnado de la E.T.S. de Ingeniería Informática en la web del centro, el campus virtual y la DUMA.
Resumo:
El proyecto plantea la realización de un sistema de seguimiento de acciones formativas de teleformación, donde el requisito inicial es suministrar un servicio web que implementa las operaciones necesarias para el seguimiento de estas acciones formativas. La entidad principal que define este servicio podrá conectar a múltiples empresas de formación que imparten este tipo de acciones formativas y deben suministrar este servicio. El proyecto plantea el análisis completo del sistema para una determinada empresa de formación que incluye el servicio web, la plataforma formativa y demás subsistemas que se consideren necesarios. En nuestro caso una aplicación web adicional para la gestión de las acciones formativas, desarrollada con tecnología Microsoft. El servicio web se desarrolla con protocolo SOAP y tecnología Php. Se plantea el análisis completo del sistema y el diseño y desarrollo del servicio web y de la funcionalidad principal de la aplicación web de seguimiento.
Resumo:
Un sistema de SDR (Software Defined Radio) es un sistema de radio programable que delega gran parte del procesamiento hecho clásicamente en hardware,en software corriendo en un ordenador. Dos ventajas inmediatas de un dispositivo de SDR frente a un dispositivo de radio tradicional son el abaratamiento del coste del hardware (menos y menos complejo) y la facilidad de modificación de la funcionalidad específica de la radio (implementaciones software, tan simple como programar cualquier protocolo deseado). Debido al abaratamiento de estos productos y su facilidad de programación e interconexión con un ordenador personal, el mundo de la radiocomunicación es bastante más accesible. Cuando un dominio es poco conocido o accesible, es típico que los sistemas no sean seguros por diseño, sino por oscuridad. Si en un corto periodo de tiempo la accesibilidad a ese dominio aumenta considerablemente, los sistemas seguros por oscuridad se encuentran en peligro. Este trabajo pretende estudiar si efectivamente, al ser más accesible el dominio de la radiocomunicación debido a la accesibilidad de los dispositivos de SDR, ciertos sistemas se encuentran expuestos. La investigación del estado del arte y el estudio práctico de sistemas públicos en el ámbito local, nos permitirá entender hasta qué punto existen riesgos reales. Si se encuentra en el ámbito local una vulnerabilidad en algún sistema, se documentará y se propondrá una posible forma de aprovecharla y solucionarla.
Resumo:
En esta memoria se describe el diseño y las pautas seguidas para la construcción de una aplicación móvil que permite la creación de grupos de personas para la gestión de los gastos, facturas y deudas comunitarias. Con un soporte Front-End en Android, un Back-End desarrollado en PHP y un almacenamiento de la información en una base de datos NoSQL, concretamente en MongoDB. El proyecto se ha realizado en grupo, separando los módulos Front-End y Back-End en dos proyectos distintos. En este proyecto desarrollamos el módulo Back-End. En él encontraremos el diseño para la construcción de la arquitectura REST y dar solución a la comunicación cliente y servidor de la aplicación. Además se ha añadido la componente PaaS (Platform as a Service) para acercar el desarrollo de este proyecto a un entorno de producción más real, afrontando así problemas reales. Al tratarse de un proyecto en equipo, el uso de metodologías ágiles cobra más importancia, por ello en este proyecto se ha hecho uso de la metodología Scrum.
Resumo:
Este Trabajo de Fin de Grado (TFG) se engloba en la línea general Social CRM. Concretamente, está vinculado a un trabajo de investigación llamado “Knowledge discovery in social networks by using a logic-based treatment of implications” desarrollado por P. Cordero, M. Enciso, A. Mora, M. Ojeda-Aciego y C. Rossi en la Universidad de Málaga, en el cual se ofrecen nuevas soluciones para la identificación de influencias de los usuarios en las redes sociales mediante herramientas como el Analisis de Conceptos Formales (FCA). El TFG tiene como objetivo el desarrollo de una aplicación que permita al usuario crear una configuración minimal de usuarios en Twitter a los que seguir para conocer información sobre un número determinado de temas. Para ello, obtendremos información sobre dichos temas mediante la API REST pública que proporciona Twitter y procesaremos los datos mediante algoritmos basados en el Análisis de Conceptos Formales (FCA). Posteriormente, la interpretación de los resultados de dicho análisis nos proporcionará información útil sobre lo expuesto al principio. Así, el trabajo se ha dividido en tres partes fundamentales: 1. Obtención de información (fuentes) 2. Procesamiento de los datos 3. Análisis de resultados El sistema se ha implementado como una aplicación web Java EE 7, utilizando JSF para las interfaces. Para el desarrollo web se han utilizado tecnologías y frameworks como Javascript, JQuery, CSS3, Bootstrap, Twitter4J, etc. Además, se ha seguido una metodología incremental para el desarrollo del proyecto y se ha usado UML como herramienta de modelado. Este proyecto se presenta como un trabajo inicial en el que se expondrán, además del sistema implementado, diversos problemas reales y ejemplos que prueben su funcionamiento y muestren la utilidad práctica del mismo