980 resultados para Ingeniería Informática
Resumo:
MusicXML es quizá el más conocido de los formatos de notación musical basados en XML. Se trata de un formato abierto que a día de hoy utilizan multitud de programas musicales. El presente proyecto consiste en desarrollar una aplicación informática que, dada una partitura en formato MusicXML, sea capaz de realizar dos tareas: 1. Generar automáticamente una imagen (bmp, jpg, ...) con la representación gráfica de la partitura y la muestre por pantalla. 2. Reproducir el sonido correspondiente. El TFG propuesto deberá cumplir los requisitos expuestos anteriormente (generar una representación gráfica y reproducir el sonido) para partituras de una sola voz, en clave de sol, con compases dentro del rango {2/4, 3/4, 4/4, 6/8, 9/8}, para cualquier clave o tonalidad (número de bemoles o sostenidos en la armadura), con figuras y silencios que abarquen el rango de duraciones {redonda, blanca, negra, corchea, semicorchea, fusa, semifusa} y que puedan incluir notas con puntillo y/o alteraciones (sostenido, bemol, becuadro). Como objetivo secundario, a abordar en función del éxito logrado en lo recién comentado, quedaría la ampliación del proyecto a partituras de una sola voz también, que puedan ir en clave de fa, o que puedan incluir otros tipos de compases y elementos más particulares como los dobles puntillos.
Resumo:
En este documento se expondrá una implementación del problema del viajante de comercio usando una implementación personalizada de un mapa auto-organizado basándose en soluciones anteriores y adaptándolas a la arquitectura CUDA, haciendo a la vez una comparativa de la implementación eficiente en CUDA C/C++ con la implementación de las funciones de GPU incluidas en el Parallel Computing Toolbox de Matlab. La solución que se da reduce en casi un cuarto las iteraciones necesarias para llegar a una solución buena del problema mencionado, además de la mejora inminente del uso de las arquitecturas paralelas. En esta solución se estudia la mejora en tiempo que se consigue con el uso específico de la memoria compartida, siendo esta una de las herramientas más potentes para mejorar el rendimiento. En lo referente a los tiempos de ejecución, se llega a concluir que la mejor solución es el lanzamiento de un kernel de CUDA desde Matlab a través de la funcionalidad incluida en el Parallel Computing Toolbox.
Resumo:
La reputación corporativa es la percepción que los diferentes públicos de una empresa tienen acerca de la misma. Estos públicos o stakeholders, son aquellos que se relacionan con la empresa de cualquier manera, pudiéndose distinguir entre públicos internos, empleados, accionistas, directivos, …; y públicos externos, clientes, proveedores, fondos de inversión, …. En los últimos años estamos presenciando como las empresas e instituciones dedican importantes esfuerzos a desarrollar políticas de Reputación Corporativa, ya que una disminución de la reputación redunda directamente en la cuenta de resultados de las compañías por lo que las mejoras que se introduzcan en la gestión de la reputación redundaran directamente en su sostenibilidad económica y social del país donde operan.Para poder medir la RC de una empresa o institución es preciso determinar el sentimiento que dicha empresa o institución tiene en sus públicos. Pero llevar a cabo esta medición es cada día más difícil, ya que la sociedad de la información donde estamos inmersos, hace que los canales de comunicación de los públicos sean mucho mayores que hace unos años( redes sociales, blog, diarios, foros, …) y además, la comunicación puede hacerse casi en tiempo real, tal como sucede en las redes sociales. Para hacer estas mediciones, las principales empresas del sector han utilizado principalmente encuestas las cuales las realizaban empresas especializadas, lo que supone un alto coste y además, los resultados son obtenidos a tiempo pasado o no se alcanza un tamaño de población significativa.El objetivo de este trabajo es realizar una aplicación para determinar la reputación de una empresa en medios de comunicación online. Para ello, se ha desarrollado un sistema de lectura de medios online, que permite localizar y extraer la información de los medios de comunicación online; un clasificador semántico para analizar la información recogida y clasificarla en diferentes temáticas extrayendo el sentimiento de los textos; y finalmente, una interfaz para interactuar con el usuario.
Resumo:
Las transformaciones tecnológicas y de información que está experimentando la sociedad, especialmente en la última década, está produciendo un crecimiento exponencial de los datos en todos los ámbitos de la sociedad. Los datos que se generan en los diferentes ámbitos se corresponden con elementos primarios de información que por sí solos son irrelevantes como apoyo a las tomas de decisiones. Para que estos datos puedan ser de utilidad en cualquier proceso de decisión, es preciso que se conviertan en información, es decir, en un conjunto de datos procesados con un significado, para ayudar a crear conocimiento. Estos procesos de transformación de datos en información se componen de diferentes fases como la localización de las fuentes de información, captura, análisis y medición.Este cambio tecnológico y a su vez de la sociedad ha provocado un aumento de las fuentes de información, de manera que cualquier persona, empresas u organización, puede generar información que puede ser relevante para el negocio de las empresas o gobiernos. Localizar estas fuentes, identificar información relevante en la fuente y almacenar la información que generan, la cual puede tener diferentes formatos, es el primer paso de todo el proceso anteriormente descrito, el cual tiene que ser ejecutado de manera correcta ya que el resto de fases dependen de las fuentes y datos recolectados. Para la identificación de información relevante en las fuentes se han creado lo que se denomina, robot de búsqueda, los cuales examinan de manera automática una fuente de información, localizando y recolectando datos que puedan ser de interés.En este trabajo se diseña e implementa un robot de conocimiento junto con los sistemas de captura de información online para fuentes hipertextuales y redes sociales.
Resumo:
El “Entorno de información y gestión para el alumnado de la ETSII” es una herramienta que permite la consulta de los datos más relevantes en el día a día de un alumno y realizar tareas simples pero de uso frecuente. El sistema se compone de dos partes, una aplicación web y una aplicación móvil para dispositivos Android. La aplicación web se encarga de leer los datos de entrada a partir de distintos archivos con extensión .csv y los almacena en una base de datos MySQL, mientras que la aplicación móvil recibe esos datos mediante servicios REST y ejecuta toda la funcionalidad con los mismos. El conjunto de funcionalidades que ofrece la aplicación requieren la autenticación en la misma a través de una cuenta de usuario en Google. El sistema además permite la generación de los horarios del alumno, adición de los exámenes al calendario personal del usuario, consulta de datos del profesorado, concertado de tutorías, asistente de matriculación y consulta del calendario lectivo de la titulación correspondiente. Con todo ello se pretende agilizar la consulta de datos relevantes de uso frecuente por parte del alumnado de la E.T.S. de Ingeniería Informática en la web del centro, el campus virtual y la DUMA.
Resumo:
Un sistema de SDR (Software Defined Radio) es un sistema de radio programable que delega gran parte del procesamiento hecho clásicamente en hardware,en software corriendo en un ordenador. Dos ventajas inmediatas de un dispositivo de SDR frente a un dispositivo de radio tradicional son el abaratamiento del coste del hardware (menos y menos complejo) y la facilidad de modificación de la funcionalidad específica de la radio (implementaciones software, tan simple como programar cualquier protocolo deseado). Debido al abaratamiento de estos productos y su facilidad de programación e interconexión con un ordenador personal, el mundo de la radiocomunicación es bastante más accesible. Cuando un dominio es poco conocido o accesible, es típico que los sistemas no sean seguros por diseño, sino por oscuridad. Si en un corto periodo de tiempo la accesibilidad a ese dominio aumenta considerablemente, los sistemas seguros por oscuridad se encuentran en peligro. Este trabajo pretende estudiar si efectivamente, al ser más accesible el dominio de la radiocomunicación debido a la accesibilidad de los dispositivos de SDR, ciertos sistemas se encuentran expuestos. La investigación del estado del arte y el estudio práctico de sistemas públicos en el ámbito local, nos permitirá entender hasta qué punto existen riesgos reales. Si se encuentra en el ámbito local una vulnerabilidad en algún sistema, se documentará y se propondrá una posible forma de aprovecharla y solucionarla.
Resumo:
Este Trabajo de Fin de Grado (TFG) se engloba en la línea general Social CRM. Concretamente, está vinculado a un trabajo de investigación llamado “Knowledge discovery in social networks by using a logic-based treatment of implications” desarrollado por P. Cordero, M. Enciso, A. Mora, M. Ojeda-Aciego y C. Rossi en la Universidad de Málaga, en el cual se ofrecen nuevas soluciones para la identificación de influencias de los usuarios en las redes sociales mediante herramientas como el Analisis de Conceptos Formales (FCA). El TFG tiene como objetivo el desarrollo de una aplicación que permita al usuario crear una configuración minimal de usuarios en Twitter a los que seguir para conocer información sobre un número determinado de temas. Para ello, obtendremos información sobre dichos temas mediante la API REST pública que proporciona Twitter y procesaremos los datos mediante algoritmos basados en el Análisis de Conceptos Formales (FCA). Posteriormente, la interpretación de los resultados de dicho análisis nos proporcionará información útil sobre lo expuesto al principio. Así, el trabajo se ha dividido en tres partes fundamentales: 1. Obtención de información (fuentes) 2. Procesamiento de los datos 3. Análisis de resultados El sistema se ha implementado como una aplicación web Java EE 7, utilizando JSF para las interfaces. Para el desarrollo web se han utilizado tecnologías y frameworks como Javascript, JQuery, CSS3, Bootstrap, Twitter4J, etc. Además, se ha seguido una metodología incremental para el desarrollo del proyecto y se ha usado UML como herramienta de modelado. Este proyecto se presenta como un trabajo inicial en el que se expondrán, además del sistema implementado, diversos problemas reales y ejemplos que prueben su funcionamiento y muestren la utilidad práctica del mismo
Resumo:
En la actualidad, existen un gran número de investigaciones que usan técnicas de aprendizaje automático basadas en árboles de decisión. Como evolución de dichos trabajos, se han desarrollado métodos que usan Multiclasificadores (Random forest, Boosting, Bagging) que resuelven los mismos problemas abordados con árboles de decisión simples, aumentando el porcentaje de acierto. El ámbito de los problemas resueltos tradicionalmente por dichas técnicas es muy variado aunque destaca la bio-informática. En cualquier caso, la clasificación siempre puede ser consultada a un experto considerándose su respuesta como correcta. Existen problemas donde un experto en la materia no siempre acierta. Un ejemplo, pueden ser las quinielas (1X2). Donde podemos observar que un conocimiento del dominio del problema aumenta el porcentaje de aciertos, sin embargo, predecir un resultado erróneo es muy posible. El motivo es que el número de factores que influyen en un resultado es tan grande que, en muchas ocasiones, convierten la predicción en un acto de azar. En este trabajo pretendemos encontrar un multiclasificador basado en los clasificadores simples más estudiados como pueden ser el Perceptrón Multicapa o Árboles de Decisión con el porcentaje de aciertos más alto posible. Con tal fin, se van a estudiar e implementar una serie de configuraciones de clasificadores propios junto a multiclasificadores desarrollados por terceros. Otra línea de estudio son los propios datos, es decir, el conjunto de entrenamiento. Mediante un estudio del dominio del problema añadiremos nuevos atributos que enriquecen la información que disponemos de cada resultado intentando imitar el conocimiento en el que se basa un experto. Los desarrollos descritos se han realizado en R. Además, se ha realizado una aplicación que permite entrenar un multiclasificador (bien de los propios o bien de los desarrollados por terceros) y como resultado obtenemos la matriz de confusión junto al porcentaje de aciertos. En cuanto a resultados, obtenemos porcentajes de aciertos entre el 50% y el 55%. Por encima del azar y próximos a los resultados de los expertos.
Resumo:
This work focuses in the formal and technical analysis of some aspects of a constructed language. As a first part of the work, a possible coding for the language will be studied, emphasizing the pre x coding, for which an extension of the Hu man algorithm from binary to n-ary will be implemented. Because of that in the language we can't know a priori the frequency of use of the words, a study will be done and several strategies will be proposed for an open words system, analyzing previously the existing number of words in current natural languages. As a possible upgrade of the coding, we'll take also a look to the synchronization loss problem, as well as to its solution: the self-synchronization, a t-codes study with the number of possible words for the language, as well as other alternatives. Finally, and from a less formal approach, several applications for the language have been developed: A voice synthesizer, a speech recognition system and a system font for the use of the language in text processors. For each of these applications, the process used for its construction, as well as the problems encountered and still to solve in each will be detailed.
Resumo:
El teorema del punto fijo es aplicable a un tipo especial de sucesiones; dicho teorema es utilizado en muchas ciencias aplicadas (economía, ingeniería, informática) así como en las ciencias fundamentales (física, química, biología, etc.). El trabajo investiga la teoría del punto fijo y algunas aplicaciones del Teorema del Punto Fijo de Banach, para elaborar un documento en el que se presenten algunas aplicaciones y la teoría del punto fijo.
Resumo:
Materials de teoria i pràctiques de l'assignatura Disseny de Bases de Dades per al curs 2013-2014 (materials en valencià).
Resumo:
Los electrocardiogramas (ECG) registran la actividad eléctrica del corazón a través de doce señales principales denominadas derivaciones. Estas derivaciones son analizadas por expertos médicos observando aquellos segmentos de la señal eléctrica que determinan cada una de las patologías que pueden afectar al corazón. Este hecho en general, es un condicionante muy importante para el diseño de sistemas expertos de diagnóstico médico, ya que es preciso conocer, delimitar y extraer de la señal eléctrica aquellos segmentos que determinan la patología. Dar solución a estos problemas, sería fundamental para facilitar el diseño de sistemas expertos para el diagnóstico de enfermedades cardiacas. El objetivo de este trabajo es demostrar que es posible identificar patologías cardiacas analizando la señal completa de las diferentes derivaciones de los ECGs, y determinar puntos concretos que determinan la patología en lugar de segmentos de la señal. Para ello se ha utilizado una BBDD de electrocardiogramas y se ha determinado mediante un algoritmo, los puntos de la señal que determinan la patología. Se ha aplicado a la patología de bloqueos de rama y los puntos obtenidos con el algoritmo se han utilizado para el diseño de un clasificador automático basado en redes neuronales artificiales, obteniendo un coeficiente de sensibilidad del 100% y de especificad del 99.24%, demostrando su validez para el diseño de sistemas expertos de clasificación.
Resumo:
La Web 2.0 ha tenido un enorme éxito gracias a la posibilidad de una interacción dinámica por parte del usuario, ya no sólo a la hora de participar en elementos colaborativos, como puedan ser los foros, sino en compartir/añadir contenido a la Web. Dos ejemplos claros de este paradigma son YouTube y Flickr. El primero hospeda la mayor parte de los vídeos que podemos encontrar en Internet, y el segundo ha creado la mayor comunidad de fotógrafos existente en la red. Ambos servicios funcionan de una forma similar, el usuario es el que aporta contenidos junto a una información asociada al mismo. Al ser comunidades internacionales, la información añadida por el usuario se realiza en diversos idiomas, por lo que la búsqueda de recursos multimedia en estos sitios es dependiente del idioma de la consulta. En este artículo, presentamos Babxel, un sistema de recuperación de información multimedia y multilingüe, nacido como proyecto de fin de carrera de Ingeniería Informática, como extensión y mejora de FlickrBabel. Babxel aprovecha la capacidad de traducción multilingüe automática para generar más resultados de búsqueda relacionado con la consulta del usuario, resultados que se obtienen de las plataformas mencionadas anteriormente.
Resumo:
En este trabajo presentamos algunos avances de una investigación orientada a comprender cómo inciden las perspectivas de actores en el moldeamiento de políticas y programas de abordaje de la heterogeneidad estudiantil implementados en el tramo inicial de la Facultad de Informática de la Universidad Nacional de La Plata, en la que se dicta una carrera de Ingeniería en Computación . El relevamiento permitió reconocer quiénes tienen papeles protagónicos en la definición y desarrollo de estrategias de atención a la diversidad estudiantil. Nuestro trabajo pretende dar cuenta de las conceptualizaciones que los actores indagados construyen acerca de la heterogeneidad y la diferencia en el marco de la implementación de políticas institucionales. Presentaremos análisis basados en el relevamiento efectuado y en debates del campo educativo. Esbozaremos algunas conclusiones provisorias referidas a las perspectivas de la heterogeneidad y la diferencia prevalecientes entre los informantes clave y al contraste entre éstas y las culturas y tradiciones que orientan el trabajo en las aulas
Resumo:
En este trabajo presentamos algunos avances de una investigación orientada a comprender cómo inciden las perspectivas de actores en el moldeamiento de políticas y programas de abordaje de la heterogeneidad estudiantil implementados en el tramo inicial de la Facultad de Informática de la Universidad Nacional de La Plata, en la que se dicta una carrera de Ingeniería en Computación . El relevamiento permitió reconocer quiénes tienen papeles protagónicos en la definición y desarrollo de estrategias de atención a la diversidad estudiantil. Nuestro trabajo pretende dar cuenta de las conceptualizaciones que los actores indagados construyen acerca de la heterogeneidad y la diferencia en el marco de la implementación de políticas institucionales. Presentaremos análisis basados en el relevamiento efectuado y en debates del campo educativo. Esbozaremos algunas conclusiones provisorias referidas a las perspectivas de la heterogeneidad y la diferencia prevalecientes entre los informantes clave y al contraste entre éstas y las culturas y tradiciones que orientan el trabajo en las aulas