11 resultados para Visualización

em Universidade Complutense de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

En la actualidad, muchos gobiernos están publicando (o tienen la intención de publicar en breve) miles de conjuntos de datos para que personas y organizaciones los puedan utilizar. Como consecuencia, la cantidad de aplicaciones basadas en Open Data está incrementándose. Sin embargo cada gobierno tiene sus propios procedimientos para publicar sus datos, y esto causa una variedad de formatos dado que no existe un estándar internacional para especificar los formatos de estos datos. El objetivo principal de este trabajo es un análisis comparativo de datos ambientales en bases de datos abiertas (Open Data) pertenecientes a distintos gobiernos. Debido a esta variedad de formatos, debemos construir un proceso de integración de datos que sea capaz de unir todos los tipos de formatos. El trabajo implica un pre-procesado, limpieza e integración de las diferentes fuentes de datos. Existen muchas aplicaciones desarrolladas para dar soporte en el proceso de integración por ejemplo Data Tamer, Data Wrangler como se explica en este documento. El problema con estas aplicaciones es que necesitan la interacción del usuario como parte fundamental del proceso de integración. En este trabajo tratamos de evitar la supervisión humana aprovechando las similitudes de los datasets procedentes de igual área que en nuestro caso se aplica al área de medioambiente. De esta forma los procesos pueden ser automatizados con una programación adecuada. Para conseguirlo, la idea principal de este trabajo es construir procesos ad hoc adaptados a las fuentes de cada gobierno para conseguir una integración automática. Concretamente este trabajo se enfoca en datos ambientales como lo son la temperatura, consumo de energía, calidad de aire, radiación solar, velocidad del viento, etc. Desde hace dos años el gobierno de Madrid está publicando sus datos relativos a indicadores ambientales en tiempo real. Del mismo modo, otros gobiernos han publicado conjuntos de datos Open Data relativos al medio ambiente (como Andalucía o Bilbao), pero todos estos datos tienen diferentes formatos. En este trabajo se presenta una solución capaz de integrar todas ellos que además permite al usuario visualizar y hacer análisis sobre los datos en tiempo real. Una vez que el proceso de integración está realizado, todos los datos de cada gobierno poseen el mismo formato y se pueden lanzar procesos de análisis de una manera más computacional. Este trabajo tiene tres partes fundamentales: 1. Estudio de los entornos Open Data y la literatura al respecto; 2. Desarrollo de un proceso de integración y 3. Desarrollo de una Interface Gráfica y Analítica. Aunque en una primera fase se implementaron los procesos de integración mediante Java y Oracle y la Interface Gráfica con Java (jsp), en una fase posterior se realizó toda la implementación con lenguaje R y la interface gráfica mediante sus librerías, principalmente con Shiny. El resultado es una aplicación que provee de un conjunto de Datos Ambientales Integrados en Tiempo Real respecto a dos gobiernos muy diferentes en España, disponible para cualquier desarrollador que desee construir sus propias aplicaciones.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las comunidades colaborativas, donde grandes cantidades de personas colaboran para la producción de recursos compartidos (e.g. Github, Wikipedia, OpenStreetMap, Arduino, StackOverflow) están extendiéndose progresivamente a multitud de campos. No obstante, es complicado comprender cómo funcionan y evolucionan. ¿Qué tipos de usuarios son más activos en Wikia? ¿Cómo ha evolucionado el número de wikis activas en los últimos años? ¿Qué perfil de actividad presentan la mayor parte de colaboradores de Wikia? ¿Son más activos los hombres o las mujeres en la Wikipedia? En los proyectos de Github, ¿el esfuerzo de programación (y frecuencia de commits) se distribuye de forma homogénea a lo largo del tiempo o suele estar concentrado? Estas comunidades, típicamente online, dejan registrada su actividad en grandes bases de datos, muchas de ellas disponibles públicamente. Sin embargo, el ciudadano de a pie no tiene ni las herramientas ni el conocimiento necesario para sacar conclusiones de esos datos. En este TFG desarrollamos una herramienta de análisis exploratorio y visualización de datos de la plataforma Wikia, sitio web colaborativo que permite la creación, edición y modificación del contenido y estructura de miles de páginas web de tipo enciclopedia basadas en la tecnología wiki. Nuestro objetivo es que esta aplicación web sea usable por cualquiera y que no requiera que el usuario sea un experto en Big Data para poder visualizar las gráficas de evolución o distribuciones del comportamiento interno de la comunidad, pudiendo modificar algunos de sus parámetros y visualizando cómo cambian. Como resultado de este trabajo se ha desarrollado una primera versión de la aplicación disponible en GitHub1 y en http://chartsup.esy.es/

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las Redes Definidas por Software (Software Defined Networking) permiten la monitorización y el control centralizado de la red, de forma que los administradores pueden tener una visión real y completa de la misma. El análisis y visualización de los diferentes parámetros obtenidos representan la forma más viable y práctica de programar la red en función de las necesidades del usuario. Por este motivo, en este proyecto se desarrolla una arquitectura modular cuyo objetivo es presentar en tiempo real la información que se monitoriza en una red SDN. En primera instancia, las diferentes métricas monitorizadas (error, retardo y tasa de datos) son almacenadas en una base de datos, para que en una etapa posterior se realice el análisis de dichas métricas. Finalmente, los resultados obtenidos, tanto de métricas en tiempo real como de los datos estadísticos, son presentados en una aplicación web. La información es obtenida a través de la interfaz REST que expone el controlador Floodlight y para el análisis de la información se plantea una comparación entre los valores medios y máximos del conjunto de datos. Los resultados obtenidos muestran gráficamente de forma clara y precisa las diferentes métricas de monitorización. Además, debido al carácter modular de la arquitectura, se ofrece un valor añadido a los sistemas actuales de monitorización SDN.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las tecnologías relacionadas con el análisis de datos masivos están empezando a revolucionar nuestra forma de vivir, nos demos cuenta de ello o no. Desde las grandes compañías, que utilizan big data para la mejora de sus resultados, hasta nuestros teléfonos, que lo usan para medir nuestra actividad física. La medicina no es ajena a esta tecnología, que puede utilizarla para mejorar los diagnósticos y establecer planes de seguimiento personalizados a los pacientes. En particular, el trastorno bipolar requiere de atención constante por parte de los profesionales médicos. Con el objetivo de contribuir a esta labor, se presenta una plataforma, denominada bip4cast, que pretende predecir con antelación las crisis de estos enfermos. Uno de sus componentes es una aplicación web creada para realizar el seguimiento a los pacientes y representar gráficamente los datos de que se dispone con el objetivo de que el médico sea capaz de evaluar el estado del paciente, analizando el riesgo de recaída. Además, se estudian las diferentes visualizaciones implementadas en la aplicación con el objetivo de comprobar si se adaptan correctamente a los objetivos que se pretenden alcanzar con ellas. Para ello, generaremos datos aleatorios y representaremos estos gráficamente, examinando las posibles conclusiones que de ellos pudieran extraerse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ecografía es hoy en día uno de los métodos de visualización más populares para examinar el interior de cuerpos opacos. Su aplicación es especialmente significativa tanto en el campo del diagnóstico médico como en las aplicaciones de evaluación no destructiva en el ámbito industrial, donde se evalúa la integridad de un componente o una estructura. El desarrollo de sistemas ecográficos de alta calidad y con buenas prestaciones se basa en el empleo de sistemas multisensoriales conocidos como arrays que pueden estar compuestos por varias decenas de elementos. El desarrollo de estos dispositivos tiene asociada una elevada complejidad, tanto por el número de sensores y la electrónica necesaria para la adquisición paralela de señales, como por la etapa de procesamiento de los datos adquiridos que debe operar en tiempo real. Esta etapa de procesamiento de señal trabaja con un elevado flujo de datos en paralelo y desarrolla, además de la composición de imagen, otras sofisticadas técnicas de medidas sobre los datos (medida de elasticidad, flujo, etc). En este sentido, el desarrollo de nuevos sistemas de imagen con mayores prestaciones (resolución, rango dinámico, imagen 3D, etc) está fuertemente limitado por el número de canales en la apertura del array. Mientras algunos estudios se han centrado en la reducción activa de sensores (sparse arrays como ejemplo), otros se han centrado en analizar diferentes estrategias de adquisiciónn que, operando con un número reducido de canales electrónicos en paralelo, sean capaz por multiplexación emular el funcionamiento de una apertura plena. A estas últimas técnicas se las agrupa mediante el concepto de Técnicas de Apertura Sintética (SAFT). Su interés radica en que no solo son capaces de reducir los requerimientos hardware del sistema (bajo consumo, portabilidad, coste, etc) sino que además permiten dentro de cierto compromiso la mejora de la calidad de imagen respecto a los sistemas convencionales...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La aplicación de las neurociencias en el conocimiento del ser humano ha demostrado cómo el empleo de estímulos sensoriales y experienciales influyen en la atención, el agrado, las emociones, el compromiso –engagement- y la memoria -recuerdo y reconocimiento- de las marcas en entornos publicitarios relacionados con la decisión de compra. El objeto a través del empleo del Neuromarketing es determinar las áreas y funciones de las activaciones cerebrales que modulan la conducta del consumidor relacionadas con la mercadotecnia y el proceso de compra en entornos comerciales. Asimismo identifica el efecto que la publicidad genera en hombres y mujeres al encontrar diferencias de género de cómo les impacta la publicidad como la utilización de personajes célebres a cada uno de ellos, con los que adecuar los mensajes a los segmentos de mercado que tiendan a la excelencia de la eficiencia publicitaria con los que ayudar a los protagonistas clave del sector de la marketing y la publicidad. A través de un estudio propio de Neuromarketing se analiza el comportamiento de hombres y mujeres durante la visualización de los anuncios publicitarios como recurso estratégico para mejorar la eficiencia publicitaria en el diseño y la comunicación de un producto, servicio o campaña publicitaria antes, durante y después del lanzamiento.La medición publicitaria realizada con algunas de las técnicas de Neuroimagen más precisas del mercado, el Electroencefalograma (EEG) y biométricas; el Ritmo Cardíaco (HR) y Respuesta Galvánica de la Piel (GSR), han registrado el aumento del nivel de atención, agrado, emociones o motivación cuando se genera una necesidad o deseo en la demanda de los consumidores mejorando las actuales técnicas de Investigación de Mercado del marketing tradicional. Estas investigaciones permiten presentar la creación del modelo de eficiencia en el diseño y comunicación publicitaria SIADEM (-SENSORY, INTENTION, ATTENTION, DESIRE, EMOTION, MEMORY-) que tiene en cuenta los elementos básicos en los que se debe basar los mensajes publicitarios de cualquier marca para atraer el interés del cerebro consumidor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este documento explica la creación, implementación y uso del proyecto de fin de grado, desarrollado dentro del grupo de investigación ISCAR (Ingeniería de Sistemas, Control, Automática y Robótica) de la Facultad de Informática de la Universidad Complutense. El proyecto consiste en la implementación de una aplicación capaz de clasificar texturas extraídas de distintas imágenes mediante técnicas de visión por computador. Dicha aplicación se divide en tres pilares fundamentales: interfaz gráfica de usuario, algoritmos de extracción de características texturales y aprendizaje supervisado mediante una máquina “SVM” (Support Vector Machine). Interfaz gráfica: proporciona al usuario una forma fácil de uso de la aplicación por medio de la visualización gráfica de una imagen con una serie de elementos de configuración para su posterior análisis. Una vez analizada, el usuario si así lo desea, podrá visualizar los resultados de manera intuitiva, así como guardar dichos resultados después de la ejecución de los algoritmos pertinentes. Algoritmos de análisis de texturas: Procede al cálculo de las configuraciones y las muestras provistas por el usuario en la interfaz gráfica como el cálculo de la matriz de co-ocurrencia y el cálculo de los vectores de características (homogeneidad, media, varianza, Entropía, etc…). SVM: Utiliza los vectores de características obtenidos en los cálculos estadísticos de texturas para realizar el proceso de aprendizaje de un clasificador SVM. La aplicación ha sido construida en JAVA haciendo uso de librerías como JNI_SVM-light-6.01, commons-math3-3.0 y WindowsBuilder, para la construcción de la ventana gráfica, cálculo de los métodos estadísticos y máquina de aprendizaje automático. Dicha aplicación se ha utilizado con el objetivo de identificar y clasificar el quiste de Baker mediante imágenes obtenidas por Resonancias Magnéticas de la rodilla.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta memoria de tesis recoge el trabajo realizado con el objetivo de proponer mejoras en los sistemas que se utilizan para la iluminación de bienes de interés cultural. Para poder conseguir este objetivo, se han estudiado los procesos que relacionan la iluminación con la visualización y el deterioro de los materiales que componen los bienes culturales. Se ha desarrollado una metodología de caracterización óptica precisa adaptada al estudio de bienes culturales, que permite medir el factor de reflectancia con una alta precisión, tanto espectralmente como en el posicionamiento espacial del área medida. La metodología desarrollada se ha utilizado para la caracterización óptica de cuatro bienes culturales de muy alta relevancia, las obras “Mujer en Azul” y “Guernica”, del pintor Pablo Picasso, expuestas en el Museo Nacional Centro de Arte Reina Sofía, la obra “Muchacho con turbante y ramillete de flores” del pintor Michiel Sweerts, perteneciente a la colección Thyssen-Bornemisza y las pinturas rupestres de la Cueva del Castillo, en Puente Viesgo, incluidas en la lista de Patrimonio Mundial de la UNESCO. El análisis de los datos obtenidos tras el proceso de caracterización ha permitido por un lado generar una base de datos espectrales para la evaluación del estado de conservación de los bienes estudiados y por otro ha servido como herramienta de análisis objetivo de los resultados visibles tras procesos de restauración. Se ha desarrollado una metodología de optimización de la distribución espectral de fuentes de iluminación aplicadas a bienes culturales, la optimización está basada en criterios de conservación y percepción que pueden variar en función de las necesidades específicas de cada caso de aplicación. La metodología permite asignar distinta importancia a los diferentes parámetros a optimizar de modo que hace posible encontrar soluciones individualizadas para problemas específicos. Se ha aplicado dicha metodología en la iluminación de cuatro paneles de arte rupestre en la “Cueva del Castillo” (Puente Viesgo), y se ha desarrollado un sistema de iluminación utilizando la tecnología LED que ilumina los paneles de arte rupestre con una distribución espectral optimizada para producir un mínimo daño sobre la pintura rupestre, un máximo contraste entre el color de la pintura y el color de la piedra sobre la que está pintada y una mínima diferencia entre el color de la pintura observado bajo el iluminante propuesto y bajo un iluminante similar al que utilizó el autor de las pinturas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El siguiente trabajo de fin de Master tiene como objetivo la realización de una traducción audiovisual al español de la serie americana de crimen Wicked City, en concreto de los dos primeros episodios de esta. El creciente desarrollo tecnológico sufrido en los últimos años así como el aumento en el número de producciones audiovisuales, ha colocado a la rama de la traducción audiovisual en una de las más demandadas hoy en día. Aun habiendo una gran cantidad de productos audiovisuales, sobre todo series y películas, que son importadas y exportadas y por lo tanto traducidas y adaptadas a la cultura receptora, siendo las más traducidas las estadounidenses, hay aun algunas que todavía no han sido objeto de este proceso. Y este es el caso de, por ejemplo, la serie elegida en este trabajo, Wicked City, que no ha sido oficialmente traducida al español. Por lo tanto, este trabajo propone una traducción para los dos primeros capítulos de esta serie, y dicha traducción es acompañada de un análisis de las prioridades y restricciones que se han seguido para llevarla a cabo, así como de una ejemplificación de las características específicas pertenecientes al género del crimen en esta serie concreta y de algunas de las técnicas de traducción usadas en el proyecto. La disertación se estructura en cinco partes aparte de la introductoria. La primera es un marco teórico sobre la traducción audiovisual y el género del crimen. En la segunda, se presenta la metodología usada para el proyecto. La tercera se centra en la traducción de la serie en sí. La cuarta es un análisis y discusión sobre la traducción. La quinta y última, está destinada a las conclusiones y sugerencias para investigación futura. En el marco teórico se define la traducción audiovisual como una traducción de cualquier producto audiovisual, ya sea de cine, televisión, teatro, radio, o de aplicaciones informáticas, siendo esta una disciplina relativamente nueva. Así mismo, también se da una vista general de todos los modos de traducción audiovisual, así como de las prioridades técnicas y lingüísticas de esta y la situación de la disciplina en el ámbito universitario español. También se comentan los aspectos más básicos del crimen ficticio así como las características de este género en las series televisivas. En la sección de metodología se explica que con el fin de llevar desarrollar el objetivo del trabajo, el primer paso a seguir fue, tras la visualización de la serie, el transcribir los diálogos de los dos episodios a un documento aparte, creando así lo que podríamos llamar el “script original”. Una vez hecho esto, se tradujeron ambos episodios al español. Seguidamente, se imprimó tal script para poder señalar todos los aspectos a discutir, es decir, las restricciones, las características del crimen de televisión y las técnicas de traducción. Finalmente, se llevó a cabo un análisis cualitativo de todos los aspectos mencionados previamente. Así bien, en la sección de análisis, se destaca que se llevó como prioridad el intentar conservar un lenguaje natural y no forzado. Para tal prioridad hay que tener en cuenta las restricciones que nos presenta la traducción: los referentes culturales, los nombres propios, la intertextualidad, las unidades fraseológicas, las rimas, los calcos, las normas ortotipográficas, los diferentes acentos y las interjecciones. Además, esta serie presenta una serie de características pertenecientes al género del crimen que son las preguntas, la terminología específica, los marcadores pragmáticos y los “suavizadores” . Por último, para llevar a cabo la traducción se siguieron diversas técnicas, así como préstamo, traducción palabra por palabra, traducción literal, omisión, reducción, particularización, generalización, transposición, amplificación, variación, substitución y adaptación. Todos estos aspectos son ejemplificados con ejemplos extraídos de la traducción. Como conclusión, se resalta que una traducción audiovisual contiene mayormente dos tipos de restricciones: las técnicas y las lingüísticas. Las primeras van a estar especialmente ligadas a la modalidad de traducción audiovisual. Aunque en este trabajo la traducción no ha sido realizada con el fin de adaptarla a una modalidad específica, y por tanto las restricciones técnicas no suponen tantos problemas, es importante tener en cuenta la coherencia visual y auditiva, que de cierta manera van a condicionar la traducción. Así, a la hora de familiarizar, extranjerizar y naturalizar un término cultural, es importante mantener dichas coherencias. Por lo tanto, va a ser más fácil usar estas técnicas con un término que no aparece en pantalla. En cuanto a las restricciones lingüísticas, nos encontramos con los referentes culturales, los nombres propios, la intertextualidad, las unidades fraseológicas, las rimas, los calcos, las normas ortotipográficas, los diferentes acentos y las interjecciones, aspectos que el traductor tiene que cuidar especialmente. Finalmente, ya que ha sido muy poca la investigación realizada en el género del crimen desde un punto de vista traductológico, algunas líneas de estudio futuras podrían ser: estudiar en mayor profundidad las características que son específicas al genero del crimen, especialmente en las series de televisión; comparar estas características con las características de otro tipo de textos como por ejemplo la novela; estudiar si estas características especificas a un género condicionan de alguna manera la traducción, y si es así, hasta qué punto; y por último, determinar cómo una traducción puede ser diferente dependiendo del género, es decir, por ejemplo, si es de tipo romántico, de crimen, o de comedia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la pintura abstracta contemporánea es notoria la presencia de algunos artistas que utilizan formas que evocan los contornos, las estructuras y los procesos del mundo natural en sus obras. Estas formas, tienen su razón de ser en las configuraciones visibles e invisibles, cercanas o lejanas, microscópicas y macroscópicas del cuerpo humano, las plantas, los animales o el universo. En esta investigación se analiza la premisa según la cual el arte y la ciencia han mantenido una larga relación histórica, que podría interpretarse bajo dos vertientes: el primer camino es el trazado por la idea de visualización y divulgación de la ciencia, la cual se refiere a la traducción en imágenes de teorías científicas; imágenes que en muchos casos han sido realizadas mediante las habilidades plásticas de los artistas; la segunda vía de interpretación puede ser abierta a través del valor estético de la propia imagen científica, que como elemento visual, de gran valor comunicativo, ha inspirado a la propia disciplina artística en diferentes momentos de la historia. La investigación se fundamenta en la propuesta teórica de los autores: Oliver Botar, Isabel Wunsche y Lynn Gamwell, quienes han postulado que el origen de la abstracción pictórica está vinculado a las corrientes de pensamiento biocentristas y la divulgación científica. Se entiende por biocentrismo aquellas ideas que sitúan a la naturaleza y sus procesos como eje principal y fuente de inspiración en la producción artística. De acuerdo con ello, se examina el concepto de forma orgánica difundido por el organicismo y la crítica literaria de mediados del siglo XVIII...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proyecto pretende generar información audiovisual moderna y atractiva que facilite a los estudiantes nuevas maneras de aprendizaje de técnicas de representación espacial para su utilización en la resolución de problemas de Ingeniería Geológica relacionados con el análisis de estabilidad de taludes en macizos rocosos. Se han generado varios vídeos cortos (< 5 min) en los que se explican en español de manera detallada las técnicas de representación estereográfica y su utilización en la resolución de problemas de Ingeniería Geológica. Además, los vídeos incorporan datos de campo de estructuras geológicas con valor didáctico y bloques diagrama que facilitan la visualización 3D de las mismas. Estos videos se pueden visualizar a través de internet en el Campus Virtual UCM y en YouTube (https://www.youtube.com/user/geostereovideo), y sirven de refuerzo en la formación de los estudiantes que pueden reproducir los vídeos tanto antes como después de la explicación del profesor en clase.