19 resultados para Imágenes narrativas

em Universidade Complutense de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las narrativas transmedia son un fenómeno revolucionario cuya expansión ha sido propiciada por la cultura de la convergencia pero, a pesar de que existen múltiples casos de análisis de las mismas, no se ha consolidado un modelo de estudio integral. El objetivo de esta investigación es establecer un modelo genérico de análisis de la estructura de las narrativas transmedia que es posible aplicar a los diferentes productos transmedia para poder conocer su estructura fijando patrones que permitirán entender mejor su funcionamiento. Para ello, se recurre a la realización de una revisión bibliográfica y un análisis de contenido en el que se examinan los métodos propuestos por varios autores a la hora de describir y estudiar narrativas transmedia y que se toman como punto de partida para la creación de un modelo propio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este artículo plantea un análisis de la escena independiente actual en España, que vive un momento de transformación y de polémica. Parece que el influjo del 15M ha terminado por permear un entorno habitualmente blindado a lo político como es el de esta escena musical, surgiendo diversos discos con notable carga política (Vetusta Morla, Nacho Vegas). Esta politización contrasta vivamente con la visión clásica del indie, criticado por su elitismo. La etiqueta hispter, asociada a una inmersión en el mundo del consumismo cultural para evitar ser conscientes de la precarización de las condiciones de vida de los trabajadores culturales, ha sido repetidamente aplicada a esta escena musical. Incluso este proceso de politización es visto desde ciertas posiciones como una nueva impostura, un intento de estar al tanto de los tiempos, ya que lo político parece estar de moda. Este artículo aborda estas polémicas desde una metodología multidisciplinar a partir del análisis semiótico de vídeos musicales y las letras de canciones y el trabajo documental sobre artículos en prensa. El artículo plantea a su vez una genealogía de la politización del indie español y sus conexiones con las actitudes políticas, pasadas y recientes, cultivadas desde otros géneros musicales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La investigación desarrollada para esta tesis doctoral titulada “Los bancos de imágenes en Internet. Características, funciones y aplicaciones” se centra en el estudio general de estos sitios web y su principal objetivo es definirlos y analizarlos con base en un modelo de análisis de creación propia de este investigador. Creemos que es una investigación muy pertinente ya que nos encontramos en un mundo en el que prima la imagen, las utilizamos a todas horas, en múltiples ámbitos y, por tanto, se hacen indispensables sitios webs a los que los usuarios puedan acceder, donde consigan buscar y encontrar imágenes digitales para diversos propósitos. Durante los últimos 15 años han ido apareciendo y se han ido desarrollando los bancos de imágenes en Internet (BDI). Aunque el número de bancos ha ido creciendo muy rápidamente, los estudios sobre ellos no lo han hecho en la misma medida. De hecho, aunque existen varios trabajos científicos sobre ellos muy interesantes, muchas de las publicaciones al respecto se quedan en la mera descripción de unos pocos bancos a modo de ejemplo, de forma que pretenden explicar así su modo de funcionamiento. En este estudio, sin embargo, se ha pretendido hacer un análisis riguroso de una muestra importante de bancos de imágenes, tanto a nivel cuantitativo como a nivel cualitativo, para extraer el mayor número posible de conclusiones respecto al objeto de estudio...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A través de esta investigación se busca analizar de que forma una categoría estética como es lo grotesco, relacionada generalmente con lo desagradable, lo inquietante, lo cómico-burlesco e, incluso, lo repugnante y lo siniestro, tiene cabida en el ámbito de la fotografía publicitaria, mediante la observación de una tendencia estética que se caracteriza por un uso de lo grotesco sobre todo fantástico, y en la que confluyen algunos de los valores que le han sido atribuidos por diferentes autores a lo largo del tiempo, con otros nuevos que se adecuan a su contexto publicitario. De esta forma, en primer lugar, y para llegar al momento en que lo grotesco adquiere, finalmente, entidad propia, se debe comenzar por el estudio de la belleza, la cual es considerada una de las ideas principales del pensamiento filosófico durante un largo período de tiempo, hasta que entra en crisis en el siglo XVIII a la par que nace la estética como disciplina, e irrumpen nuevas categorías a tener en cuenta en la reflexión sobre el arte, entre las que se encuentra lo grotesco. Así, lo grotesco surge como término en el siglo XV, proveniente de la palabra italiana gruta, ya que se utilizó inicialmente para designar ciertas ornamentaciones encontradas en el sepultado palacio de la Domus Aurea, construido por Nerón en el siglo I. Esas pinturas fueron imitadas por varios pintores del XV y asentado ya el término como sustantivo, vio como era adjetivado y se extendía por toda Europa, relacionándose, además, con numerosas concepciones como lo ridículo o lo bizarro, o manifestaciones cómico artísticas como la Comedia del Arte o los grabados de Callot. Entonces, llegado el siglo XVIII y esa mencionada ampliación del gusto estético en el Romanticismo, y con el apoyo de autores como Friedrich Schlegel, Ruskin y sobre todo Victor Hugo, lo grotesco surge como categoría estética independiente aunque limítrofe con otras, como lo sublime, lo feo y lo cómico, entre las que este estudio analiza sus relaciones y sus distinciones para profundizar en la compleja naturaleza de lo grotesco...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mi interés por la creatividad surge en el año 2012, cuando se me ofrece la oportunidad de asumir la docencia de las asignaturas Creatividad y Educación y Fundamentos de la Educación Artística en el centro universitario CES Don Bosco, adscrito a la Universidad Complutense de Madrid. Me encuentro en mis clases con un alumnado pasivo, excesivamente cómodo, que se angustia con la novedad, y que busca una respuesta única que permita alimentar su “píldora” de la satisfacción. Es decir, una receta que alimente su manual de buenas prácticas para confiarse como buen trabajador en un futuro próximo.   Me propuse estudiar como estimular el cerebro de este alumnado, con el objetivo de ayudar a mis estudiantes en su futura trayectoria profesional y personal. Es entonces cuando mi interés inicial por el mundo de la creatividad se convierte en objeto de estudio. El modelo estructural de la inteligencia de Guildford me resulta particularmente apto porque a través de este y su columna de aptitudes factoriales denominada “producción divergente” me facilita diseñar un marco práctico de actividades en torno al arte, con el objetivo de incrementar nuestra fluidez y flexibilidad de pensamiento, y recuperar de esta forma la parte creativa dormida. En la comparativa entre los resultados previos y los obtenidos al final del cuatrimestre, puedo destacar que la flexibilidad y la fluidez se ven alteradas de forma positiva...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Since the first decade of the 21st century, the Valley of the Fallen has been established as an object of controversy related to the new policies of memory. In recent years the "Historical Memory" has been a recurring concept in the mass media. While it is true that since 2011 this issue has been overshadowed in the political agenda, even today we continue to access information that refers to our recent past, from perspectives that demand actions of ethic, symbolic, political or economic repair. Many of these reports could be framed within a broader discourse, akin to a concept of "historical memory". These media texts are part of a larger problem that is troubling modern western societies and that has presented a remarkable recovery since the late nineties: debates or polemics on memory. In this paper we propose to study the nature of these media texts. We assume that the mass media configure their texts from frameworks or pre-existing frames. For this research, we propose an analysis of content based on the theory of framing to identify what is the typical journalistic discourse and the modalities of interpretive general framework applied in a number of texts and broadcasts about the Valley of the Fallen...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El control de malas hierbas en grandes extensiones de terreno resulta costoso y a veces contaminante desde el punto de vista medioambiental. El avance en los últimos años de los sistemas de control y automatización en agricultura ha favorecido la aparición del concepto de Agricultura de Precisión (AP), para intervenir o actuar sobre el cultivo, en el momento adecuado y en el lugar preciso. La presente tesis se ha desarrollado en el marco de dos proyectos de investigación a nivel nacional y uno europeo. Este último dentro del VII programa Marco de la Unión Europea, cuyo principal objetivo era implementar técnicas de AP de forma más eficiente mediante flotas de robots. En todos ellos, que han involucrado robots, éstos están equipados con sus correspondientes sistemas de Visión Artificial con el fin de identificar la existencia de determinadas texturas de interés con fines de tratamientos específicos o navegación segura de los vehículos, evitando obstáculos u otros elementos existentes en el campo de trabajo. Para la consecución de los objetivos mencionados resulta necesario el análisis de las imágenes procedentes de los campos de cultivo. Estas imágenes están constituidas por diferentes elementos que en su conjunto contienen diferentes tipos de estructuras, tales como: a) plantas verdes alineadas en forma de surcos o dispersas según se trate de cultivo o malas hierbas; b) suelo que constituye el sustrato; c) cielo u otros componentes añadidos. Todos ellos constituyen lo que desde el punto de vista del tratamiento de imágenes se conoce como texturas...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabajo presenta el desarrollo de una aplicación destinada al análisis de secuencias de imágenes para la detección de movimiento en la escena. Se trata de un campo importante de la Visión Artificial, con múltiples aplicaciones entre las que se encuentra la videovigilancia con fines de seguridad, el control de tráfico, el movimiento de personas o el seguimiento y localización de objetos entre otras muchas. Para ello se utilizan métodos de análisis como son el de Lucas-Kanade y Gauss-Seidel, que obtienen el denominado flujo óptico. Este describe el movimiento que ha tenido lugar entre las imágenes y su fundamento estriba en la determinación de las variables espaciales y temporales en las imágenes, siendo precisamente la variable temporal la que introduce el concepto fundamental para el análisis del movimiento a partir de las imágenes captadas en diferentes instantes de tiempo dentro de la secuencia analizada. Para el desarrollo de la aplicación se han utilizado técnicas propias del tratamiento de la Visión Artificial, así como la metodología proporcionada por la Ingeniería del Software. Así, se ha realizado una especificación de requisitos, se ha elaborado y seguido un plan de proyecto y se ha realizado un análisis de alto nivel, que se materializa en el correspondiente diseño e implementación, junto con las pruebas de verificación y validación, obviamente adaptados en todos los casos a las dimensiones del proyecto, pero que establecen claramente los planteamientos básicos para el desarrollo de una aplicación a nivel empresarial. La aplicación planteada se enmarca perfectamente dentro del paradigma, hoy en día en pleno auge, conocido como el Internet de las Cosas (IoT). El IoT permite la intercomunicación entre dispositivos remotos, de forma que mediante la correspondiente comunicación a través de conexiones a Internet es posible obtener datos remotos para su posterior análisis, bien en nodos locales o en la nube, como concepto íntimamente relacionado con el IoT. Este es el caso de la aplicación que se presenta, de suerte que los métodos de procesamiento de las imágenes pueden aplicarse localmente o bien transmitir las mismas para su procesamiento en nodos remotos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el presente trabajo se propone dar solución a uno de los problemas principales surgido en el campo del análisis de imágenes hiperespectrales. En las últimas décadas este campo está siendo muy activo, por lo que es de vital importancia tratar su problema principal: mezcla espectral. Muchos algoritmos han tratado de solucionar este problema, pero que a través de este trabajo se propone una cadena nueva de desmezclado en paralelo, para ser acelerados bajo el paradigma de programación paralela de OpenCl. Este paradigma nos aporta el modelo de programación unificada para acelerar algoritmos en sistemas heterogéneos. Podemos dividir el proceso de desmezclado espectral en tres etapas. La primera tiene la tarea de encontrar el número de píxeles puros, llamaremos endmembers a los píxeles formados por una única firma espectral, utilizaremos el algoritmo conocido como Geometry-based Estimation of number of endmembers, GENE. La segunda etapa se encarga de identificar los píxel endmembers y extraerlos junto con todas sus bandas espectrales, para esta etapa se utilizará el algoritmo conocido por Simplex Growing Algorithm, SGA. En la última etapa se crean los mapas de abundancia para cada uno de los endmembers encontrados, de esta etapa será encargado el algoritmo conocido por, Sum-to-one Constrained Linear Spectral Unmixing, SCLSU. Las plataformas utilizadas en este proyecto han sido tres: CPU, Intel Xeon E5-2695 v3, GPU, NVidia GeForce GTX 980, Acelerador, Intel Xeon Phi 31S1P. La idea de este proyecto se basa en realizar un análisis exhaustivo de los resultados obtenidos en las diferentes plataformas, con el fin de evaluar cuál se ajusta mejor a nuestras necesidades.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La gran evolución a lo largo de este tiempo sobre dispositivos móviles y sus características, así como las vías de conexión de alta velocidad 3G/4G, han logrado dar un giro a los planteamientos económicos empresariales consiguiendo que se replanteen los costes de sus infraestructuras tradicionales, involucrando las nuevas tecnologías en su nueva estructura económica y consiguiendo invertir menos recursos humanos en el proceso de producción. Este proyecto propone una solución real para la empresa Madrileña Red de Gas. Mientras el proyecto de contadores inteligentes se termina de concretar y desarrollar, es necesario disponer de un método que automatice la lectura de los contadores analógicos mediante el procesamiento de una imagen digital a través de una aplicación informática que sea capaz de determinar el código de identificación del contador así como la lectura del consumo actual. Para la elaboración del método desarrollado se han utilizado conceptos propios de Visión por Computador y de Aprendizaje Automático, más específicamente tratamiento de imágenes y reconocimiento óptico de caracteres, mediante la aplicación de métodos en el ámbito de dichas disciplinas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A lo largo de la historia, nuestro planeta ha atravesado numerosas y diferentes etapas. Sin embargo, desde finales del cretácico no se vivía un cambio tan rápido como el actual. Y a la cabeza del cambio, nosotros, el ser humano. De igual manera que somos la causa, debemos ser también la solución, y el análisis a gran escala de la tierra está siendo un punto de interés para la comunidad científica en los últimos años. Prueba de ello es que, cada vez con más frecuencia, se lanzan gran cantidad de satélites cuya finalidad es el análisis, mediante fotografías, de la superficie terrestre. Una de las técnicas más versátiles para este análisis es la toma de imágenes hiperespectrales, donde no solo se captura el espectro visible, sino numerosas longitudes de onda. Suponen, eso sí un reto tecnológico, pues los sensores consumen más energía y las imágenes más memoria, ambos recursos escasos en el espacio. Dado que el análisis se hace en tierra firme, es importante una transmisión de datos eficaz y rápida. Por ello creemos que la compresión en tiempo real mediante FPGAs es la solución idónea, combinando un bajo consumo con una alta tasa de compresión, posibilitando el análisis ininterrumpido del astro en el que vivimos. En este trabajo de fin de grado se ha realizado una implementación sobre FPGA, utilizando VHDL, del estándar CCSDS 123. Este está diseñado para la compresión sin pérdida de imágenes hiperespectrales, y permite una amplia gama de configuraciones para adaptarse de manera óptima a cualquier tipo de imagen. Se ha comprobado exitosamente la validez de la implementación comparando los resultados obtenidos con otras implementaciones (software) existentes. Las principales ventajas que presentamos aquí es que se posibilita la compresión en tiempo real, obteniendo además un rendimiento energético muy prometedor. Estos resultados mejoran notablemente los de una implementación software del algoritmo, y permitirán la compresión de las imágenes a bordo de los satélites que las toman.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este documento explica la creación, implementación y uso del proyecto de fin de grado, desarrollado dentro del grupo de investigación ISCAR (Ingeniería de Sistemas, Control, Automática y Robótica) de la Facultad de Informática de la Universidad Complutense. El proyecto consiste en la implementación de una aplicación capaz de clasificar texturas extraídas de distintas imágenes mediante técnicas de visión por computador. Dicha aplicación se divide en tres pilares fundamentales: interfaz gráfica de usuario, algoritmos de extracción de características texturales y aprendizaje supervisado mediante una máquina “SVM” (Support Vector Machine). Interfaz gráfica: proporciona al usuario una forma fácil de uso de la aplicación por medio de la visualización gráfica de una imagen con una serie de elementos de configuración para su posterior análisis. Una vez analizada, el usuario si así lo desea, podrá visualizar los resultados de manera intuitiva, así como guardar dichos resultados después de la ejecución de los algoritmos pertinentes. Algoritmos de análisis de texturas: Procede al cálculo de las configuraciones y las muestras provistas por el usuario en la interfaz gráfica como el cálculo de la matriz de co-ocurrencia y el cálculo de los vectores de características (homogeneidad, media, varianza, Entropía, etc…). SVM: Utiliza los vectores de características obtenidos en los cálculos estadísticos de texturas para realizar el proceso de aprendizaje de un clasificador SVM. La aplicación ha sido construida en JAVA haciendo uso de librerías como JNI_SVM-light-6.01, commons-math3-3.0 y WindowsBuilder, para la construcción de la ventana gráfica, cálculo de los métodos estadísticos y máquina de aprendizaje automático. Dicha aplicación se ha utilizado con el objetivo de identificar y clasificar el quiste de Baker mediante imágenes obtenidas por Resonancias Magnéticas de la rodilla.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente trabajo tiene por objetivo mostrar una visión alternativa acerca del Patrimonio Cultural, particularmente del industrial, tan alejado de su salvaguarda en el contexto mexicano. Este ensayo intenta ilustrar un ejemplo del Patrimonio Cultural de la periferia, con el ánimo de romper el paradigma que incluye un discurso patrimonialista para así construir una perspectiva crítica. Para ello, se empleará como categoría de análisis a la memoria y en complemento, el olvido bajo una perspectiva dialéctica, cuyo mecanismo es necesario para la actualización de imágenes, apropiaciones y discursos de esta historia local fabril. Asimismo, es una invitación para aplicar dicha categoría y generar ideas para mirar los relatos y narrativas que los sujetos construyen, y son quienes conviven de manera cotidiana con este espacio. Por tanto, los reglamentos, instituciones y especialistas no son los únicos actores responsables de dictaminar el valor cultural, sino es importante contemplar la multiplicidad de miradas y concepciones para establecer una relación dialógica cordial y romper fronteras entre instituciones y comunidades. Una de las desventajas de las políticas culturales es que se asume o da por hecho una visión unívoca del Patrimonio Cultural, así como el conjunto de acciones que se deberá acatar sin evaluar a priori la complejidad del fenómeno. Por tal motivo, es importante mirar los diferentes textos que se generan en este ámbito y conocer a fondo lo polisemia o la diversidad de significados que se le atribuye al territorio, vestigio, conjunto arquitectónico, sitio arqueológico, etc. En consecuencia, se propone un estudio que contemple este modelo de análisis para construir una visión propositiva más allá del sesgo institucional y/o burocrático. El sitio industrial en cuestión, el cual se presenta en esta comunicación ubica sus inicios desde las primeras décadas del siglo XIX, en el cual se construyó una fábrica textil y fue tejiendo una zona habitacional para sus obreros y familias, convirtiéndose en una colonia de la ciudad de Puebla equipada con lo necesario para conformar un territorio industrial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estudios en niños con Trastornos en el Neurodesarrollo del Lenguaje (TNDL) han mostrado que esta población tiene mayores dificultades en el acceso al léxico que los niños con Desarrollo Típico (DT). Estas dificultades se materializan principalmente en ausencia de respuesta ante la demanda de denominación de una imagen (respuesta anómica) o la elicitación de una denominación correspondiente a otro objeto, bien por su proximidad semántica o bien por la proximidad entre sus nombres (sustituciones parafásicas semánticas y fonológicas). Sin embargo, estas características no parecen ser generalizables al conjunto de los niños TNDL y se pone en duda que lo sea aún en poblaciones más específicas en las que es una característica bastante común y remarcable como en los niños con TEL. En el presente estudio se ha diseñado y construido una prueba para estudiar el procesamiento léxico en niños con edades comprendidas entre los 2;06 y 7;11 años: el Test de Evaluación y Análisis del Léxico Infantil (ALI). La prueba incluye una tarea de denominación y dos tareas complementarias: una de reconocimiento e identificación de imágenes (comprensión léxica por vía auditiva) y otra de repetición de palabras. La prueba se aplicó a una amplia población de niños con DT del lenguaje (n=240) de las edades mencionadas con objeto de disponer de una primera referencia del comportamiento normativo de la población infantil en la tarea de denominación de imágenes. Los resultados obtenidos con la población de niños con DT ponen de manifiesto que la prueba posee un alto nivel de consistencia interna y validez convergente. Las puntuaciones obtenidas han permitido elaborar un baremo en puntuaciones centiles de la denominación e identificación de imágenes y repetición de palabras para la población comprendida entre los 3 y 6 años...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se presenta la utilización de narrativas apreciativas como estrategia para intervenir en la construcción del espíritu innovador que debe tener un estudiante universitario para participar como profesional en la sociedad. Esta capacidad está incluida en las competencias transversales de resolución de problemas y toma de decisiones de la mayoría de las disposiciones legales y planes de estudios universitarios. La investigación realizada en un grupo de estudiantes pone de relieve la necesidad percibida por parte de los estudiantes de esta competencia. La elaboración de nuevas narrativas permite conectar con la posibilidad de emprender proyectos que respondan a las necesidades actuales.