20 resultados para IMÁGENES E ÍDOLOS
em Universidade Complutense de Madrid
Resumo:
La investigación desarrollada para esta tesis doctoral titulada “Los bancos de imágenes en Internet. Características, funciones y aplicaciones” se centra en el estudio general de estos sitios web y su principal objetivo es definirlos y analizarlos con base en un modelo de análisis de creación propia de este investigador. Creemos que es una investigación muy pertinente ya que nos encontramos en un mundo en el que prima la imagen, las utilizamos a todas horas, en múltiples ámbitos y, por tanto, se hacen indispensables sitios webs a los que los usuarios puedan acceder, donde consigan buscar y encontrar imágenes digitales para diversos propósitos. Durante los últimos 15 años han ido apareciendo y se han ido desarrollando los bancos de imágenes en Internet (BDI). Aunque el número de bancos ha ido creciendo muy rápidamente, los estudios sobre ellos no lo han hecho en la misma medida. De hecho, aunque existen varios trabajos científicos sobre ellos muy interesantes, muchas de las publicaciones al respecto se quedan en la mera descripción de unos pocos bancos a modo de ejemplo, de forma que pretenden explicar así su modo de funcionamiento. En este estudio, sin embargo, se ha pretendido hacer un análisis riguroso de una muestra importante de bancos de imágenes, tanto a nivel cuantitativo como a nivel cualitativo, para extraer el mayor número posible de conclusiones respecto al objeto de estudio...
Resumo:
A través de esta investigación se busca analizar de que forma una categoría estética como es lo grotesco, relacionada generalmente con lo desagradable, lo inquietante, lo cómico-burlesco e, incluso, lo repugnante y lo siniestro, tiene cabida en el ámbito de la fotografía publicitaria, mediante la observación de una tendencia estética que se caracteriza por un uso de lo grotesco sobre todo fantástico, y en la que confluyen algunos de los valores que le han sido atribuidos por diferentes autores a lo largo del tiempo, con otros nuevos que se adecuan a su contexto publicitario. De esta forma, en primer lugar, y para llegar al momento en que lo grotesco adquiere, finalmente, entidad propia, se debe comenzar por el estudio de la belleza, la cual es considerada una de las ideas principales del pensamiento filosófico durante un largo período de tiempo, hasta que entra en crisis en el siglo XVIII a la par que nace la estética como disciplina, e irrumpen nuevas categorías a tener en cuenta en la reflexión sobre el arte, entre las que se encuentra lo grotesco. Así, lo grotesco surge como término en el siglo XV, proveniente de la palabra italiana gruta, ya que se utilizó inicialmente para designar ciertas ornamentaciones encontradas en el sepultado palacio de la Domus Aurea, construido por Nerón en el siglo I. Esas pinturas fueron imitadas por varios pintores del XV y asentado ya el término como sustantivo, vio como era adjetivado y se extendía por toda Europa, relacionándose, además, con numerosas concepciones como lo ridículo o lo bizarro, o manifestaciones cómico artísticas como la Comedia del Arte o los grabados de Callot. Entonces, llegado el siglo XVIII y esa mencionada ampliación del gusto estético en el Romanticismo, y con el apoyo de autores como Friedrich Schlegel, Ruskin y sobre todo Victor Hugo, lo grotesco surge como categoría estética independiente aunque limítrofe con otras, como lo sublime, lo feo y lo cómico, entre las que este estudio analiza sus relaciones y sus distinciones para profundizar en la compleja naturaleza de lo grotesco...
Resumo:
Mi interés por la creatividad surge en el año 2012, cuando se me ofrece la oportunidad de asumir la docencia de las asignaturas Creatividad y Educación y Fundamentos de la Educación Artística en el centro universitario CES Don Bosco, adscrito a la Universidad Complutense de Madrid. Me encuentro en mis clases con un alumnado pasivo, excesivamente cómodo, que se angustia con la novedad, y que busca una respuesta única que permita alimentar su “píldora” de la satisfacción. Es decir, una receta que alimente su manual de buenas prácticas para confiarse como buen trabajador en un futuro próximo. Me propuse estudiar como estimular el cerebro de este alumnado, con el objetivo de ayudar a mis estudiantes en su futura trayectoria profesional y personal. Es entonces cuando mi interés inicial por el mundo de la creatividad se convierte en objeto de estudio. El modelo estructural de la inteligencia de Guildford me resulta particularmente apto porque a través de este y su columna de aptitudes factoriales denominada “producción divergente” me facilita diseñar un marco práctico de actividades en torno al arte, con el objetivo de incrementar nuestra fluidez y flexibilidad de pensamiento, y recuperar de esta forma la parte creativa dormida. En la comparativa entre los resultados previos y los obtenidos al final del cuatrimestre, puedo destacar que la flexibilidad y la fluidez se ven alteradas de forma positiva...
Resumo:
Since the first decade of the 21st century, the Valley of the Fallen has been established as an object of controversy related to the new policies of memory. In recent years the "Historical Memory" has been a recurring concept in the mass media. While it is true that since 2011 this issue has been overshadowed in the political agenda, even today we continue to access information that refers to our recent past, from perspectives that demand actions of ethic, symbolic, political or economic repair. Many of these reports could be framed within a broader discourse, akin to a concept of "historical memory". These media texts are part of a larger problem that is troubling modern western societies and that has presented a remarkable recovery since the late nineties: debates or polemics on memory. In this paper we propose to study the nature of these media texts. We assume that the mass media configure their texts from frameworks or pre-existing frames. For this research, we propose an analysis of content based on the theory of framing to identify what is the typical journalistic discourse and the modalities of interpretive general framework applied in a number of texts and broadcasts about the Valley of the Fallen...
Resumo:
El control de malas hierbas en grandes extensiones de terreno resulta costoso y a veces contaminante desde el punto de vista medioambiental. El avance en los últimos años de los sistemas de control y automatización en agricultura ha favorecido la aparición del concepto de Agricultura de Precisión (AP), para intervenir o actuar sobre el cultivo, en el momento adecuado y en el lugar preciso. La presente tesis se ha desarrollado en el marco de dos proyectos de investigación a nivel nacional y uno europeo. Este último dentro del VII programa Marco de la Unión Europea, cuyo principal objetivo era implementar técnicas de AP de forma más eficiente mediante flotas de robots. En todos ellos, que han involucrado robots, éstos están equipados con sus correspondientes sistemas de Visión Artificial con el fin de identificar la existencia de determinadas texturas de interés con fines de tratamientos específicos o navegación segura de los vehículos, evitando obstáculos u otros elementos existentes en el campo de trabajo. Para la consecución de los objetivos mencionados resulta necesario el análisis de las imágenes procedentes de los campos de cultivo. Estas imágenes están constituidas por diferentes elementos que en su conjunto contienen diferentes tipos de estructuras, tales como: a) plantas verdes alineadas en forma de surcos o dispersas según se trate de cultivo o malas hierbas; b) suelo que constituye el sustrato; c) cielo u otros componentes añadidos. Todos ellos constituyen lo que desde el punto de vista del tratamiento de imágenes se conoce como texturas...
Resumo:
Este trabajo presenta el desarrollo de una aplicación destinada al análisis de secuencias de imágenes para la detección de movimiento en la escena. Se trata de un campo importante de la Visión Artificial, con múltiples aplicaciones entre las que se encuentra la videovigilancia con fines de seguridad, el control de tráfico, el movimiento de personas o el seguimiento y localización de objetos entre otras muchas. Para ello se utilizan métodos de análisis como son el de Lucas-Kanade y Gauss-Seidel, que obtienen el denominado flujo óptico. Este describe el movimiento que ha tenido lugar entre las imágenes y su fundamento estriba en la determinación de las variables espaciales y temporales en las imágenes, siendo precisamente la variable temporal la que introduce el concepto fundamental para el análisis del movimiento a partir de las imágenes captadas en diferentes instantes de tiempo dentro de la secuencia analizada. Para el desarrollo de la aplicación se han utilizado técnicas propias del tratamiento de la Visión Artificial, así como la metodología proporcionada por la Ingeniería del Software. Así, se ha realizado una especificación de requisitos, se ha elaborado y seguido un plan de proyecto y se ha realizado un análisis de alto nivel, que se materializa en el correspondiente diseño e implementación, junto con las pruebas de verificación y validación, obviamente adaptados en todos los casos a las dimensiones del proyecto, pero que establecen claramente los planteamientos básicos para el desarrollo de una aplicación a nivel empresarial. La aplicación planteada se enmarca perfectamente dentro del paradigma, hoy en día en pleno auge, conocido como el Internet de las Cosas (IoT). El IoT permite la intercomunicación entre dispositivos remotos, de forma que mediante la correspondiente comunicación a través de conexiones a Internet es posible obtener datos remotos para su posterior análisis, bien en nodos locales o en la nube, como concepto íntimamente relacionado con el IoT. Este es el caso de la aplicación que se presenta, de suerte que los métodos de procesamiento de las imágenes pueden aplicarse localmente o bien transmitir las mismas para su procesamiento en nodos remotos.
Resumo:
En el presente trabajo se propone dar solución a uno de los problemas principales surgido en el campo del análisis de imágenes hiperespectrales. En las últimas décadas este campo está siendo muy activo, por lo que es de vital importancia tratar su problema principal: mezcla espectral. Muchos algoritmos han tratado de solucionar este problema, pero que a través de este trabajo se propone una cadena nueva de desmezclado en paralelo, para ser acelerados bajo el paradigma de programación paralela de OpenCl. Este paradigma nos aporta el modelo de programación unificada para acelerar algoritmos en sistemas heterogéneos. Podemos dividir el proceso de desmezclado espectral en tres etapas. La primera tiene la tarea de encontrar el número de píxeles puros, llamaremos endmembers a los píxeles formados por una única firma espectral, utilizaremos el algoritmo conocido como Geometry-based Estimation of number of endmembers, GENE. La segunda etapa se encarga de identificar los píxel endmembers y extraerlos junto con todas sus bandas espectrales, para esta etapa se utilizará el algoritmo conocido por Simplex Growing Algorithm, SGA. En la última etapa se crean los mapas de abundancia para cada uno de los endmembers encontrados, de esta etapa será encargado el algoritmo conocido por, Sum-to-one Constrained Linear Spectral Unmixing, SCLSU. Las plataformas utilizadas en este proyecto han sido tres: CPU, Intel Xeon E5-2695 v3, GPU, NVidia GeForce GTX 980, Acelerador, Intel Xeon Phi 31S1P. La idea de este proyecto se basa en realizar un análisis exhaustivo de los resultados obtenidos en las diferentes plataformas, con el fin de evaluar cuál se ajusta mejor a nuestras necesidades.
Resumo:
La gran evolución a lo largo de este tiempo sobre dispositivos móviles y sus características, así como las vías de conexión de alta velocidad 3G/4G, han logrado dar un giro a los planteamientos económicos empresariales consiguiendo que se replanteen los costes de sus infraestructuras tradicionales, involucrando las nuevas tecnologías en su nueva estructura económica y consiguiendo invertir menos recursos humanos en el proceso de producción. Este proyecto propone una solución real para la empresa Madrileña Red de Gas. Mientras el proyecto de contadores inteligentes se termina de concretar y desarrollar, es necesario disponer de un método que automatice la lectura de los contadores analógicos mediante el procesamiento de una imagen digital a través de una aplicación informática que sea capaz de determinar el código de identificación del contador así como la lectura del consumo actual. Para la elaboración del método desarrollado se han utilizado conceptos propios de Visión por Computador y de Aprendizaje Automático, más específicamente tratamiento de imágenes y reconocimiento óptico de caracteres, mediante la aplicación de métodos en el ámbito de dichas disciplinas.
Resumo:
A lo largo de la historia, nuestro planeta ha atravesado numerosas y diferentes etapas. Sin embargo, desde finales del cretácico no se vivía un cambio tan rápido como el actual. Y a la cabeza del cambio, nosotros, el ser humano. De igual manera que somos la causa, debemos ser también la solución, y el análisis a gran escala de la tierra está siendo un punto de interés para la comunidad científica en los últimos años. Prueba de ello es que, cada vez con más frecuencia, se lanzan gran cantidad de satélites cuya finalidad es el análisis, mediante fotografías, de la superficie terrestre. Una de las técnicas más versátiles para este análisis es la toma de imágenes hiperespectrales, donde no solo se captura el espectro visible, sino numerosas longitudes de onda. Suponen, eso sí un reto tecnológico, pues los sensores consumen más energía y las imágenes más memoria, ambos recursos escasos en el espacio. Dado que el análisis se hace en tierra firme, es importante una transmisión de datos eficaz y rápida. Por ello creemos que la compresión en tiempo real mediante FPGAs es la solución idónea, combinando un bajo consumo con una alta tasa de compresión, posibilitando el análisis ininterrumpido del astro en el que vivimos. En este trabajo de fin de grado se ha realizado una implementación sobre FPGA, utilizando VHDL, del estándar CCSDS 123. Este está diseñado para la compresión sin pérdida de imágenes hiperespectrales, y permite una amplia gama de configuraciones para adaptarse de manera óptima a cualquier tipo de imagen. Se ha comprobado exitosamente la validez de la implementación comparando los resultados obtenidos con otras implementaciones (software) existentes. Las principales ventajas que presentamos aquí es que se posibilita la compresión en tiempo real, obteniendo además un rendimiento energético muy prometedor. Estos resultados mejoran notablemente los de una implementación software del algoritmo, y permitirán la compresión de las imágenes a bordo de los satélites que las toman.
Resumo:
Este documento explica la creación, implementación y uso del proyecto de fin de grado, desarrollado dentro del grupo de investigación ISCAR (Ingeniería de Sistemas, Control, Automática y Robótica) de la Facultad de Informática de la Universidad Complutense. El proyecto consiste en la implementación de una aplicación capaz de clasificar texturas extraídas de distintas imágenes mediante técnicas de visión por computador. Dicha aplicación se divide en tres pilares fundamentales: interfaz gráfica de usuario, algoritmos de extracción de características texturales y aprendizaje supervisado mediante una máquina “SVM” (Support Vector Machine). Interfaz gráfica: proporciona al usuario una forma fácil de uso de la aplicación por medio de la visualización gráfica de una imagen con una serie de elementos de configuración para su posterior análisis. Una vez analizada, el usuario si así lo desea, podrá visualizar los resultados de manera intuitiva, así como guardar dichos resultados después de la ejecución de los algoritmos pertinentes. Algoritmos de análisis de texturas: Procede al cálculo de las configuraciones y las muestras provistas por el usuario en la interfaz gráfica como el cálculo de la matriz de co-ocurrencia y el cálculo de los vectores de características (homogeneidad, media, varianza, Entropía, etc…). SVM: Utiliza los vectores de características obtenidos en los cálculos estadísticos de texturas para realizar el proceso de aprendizaje de un clasificador SVM. La aplicación ha sido construida en JAVA haciendo uso de librerías como JNI_SVM-light-6.01, commons-math3-3.0 y WindowsBuilder, para la construcción de la ventana gráfica, cálculo de los métodos estadísticos y máquina de aprendizaje automático. Dicha aplicación se ha utilizado con el objetivo de identificar y clasificar el quiste de Baker mediante imágenes obtenidas por Resonancias Magnéticas de la rodilla.
Resumo:
Estudios en niños con Trastornos en el Neurodesarrollo del Lenguaje (TNDL) han mostrado que esta población tiene mayores dificultades en el acceso al léxico que los niños con Desarrollo Típico (DT). Estas dificultades se materializan principalmente en ausencia de respuesta ante la demanda de denominación de una imagen (respuesta anómica) o la elicitación de una denominación correspondiente a otro objeto, bien por su proximidad semántica o bien por la proximidad entre sus nombres (sustituciones parafásicas semánticas y fonológicas). Sin embargo, estas características no parecen ser generalizables al conjunto de los niños TNDL y se pone en duda que lo sea aún en poblaciones más específicas en las que es una característica bastante común y remarcable como en los niños con TEL. En el presente estudio se ha diseñado y construido una prueba para estudiar el procesamiento léxico en niños con edades comprendidas entre los 2;06 y 7;11 años: el Test de Evaluación y Análisis del Léxico Infantil (ALI). La prueba incluye una tarea de denominación y dos tareas complementarias: una de reconocimiento e identificación de imágenes (comprensión léxica por vía auditiva) y otra de repetición de palabras. La prueba se aplicó a una amplia población de niños con DT del lenguaje (n=240) de las edades mencionadas con objeto de disponer de una primera referencia del comportamiento normativo de la población infantil en la tarea de denominación de imágenes. Los resultados obtenidos con la población de niños con DT ponen de manifiesto que la prueba posee un alto nivel de consistencia interna y validez convergente. Las puntuaciones obtenidas han permitido elaborar un baremo en puntuaciones centiles de la denominación e identificación de imágenes y repetición de palabras para la población comprendida entre los 3 y 6 años...
Resumo:
La presente tesis doctoral aborda el conflicto entre texto e imagen en la producción de conocimiento y más especialmente incide sobre la forma en la que tal conflicto opera dentro del ámbito de la investigación en arte y desde el arte. Se parte pues de la hipótesis de que hay un repertorio de imágenes de la materia escrita – como una suerte de imaginación textual desatendida – que es transversal a las humanidades y que a menudo se encuentra naturalizada como algo inerte o simplemente poco atractivo. Una estética insignificante del conocimiento académico que sin embargo sirve de puente entre las llamadas prácticas artísticas y las propiamente científicas y/o universitarias. Para dar lugar a una definición de esta plástica de lo textual – que sería distinta de la prosodia o la poética del texto más literario – la investigación se articula a través de una serie de casos de estudio cuyo eje no es aleatorio sino diagonal tal y como lo planteaba Roger Caillois a principios de los años 60. Así, las categorías de estudio de esta investigación parten de detalles inéditos, en tanto que apenas han sido enunciados con anterioridad, y atraviesan ámbitos que van desde la biología del camuflaje hasta la bibliografía, pasando por la epistemología, el discurso amateur y el diseño del espacio propio de una biblioteca. Estos hilos conductores aparentemente imprevistos tratan de revelar por contra ciertos principios consistentes del texto según se ensaya, se distribuye y se imagina a sí mismo, ejemplificando así los diferentes grados de contaminación – o dicho de otra forma más cercana a lo visual, los diferentes grados de montaje, revisión e instalación – a los que se somete habitualmente todo texto del conocimiento...
Resumo:
La investigación desarrolla nuevos métodos de transferencia de imágenes electrográficas, basados en los particulares comportamientos que brindan las diferentes técnicas encáusticas. Se pretende con ello ampliar los recursos técnicos y plásticos que atañen por igual a ámbitos artísticos muy diferentes: a la pintura encáustica, al arte electrográfico y a la reintegración cromática. El marco general de estudio comprende por tanto, al mismo tiempo, dos procesos o técnicas, considerando como objeto principal de estudio el espacio común comprendido entre ambas. El marco concreto de estudio comprende el desarrollo de nuevos procesos de transferencia de imágenes electrográficas, delimitados a aquellos en los que la pintura encáustica participe activamente. Asimismo, estos procesos de trasferencia no se desarrollan para formar parte de técnicas de seriación, sino como elementos a introducir en la praxis pictórica o en procesos de reintegración cromática. Los desacuerdos detectados en los primeros acercamientos al estudio de la pintura encáustica, relativos a la consideración o no de algunas de estas técnicas como tales, han conducido también a la realización de una revisión crítica para ayudar a esclarecer esta situación, con el fin de favorecer una visión lo más amplia posible que mejore su comprensión, y con la voluntad de normalizar el conjunto de las técnicas encáusticas. La combinación de encáustica y procesos de transferencia de imágenes electrográficas dan lugar a una nueva materialidad de la imagen, donde a las propiedades de esta pintura: plasticidad, flexibilidad, termoplasticidad, reversibilidad, etc., se le suman las particularidades de la imagen tecnológica: analógica o digital, ligada al uso de la fotografía, del escáner, del ordenador, de programas de tratamiento de imágenes, de impresoras o fotocopiadoras, etc...
Resumo:
La presente tesis analiza los factores que influyen en la construcción de la mirada contemporánea a través del papel de la fotografía en las redes de Internet ya sea con fines sociales o de explotación de imágenes. Hemos investigado la evolución de la fotografía con la llegada de los procesos digitales y la aparición de los nuevos dispositivos de captura que simplifican la obtención de fotografías. Nuestro objeto de estudio también trata de la convergencia con otras ciencias que estudian el funcionamiento del cerebro y el sistema visual humano en relación con la representación fotográfica digital para mejorar tecnológicamente nuestras capacidades visuales. En los últimos 15 años se ha transformado nuestra manera de pensar el mundo y de representarlo. La influencia de la tecnología en la globalización ha tenido consecuencias a nivel social, cultural o económico. La conectividad humana está siendo clave en estos procesos y permite una visión más cosmopolita del mundo, aunque también se nos impone un punto de vista cada vez más dirigido y controlado. En este contexto surgen las redes sociales, dotadas de potentes herramientas de comunicación, organización y participación, lo que ha supuesto un proceso de empoderamiento y capacidad para transformar el mundo o, al menos, la percepción que tenemos del mismo. En este fenómeno global participan también las imágenes fotográficas que se han visto exponencialmente multiplicadas con la aparición de los nuevos medios. El acceso a terminales conectados a Internet y la aparición de cámaras digitales que más tarde se fusionan en dispositivos móviles, los cada vez más extendidos smartphones, han transformando nuestra forma de relacionarnos con la imagen. En el siglo XXI, el uso de la fotografía está al alcance de cualquier “usuario” del primer mundo, que ya no tiene que aprender conocimientos complicados para hacer sus propias fotografías...
Resumo:
En este artículo se presenta una reflexión metodológica sobre la utilización de la entrevista fotográfica en un estudio sobre las estrategias sociales, culturales y comunitarias de “resiliencia” de los hogares fuertemente afectados por la crisis económica y social actual. Esta investigación se realizó en el marco del proyecto europeo RESCuE en el que participan nueve países que se han visto afectados en distinto grado por la crisis. En el artículo se reflexiona sobre las aportaciones y el enriquecimiento que ha posibilitado esta técnica en la investigación, permitiendo un mayor y más diverso acercamiento a las narraciones sobre las prácticas de resiliencia (individual, grupal, comunitaria), así como en torno a las interpretaciones y vivencias sobre estas prácticas en el ámbito cotidiano de los sujetos, con mayor posibilidad de internacionalización del material y los resultados. También se profundiza en las limitaciones y obstáculos de la entrevista fotográfica en la investigación realizada, reflexionando sobre las precauciones a adoptar en el diseño y dinámica de aplicación de esta técnica, de manera que no limite las múltiples potencialidades que la foto- elicitación ofrece.