22 resultados para Imágenes estáticas

em Universidade Complutense de Madrid


Relevância:

60.00% 60.00%

Publicador:

Resumo:

La presente investigación analiza el proceso de descentralización de base municipal aplicada en Bolivia entre 1994 (promulgación de la Ley de Participación Popular) y 2006 (elección de prefectos y el referéndum por autonomías)1, planteando para este efecto una perspectiva analítica distinta a la generalmente utilizada en los tradicionales estudios sobre el tema en el país, esta vez centrada en las relaciones intergubernamentales como un enfoque que permite observar a las estructuras estatales en su funcionamiento concreto, es decir, el ‘ser’ del proceso, más allá de las imágenes estáticas que emergen de los estudios esencialmente normativos que reparan básicamente en el ‘deber ser’ del mismo. La hipótesis central del estudio vincula, en clave de causalidad, la existencia de un supuesto ‘déficit en el establecimiento de canales y mecanismos de relaciones intergubernamentales’ (variable independiente) como un factor que contribuyó a la ‘deslegitimación política del modelo de descentralización de base municipal en Bolivia’ (variable dependiente), planteamiento que pudo ser parcialmente corroborado a partir de la sistematización, interpretación y significación de la información obtenida, confirmando la existencia de un incipiente y endeble sistema de RIG que emerge tardíamente en el escenario nacional afincándose débilmente en un proceso de descentralización municipal que por entonces había reportado notables avances. Se produjo, en otros términos, un desarrollo asimétrico entre un sistema de RIG incipiente y por lo mismo débil y desestructurado, frente a un notable desarrollo normativo y discursivo del proceso de descentralización de base municipal por entonces en ebullición, lo que contribuyó, entre muchos otros factores, al debilitamiento del modelo y al surgimiento de demandas que propugnaban su reforma desde distintas vertientes y con intensidades variables, todo en el marco de la crisis general del sistema que se produjo en el país durante el periodo de estudio y que a la postre dio origen a la nueva Constitución Política del Estado Plurinacional de Bolivia, aprobada mediante referéndum nacional el 25 de enero de 2009 y promulgada el 7 de febrero del mismo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta investigación se plantea demostrar que la renovación de las artes, principalmente de la pintura y la escultura, que tuvo lugar tras el fin de la dictadura en España, es decir, durante la Transición, fue consecuencia, al menos en parte, de un interés de los artistas por la representación de los espacios urbanos y de las figuraciones arquitectónicas. Por un lado hemos establecido el objetivo de realizar un estudio sobre el arte de los 80’, comprobando si realmente existió un movimiento afín en aquella época y definiendo sus características tanto estéticas como conceptuales e históricas. Por otro, hemos analizado la presencia arquitectónica y urbana en las obras de arte creadas en el periodo a estudiar (1976-1992), investigando sobre su origen, su significado, su importancia estética y sus influencias. La metodología utilizada ha pretendido buscar una serie de elementos objetivos, huyendo de los recuerdos nostálgicos o interesados de los protagonistas y fijándonos en los hechos tal y como acontecieron en su momento, por lo que los catálogos de las exposiciones, las declaraciones de los artistas en el momento de la creación de las obras y la literatura crítica coetánea han sido las principales líneas de trabajo, aunque la observación pormenorizada de las obras de arte y el análisis de sus múltiples referencias históricas, estilísticas, artísticas y estéticas han sido absolutamente fundamentales...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La investigación desarrollada para esta tesis doctoral titulada “Los bancos de imágenes en Internet. Características, funciones y aplicaciones” se centra en el estudio general de estos sitios web y su principal objetivo es definirlos y analizarlos con base en un modelo de análisis de creación propia de este investigador. Creemos que es una investigación muy pertinente ya que nos encontramos en un mundo en el que prima la imagen, las utilizamos a todas horas, en múltiples ámbitos y, por tanto, se hacen indispensables sitios webs a los que los usuarios puedan acceder, donde consigan buscar y encontrar imágenes digitales para diversos propósitos. Durante los últimos 15 años han ido apareciendo y se han ido desarrollando los bancos de imágenes en Internet (BDI). Aunque el número de bancos ha ido creciendo muy rápidamente, los estudios sobre ellos no lo han hecho en la misma medida. De hecho, aunque existen varios trabajos científicos sobre ellos muy interesantes, muchas de las publicaciones al respecto se quedan en la mera descripción de unos pocos bancos a modo de ejemplo, de forma que pretenden explicar así su modo de funcionamiento. En este estudio, sin embargo, se ha pretendido hacer un análisis riguroso de una muestra importante de bancos de imágenes, tanto a nivel cuantitativo como a nivel cualitativo, para extraer el mayor número posible de conclusiones respecto al objeto de estudio...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A través de esta investigación se busca analizar de que forma una categoría estética como es lo grotesco, relacionada generalmente con lo desagradable, lo inquietante, lo cómico-burlesco e, incluso, lo repugnante y lo siniestro, tiene cabida en el ámbito de la fotografía publicitaria, mediante la observación de una tendencia estética que se caracteriza por un uso de lo grotesco sobre todo fantástico, y en la que confluyen algunos de los valores que le han sido atribuidos por diferentes autores a lo largo del tiempo, con otros nuevos que se adecuan a su contexto publicitario. De esta forma, en primer lugar, y para llegar al momento en que lo grotesco adquiere, finalmente, entidad propia, se debe comenzar por el estudio de la belleza, la cual es considerada una de las ideas principales del pensamiento filosófico durante un largo período de tiempo, hasta que entra en crisis en el siglo XVIII a la par que nace la estética como disciplina, e irrumpen nuevas categorías a tener en cuenta en la reflexión sobre el arte, entre las que se encuentra lo grotesco. Así, lo grotesco surge como término en el siglo XV, proveniente de la palabra italiana gruta, ya que se utilizó inicialmente para designar ciertas ornamentaciones encontradas en el sepultado palacio de la Domus Aurea, construido por Nerón en el siglo I. Esas pinturas fueron imitadas por varios pintores del XV y asentado ya el término como sustantivo, vio como era adjetivado y se extendía por toda Europa, relacionándose, además, con numerosas concepciones como lo ridículo o lo bizarro, o manifestaciones cómico artísticas como la Comedia del Arte o los grabados de Callot. Entonces, llegado el siglo XVIII y esa mencionada ampliación del gusto estético en el Romanticismo, y con el apoyo de autores como Friedrich Schlegel, Ruskin y sobre todo Victor Hugo, lo grotesco surge como categoría estética independiente aunque limítrofe con otras, como lo sublime, lo feo y lo cómico, entre las que este estudio analiza sus relaciones y sus distinciones para profundizar en la compleja naturaleza de lo grotesco...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mi interés por la creatividad surge en el año 2012, cuando se me ofrece la oportunidad de asumir la docencia de las asignaturas Creatividad y Educación y Fundamentos de la Educación Artística en el centro universitario CES Don Bosco, adscrito a la Universidad Complutense de Madrid. Me encuentro en mis clases con un alumnado pasivo, excesivamente cómodo, que se angustia con la novedad, y que busca una respuesta única que permita alimentar su “píldora” de la satisfacción. Es decir, una receta que alimente su manual de buenas prácticas para confiarse como buen trabajador en un futuro próximo.   Me propuse estudiar como estimular el cerebro de este alumnado, con el objetivo de ayudar a mis estudiantes en su futura trayectoria profesional y personal. Es entonces cuando mi interés inicial por el mundo de la creatividad se convierte en objeto de estudio. El modelo estructural de la inteligencia de Guildford me resulta particularmente apto porque a través de este y su columna de aptitudes factoriales denominada “producción divergente” me facilita diseñar un marco práctico de actividades en torno al arte, con el objetivo de incrementar nuestra fluidez y flexibilidad de pensamiento, y recuperar de esta forma la parte creativa dormida. En la comparativa entre los resultados previos y los obtenidos al final del cuatrimestre, puedo destacar que la flexibilidad y la fluidez se ven alteradas de forma positiva...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Since the first decade of the 21st century, the Valley of the Fallen has been established as an object of controversy related to the new policies of memory. In recent years the "Historical Memory" has been a recurring concept in the mass media. While it is true that since 2011 this issue has been overshadowed in the political agenda, even today we continue to access information that refers to our recent past, from perspectives that demand actions of ethic, symbolic, political or economic repair. Many of these reports could be framed within a broader discourse, akin to a concept of "historical memory". These media texts are part of a larger problem that is troubling modern western societies and that has presented a remarkable recovery since the late nineties: debates or polemics on memory. In this paper we propose to study the nature of these media texts. We assume that the mass media configure their texts from frameworks or pre-existing frames. For this research, we propose an analysis of content based on the theory of framing to identify what is the typical journalistic discourse and the modalities of interpretive general framework applied in a number of texts and broadcasts about the Valley of the Fallen...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El control de malas hierbas en grandes extensiones de terreno resulta costoso y a veces contaminante desde el punto de vista medioambiental. El avance en los últimos años de los sistemas de control y automatización en agricultura ha favorecido la aparición del concepto de Agricultura de Precisión (AP), para intervenir o actuar sobre el cultivo, en el momento adecuado y en el lugar preciso. La presente tesis se ha desarrollado en el marco de dos proyectos de investigación a nivel nacional y uno europeo. Este último dentro del VII programa Marco de la Unión Europea, cuyo principal objetivo era implementar técnicas de AP de forma más eficiente mediante flotas de robots. En todos ellos, que han involucrado robots, éstos están equipados con sus correspondientes sistemas de Visión Artificial con el fin de identificar la existencia de determinadas texturas de interés con fines de tratamientos específicos o navegación segura de los vehículos, evitando obstáculos u otros elementos existentes en el campo de trabajo. Para la consecución de los objetivos mencionados resulta necesario el análisis de las imágenes procedentes de los campos de cultivo. Estas imágenes están constituidas por diferentes elementos que en su conjunto contienen diferentes tipos de estructuras, tales como: a) plantas verdes alineadas en forma de surcos o dispersas según se trate de cultivo o malas hierbas; b) suelo que constituye el sustrato; c) cielo u otros componentes añadidos. Todos ellos constituyen lo que desde el punto de vista del tratamiento de imágenes se conoce como texturas...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabajo presenta el desarrollo de una aplicación destinada al análisis de secuencias de imágenes para la detección de movimiento en la escena. Se trata de un campo importante de la Visión Artificial, con múltiples aplicaciones entre las que se encuentra la videovigilancia con fines de seguridad, el control de tráfico, el movimiento de personas o el seguimiento y localización de objetos entre otras muchas. Para ello se utilizan métodos de análisis como son el de Lucas-Kanade y Gauss-Seidel, que obtienen el denominado flujo óptico. Este describe el movimiento que ha tenido lugar entre las imágenes y su fundamento estriba en la determinación de las variables espaciales y temporales en las imágenes, siendo precisamente la variable temporal la que introduce el concepto fundamental para el análisis del movimiento a partir de las imágenes captadas en diferentes instantes de tiempo dentro de la secuencia analizada. Para el desarrollo de la aplicación se han utilizado técnicas propias del tratamiento de la Visión Artificial, así como la metodología proporcionada por la Ingeniería del Software. Así, se ha realizado una especificación de requisitos, se ha elaborado y seguido un plan de proyecto y se ha realizado un análisis de alto nivel, que se materializa en el correspondiente diseño e implementación, junto con las pruebas de verificación y validación, obviamente adaptados en todos los casos a las dimensiones del proyecto, pero que establecen claramente los planteamientos básicos para el desarrollo de una aplicación a nivel empresarial. La aplicación planteada se enmarca perfectamente dentro del paradigma, hoy en día en pleno auge, conocido como el Internet de las Cosas (IoT). El IoT permite la intercomunicación entre dispositivos remotos, de forma que mediante la correspondiente comunicación a través de conexiones a Internet es posible obtener datos remotos para su posterior análisis, bien en nodos locales o en la nube, como concepto íntimamente relacionado con el IoT. Este es el caso de la aplicación que se presenta, de suerte que los métodos de procesamiento de las imágenes pueden aplicarse localmente o bien transmitir las mismas para su procesamiento en nodos remotos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el presente trabajo se propone dar solución a uno de los problemas principales surgido en el campo del análisis de imágenes hiperespectrales. En las últimas décadas este campo está siendo muy activo, por lo que es de vital importancia tratar su problema principal: mezcla espectral. Muchos algoritmos han tratado de solucionar este problema, pero que a través de este trabajo se propone una cadena nueva de desmezclado en paralelo, para ser acelerados bajo el paradigma de programación paralela de OpenCl. Este paradigma nos aporta el modelo de programación unificada para acelerar algoritmos en sistemas heterogéneos. Podemos dividir el proceso de desmezclado espectral en tres etapas. La primera tiene la tarea de encontrar el número de píxeles puros, llamaremos endmembers a los píxeles formados por una única firma espectral, utilizaremos el algoritmo conocido como Geometry-based Estimation of number of endmembers, GENE. La segunda etapa se encarga de identificar los píxel endmembers y extraerlos junto con todas sus bandas espectrales, para esta etapa se utilizará el algoritmo conocido por Simplex Growing Algorithm, SGA. En la última etapa se crean los mapas de abundancia para cada uno de los endmembers encontrados, de esta etapa será encargado el algoritmo conocido por, Sum-to-one Constrained Linear Spectral Unmixing, SCLSU. Las plataformas utilizadas en este proyecto han sido tres: CPU, Intel Xeon E5-2695 v3, GPU, NVidia GeForce GTX 980, Acelerador, Intel Xeon Phi 31S1P. La idea de este proyecto se basa en realizar un análisis exhaustivo de los resultados obtenidos en las diferentes plataformas, con el fin de evaluar cuál se ajusta mejor a nuestras necesidades.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La gran evolución a lo largo de este tiempo sobre dispositivos móviles y sus características, así como las vías de conexión de alta velocidad 3G/4G, han logrado dar un giro a los planteamientos económicos empresariales consiguiendo que se replanteen los costes de sus infraestructuras tradicionales, involucrando las nuevas tecnologías en su nueva estructura económica y consiguiendo invertir menos recursos humanos en el proceso de producción. Este proyecto propone una solución real para la empresa Madrileña Red de Gas. Mientras el proyecto de contadores inteligentes se termina de concretar y desarrollar, es necesario disponer de un método que automatice la lectura de los contadores analógicos mediante el procesamiento de una imagen digital a través de una aplicación informática que sea capaz de determinar el código de identificación del contador así como la lectura del consumo actual. Para la elaboración del método desarrollado se han utilizado conceptos propios de Visión por Computador y de Aprendizaje Automático, más específicamente tratamiento de imágenes y reconocimiento óptico de caracteres, mediante la aplicación de métodos en el ámbito de dichas disciplinas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A lo largo de la historia, nuestro planeta ha atravesado numerosas y diferentes etapas. Sin embargo, desde finales del cretácico no se vivía un cambio tan rápido como el actual. Y a la cabeza del cambio, nosotros, el ser humano. De igual manera que somos la causa, debemos ser también la solución, y el análisis a gran escala de la tierra está siendo un punto de interés para la comunidad científica en los últimos años. Prueba de ello es que, cada vez con más frecuencia, se lanzan gran cantidad de satélites cuya finalidad es el análisis, mediante fotografías, de la superficie terrestre. Una de las técnicas más versátiles para este análisis es la toma de imágenes hiperespectrales, donde no solo se captura el espectro visible, sino numerosas longitudes de onda. Suponen, eso sí un reto tecnológico, pues los sensores consumen más energía y las imágenes más memoria, ambos recursos escasos en el espacio. Dado que el análisis se hace en tierra firme, es importante una transmisión de datos eficaz y rápida. Por ello creemos que la compresión en tiempo real mediante FPGAs es la solución idónea, combinando un bajo consumo con una alta tasa de compresión, posibilitando el análisis ininterrumpido del astro en el que vivimos. En este trabajo de fin de grado se ha realizado una implementación sobre FPGA, utilizando VHDL, del estándar CCSDS 123. Este está diseñado para la compresión sin pérdida de imágenes hiperespectrales, y permite una amplia gama de configuraciones para adaptarse de manera óptima a cualquier tipo de imagen. Se ha comprobado exitosamente la validez de la implementación comparando los resultados obtenidos con otras implementaciones (software) existentes. Las principales ventajas que presentamos aquí es que se posibilita la compresión en tiempo real, obteniendo además un rendimiento energético muy prometedor. Estos resultados mejoran notablemente los de una implementación software del algoritmo, y permitirán la compresión de las imágenes a bordo de los satélites que las toman.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este documento explica la creación, implementación y uso del proyecto de fin de grado, desarrollado dentro del grupo de investigación ISCAR (Ingeniería de Sistemas, Control, Automática y Robótica) de la Facultad de Informática de la Universidad Complutense. El proyecto consiste en la implementación de una aplicación capaz de clasificar texturas extraídas de distintas imágenes mediante técnicas de visión por computador. Dicha aplicación se divide en tres pilares fundamentales: interfaz gráfica de usuario, algoritmos de extracción de características texturales y aprendizaje supervisado mediante una máquina “SVM” (Support Vector Machine). Interfaz gráfica: proporciona al usuario una forma fácil de uso de la aplicación por medio de la visualización gráfica de una imagen con una serie de elementos de configuración para su posterior análisis. Una vez analizada, el usuario si así lo desea, podrá visualizar los resultados de manera intuitiva, así como guardar dichos resultados después de la ejecución de los algoritmos pertinentes. Algoritmos de análisis de texturas: Procede al cálculo de las configuraciones y las muestras provistas por el usuario en la interfaz gráfica como el cálculo de la matriz de co-ocurrencia y el cálculo de los vectores de características (homogeneidad, media, varianza, Entropía, etc…). SVM: Utiliza los vectores de características obtenidos en los cálculos estadísticos de texturas para realizar el proceso de aprendizaje de un clasificador SVM. La aplicación ha sido construida en JAVA haciendo uso de librerías como JNI_SVM-light-6.01, commons-math3-3.0 y WindowsBuilder, para la construcción de la ventana gráfica, cálculo de los métodos estadísticos y máquina de aprendizaje automático. Dicha aplicación se ha utilizado con el objetivo de identificar y clasificar el quiste de Baker mediante imágenes obtenidas por Resonancias Magnéticas de la rodilla.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estudios en niños con Trastornos en el Neurodesarrollo del Lenguaje (TNDL) han mostrado que esta población tiene mayores dificultades en el acceso al léxico que los niños con Desarrollo Típico (DT). Estas dificultades se materializan principalmente en ausencia de respuesta ante la demanda de denominación de una imagen (respuesta anómica) o la elicitación de una denominación correspondiente a otro objeto, bien por su proximidad semántica o bien por la proximidad entre sus nombres (sustituciones parafásicas semánticas y fonológicas). Sin embargo, estas características no parecen ser generalizables al conjunto de los niños TNDL y se pone en duda que lo sea aún en poblaciones más específicas en las que es una característica bastante común y remarcable como en los niños con TEL. En el presente estudio se ha diseñado y construido una prueba para estudiar el procesamiento léxico en niños con edades comprendidas entre los 2;06 y 7;11 años: el Test de Evaluación y Análisis del Léxico Infantil (ALI). La prueba incluye una tarea de denominación y dos tareas complementarias: una de reconocimiento e identificación de imágenes (comprensión léxica por vía auditiva) y otra de repetición de palabras. La prueba se aplicó a una amplia población de niños con DT del lenguaje (n=240) de las edades mencionadas con objeto de disponer de una primera referencia del comportamiento normativo de la población infantil en la tarea de denominación de imágenes. Los resultados obtenidos con la población de niños con DT ponen de manifiesto que la prueba posee un alto nivel de consistencia interna y validez convergente. Las puntuaciones obtenidas han permitido elaborar un baremo en puntuaciones centiles de la denominación e identificación de imágenes y repetición de palabras para la población comprendida entre los 3 y 6 años...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta investigación trata de ofrecer una visión concreta acerca de porque un buen número de artistas, están trabajando con imágenes que comparten estéticas o numerosos elementos visuales. El objetivo principal no son, de hecho, los artistas, sino más bien las razones que podrían llevarles a adoptar estas estéticas. La investigación se divide en tres partes principales, y una cuarta que funciona como introducción a las diversas problemáticas planteadas. La primera trata acerca de cómo la fragmentación ha influenciado a la pintura de algunos artistas y pretende encontrar las razones de esta influencia. La segunda se centra en un tipo de pinturas conocidas como “borrosas”, cercanas al concepto de “efecto Tuymans” que ideó Jordan Kantor. La última parte de este trabajo aborda como el mundo digital y concretamente los gráficos de ordenador, han podido influenciar también el modo en que pintamos...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La presente tesis doctoral aborda el conflicto entre texto e imagen en la producción de conocimiento y más especialmente incide sobre la forma en la que tal conflicto opera dentro del ámbito de la investigación en arte y desde el arte. Se parte pues de la hipótesis de que hay un repertorio de imágenes de la materia escrita – como una suerte de imaginación textual desatendida – que es transversal a las humanidades y que a menudo se encuentra naturalizada como algo inerte o simplemente poco atractivo. Una estética insignificante del conocimiento académico que sin embargo sirve de puente entre las llamadas prácticas artísticas y las propiamente científicas y/o universitarias. Para dar lugar a una definición de esta plástica de lo textual – que sería distinta de la prosodia o la poética del texto más literario – la investigación se articula a través de una serie de casos de estudio cuyo eje no es aleatorio sino diagonal tal y como lo planteaba Roger Caillois a principios de los años 60. Así, las categorías de estudio de esta investigación parten de detalles inéditos, en tanto que apenas han sido enunciados con anterioridad, y atraviesan ámbitos que van desde la biología del camuflaje hasta la bibliografía, pasando por la epistemología, el discurso amateur y el diseño del espacio propio de una biblioteca. Estos hilos conductores aparentemente imprevistos tratan de revelar por contra ciertos principios consistentes del texto según se ensaya, se distribuye y se imagina a sí mismo, ejemplificando así los diferentes grados de contaminación – o dicho de otra forma más cercana a lo visual, los diferentes grados de montaje, revisión e instalación – a los que se somete habitualmente todo texto del conocimiento...