6 resultados para Imágenes visuales
em Repositorio Institucional de la Universidad de Málaga
Resumo:
Preguntarse acerca de la influencia que la tecnología pueda tener en la mentalidad de la creación implica preguntarse acerca del pasado y del futuro de la creación. No es posible separar el desarrollo tecnológico del desarrollo de la creación, porque tanto la tecnología como la creación son actividades que caracterizan marcadamente al ser humano. En cierta medida, todo hombre crea y usa para ello la tecnología que encuentra a su alcance, a veces incluso como una caja negra, sin comprenderla verdaderamente. Recursivamente, uno de los productos distinguidos del proceso de creación es la tecnología. En líneas generales, la tecnología actúa sobre el significante. No actúa sobre los significados más que indirectamente. En el caso de la música, no es ella, ni tan sólo el sonido, el objeto directo de su actuación: por medio de las tecnologías que se han venido usando hasta ahora, únicamente se alteran las unidades materiales cuya organización, dado un cierto conjunto de características convergentes en una situación, posee una cierta significación. La música, el sonido, las imágenes, el arte, no existen más que como representaciones en algún cerebro, en algún sistema que los reconoce como tales. Ello no debe ser óbice para pensar que no existan: son tan reales como cualquier otro ente que podamos considerar, pero son fenómenos, no cosas. En cuanto a esas tecnologías que nos ocupan, quisiera destacar en primer lugar el hecho de que sus últimas contribuciones están estrechamente ligadas al uso de todo tipo de máquinas de computación digital, es decir, ordenadores digitales. Es importante tomar nota de ello porque la introducción de la discretización de las señales comporta capacidades de almacenamiento, manipulación y transporte jamás alcanzadas con anterioridad. Tal panorama tecnológico, sensiblemente más complejo de lo que aquí se esboza, evolucionará rápidamente hasta que la fibra óptica conecte un gran número de puntos distantes en el globo. Otro de los aspectos que al principio me proponía tratar, la dispersión geográfica de las actividades basadas en la aplicación de las tecnologías de la comunicación, está íntimamente relacionada con ello. Muchos Eventos Artísticos Basados en Telecomunicaciones (EABT) pueden producirse en áreas geográficas muy grandes y se diferencian de otras experiencias artísticas en que su percepción no puede ser global. La dispersión geográfica ocurre cuando un EABT se percibe o se genera de forma claramente parcial debido a las diferencias locales en lo que concierne a las posibilidades tecnológicas y a los canales por los que es transmitido. Piénsese, por ejemplo, en el caso de un EABT donde confluyen diversas contribuciones televisivas y radiofónicas cuya localización geográfica sea diseminada. Como cada emisión afecta a una zona que le es característica, la percepción del paisaje creado por ese EABT varía en función de la situación geográfica desde la que se pretende observar. La dispersión mediática ocurre en virtud de la confluencia de medios diferentes. Como todo tipo de imágenes visuales, acústicas, incluso cinestésicas, puede ser transmitido y reproducido a cualquier distancia para su posterior reelaboración, y como esas informaciones son esencialmente similares, la creación artística experimenta grandes facilidades especialmente en el hipermedio , ese lugar donde confluye gran número de medios de forma que, desde su terminal, cada elaborador de información puede acceder a informaciones procedentes de otros elaboradores, reelaborarlas, aunque 'a priori' no sean de su especialidad, y devolverlas nuevamente a su origen o mandarlas a un destino nuevo: el pensamiento se expresa al modificar la materia que le sirve de soporte y accede por esa vía al dominio de otros pensamientos. La creación -comportamiento, manifestación, síntoma, del pensamiento-, tradicionalmente se ha expresado a través de medios diversos, antiguamente estancos. La introducción de las nuevas tecnologías ha sido más o menos ardua en cada medio. En general, como las nuevas tecnologías son descendientes directos de la física y de las matemáticas, su relación con esos medios ha dependido de lo matematizable que cada uno haya sido a lo largo de su historia, amén de las dimensiones del reto tecnológico que la implementación de herramientas adecuadas supone. Ahora que los niveles de aplicación de la tecnología a los diversos medios está más equilibrada, la creación teleinformática tiende a expresarse a través de formas cada vez más híbridas. El efecto del incremento en la velocidad de intercambio de información en la creación parece claro: difícilmente los EABT podrán ser considerados como eventos cerrados sobre sí mismos. Se trata de procesos de comunicación globales en los que la creación toma parte y se automodifica. En realidad eso siempre ha ocurrido fuera del hipermedio y de las telecomunicaciones. La obra de un autor es un proceso artístico de comunicación, igual que las obras pertenecientes a un determinado estilo. La novedad está en que el ritmo del proceso por el que se produce el intercambio de información no ha sido nunca tan intenso como en este momento, en el que cabe esperar diferencias cualitativas. Sea dicho de paso que, como efecto colateral, el ruido informativo es creciente y se impone una maduración de las técnicas de selección, en el momento inicial de esta reflexión muy primitivas. Conferencia publicada por primera vez en Media-Culture. Claudia Giannetti, Ed. Ediciones L'Angelot.
Resumo:
Conferencia y debate posterior con Matt Madden y Jessica Abel, reconocidos autores internacionales de cómic que disertaron sobre sus resppectivos procesos de trabajo y acerca de sus fuentes y referencias, centrándose especialmente en relacionar sus modos de producción con los del arte contemporáneo. Matt Madden es un historietista estadounidense de gran reconocimiento internacional, miembro del movimiento OuBaPo. Empezó su carrera en Míchigan editando sus propios mini-cómics. Publicó su primera novela gráfica, Black Candy, en el año 1998. Usando como referencia el libro Ejercicios de estilo, escrito por Raymond Queneau, publicó en el año 2005 99 ejercicios de estilo, donde la misma historieta de una página se repite de 99 formas distintas. Desde el año 2006 es editor, junto con su esposa Jessica Abel, de The Best American Comics, una serie de libros de periodicidad anual que recogen lo mejor de la historieta estadounidense por año. Cada volumen cuenta con un editor invitado, normalmente un historietista relevante, como Neil Gaiman (2010) o Alison Bechdel (2011). Madden y Abel imparten clases en la Escuela de Artes Visuales de la Universidad de Yale (New Haven, Connecticut, USA). Jessica Abel es una historietista estadounidense, también de gran proyección internacional, conocida por sus trabajos Life Sucks, Drawing Words & Writing Pictures, Soundtrack, La Perdida, Mirror, Window,Radio: An Illustrated Guide (en colaboración con Ira Glass) y la antología Artbabe. Las exposiciones unipersonales de Abel incluyen Corridoio Altervox en Roma, en la Galería Phoenix de Brighton; el Festival Internacional de Cómics de Oporto, en Portugal; Viñetas desde o Atlántico en La Coruña, España; y en la Comicon de Nápoles. Sus exposiciones grupales incluyen la Galería Jean Albano en Chicago; Athaneum, Stripdagen, en Holanda; las galerías Davidson en Seattle; la Galería Forbes en Hyde Park Art Center, en Nueva York; la Galería Regina Miller y la Galería Vox en Filadelfia; el Centre National de la Bande Dessinée et de l'Image en Angoulême, Francia; y el Museo Norman Rockwell en Stockbridge, Massachussetts.
Resumo:
Abstract: Medical image processing in general and brain image processing in particular are computationally intensive tasks. Luckily, their use can be liberalized by means of techniques such as GPU programming. In this article we study NiftyReg, a brain image processing library with a GPU implementation using CUDA, and analyse different possible ways of further optimising the existing codes. We will focus on fully using the memory hierarchy and on exploiting the computational power of the CPU. The ideas that lead us towards the different attempts to change and optimize the code will be shown as hypotheses, which we will then test empirically using the results obtained from running the application. Finally, for each set of related optimizations we will study the validity of the obtained results in terms of both performance and the accuracy of the resulting images.
Resumo:
Abstract: As time has passed, the general purpose programming paradigm has evolved, producing different hardware architectures whose characteristics differ widely. In this work, we are going to demonstrate, through different applications belonging to the field of Image Processing, the existing difference between three Nvidia hardware platforms: two of them belong to the GeForce graphics cards series, the GTX 480 and the GTX 980 and one of the low consumption platforms which purpose is to allow the execution of embedded applications as well as providing an extreme efficiency: the Jetson TK1. With respect to the test applications we will use five examples from Nvidia CUDA Samples. These applications are directly related to Image Processing, as the algorithms they use are similar to those from the field of medical image registration. After the tests, it will be proven that GTX 980 is both the device with the highest computational power and the one that has greater consumption, it will be seen that Jetson TK1 is the most efficient platform, it will be shown that GTX 480 produces more heat than the others and we will learn other effects produced by the existing difference between the architecture of the devices.
Resumo:
Conferencia y debate posterior con Daniel Palacios, artista multimedia de reconocida trayectoria internacional. La sesión versó sobre los modos de trabajo del artista, en los cuales el uso de las tecnologías digitales y la captación de datos mediante programas específicos forman parte esencial de los procesos de generación de diversos tipos de esculturas tanto estáticas como cinéticas. Formado en la Universidad Politécnica de Valencia, Daniel Palacios cuenta con Masters en “Arte y Tecnología”, “Arte en la Esfera Pública” y “Artes Visuales y Multimedia”, junto al Diploma de Estudios Avanzados en Bellas Artes. Visto en términos estrictamente formales, su trabajo se basa en maquinaria compleja y software difícilmente comprensible, y, más allá de estos aspectos técnicos, su interés reside en la relación que guarda con cuestiones extremadamente humanas y filosóficas acerca de la percepción, la memoria, el tiempo y el espacio. Lo fascinante de las obras de Palacios surge de estas imágenes y experiencias intuitivamente comprensibles, resultado de una metódica exploración del mundo, así como de la discrepancia entre la precisión técnica de su ejecución y una reproducción subjetiva de la realidad, representando las intrincadas relaciones que se dan en un determinado momento y lugar. Sus proyectos han sido presentados en museos, festivales y ferias de arte en Europa, Asia y América incluyendo CAAC, MEIAC, ZKM, NAMOC, Ars Electrónica, FILE, Science Gallery, LABoral, VOLTA y ARCO entre otros. Ha sido invitado en dos ocasiones a representar a España en la Trienal Internacional de Media Art (organizada en el Museo Nacional de Arte de China) y sus trabajos han sido producidos para colecciones privadas, instituciones tales como la Bienal de Arte y Tecnología de Noruega, y empresas de la talla de Nike Sportswear. Galardonado en numerosas ocasiones, incluyendo dos veces los premios internacionales VIDA Arte y Vida Artificial, su trabajo es ampliamente reconocido y ha sido editado en diversos libros y publicaciones especializadas como Leonardo de MIT Press o Art+Science Now del profesor Stephen Wilson (Ed. Thames & Hudson), al igual que expuesto individualmente en I+CAS, Casal Solleric, MAG y Palacio de Orive entre otros centros artísticos.
Resumo:
La eutrofización marina es un problema que afecta a los mares europeos y particularmente a sus aguas costeras. Se trata del enriquecimiento anómalo en nutrientes de las aguas marinas, generalmente compuestos del nitrógeno y fósforo aportados por la actividad del ser humano, y que tiene como resultado consecuencias nocivas para la calidad de las aguas y la biodiversidad. La Directiva Marco de las Estrategias Marinas, que entró en vigor en 2010, recoge esta problemática y emplaza a los estados miembros para su evaluación y en su caso para la remediación de sus efectos nocivos identificando el origen de los aportes de nutrientes. Esta tarea requiere metodologías y procedimientos operativos que permitan ser implementados de forma coordinada por los estados miembros a nivel regional. En el primer capítulo de esta tesis se presenta una metodología para realizar la zonación del norte del mar Alborán a partir de imágenes de satélite de clorofila a tal que permite delimitar las áreas con características de productividad diferenciadas que pueden ser propuestas como unidades de gestión de la eutrofización y que se puedan emplear tanto en el diseño de los programas de seguimiento como en el aprovechamiento de los datos oceanográficos medidos in situ. En este capítulo se describe la metodología analítica utilizada, que está basada en la aplicación del análisis clúster de las k-medias a las imágenes de satélite de clorofila, así como su validez a partir del análisis de las series temporales de datos tomados in situ. El segundo capítulo se hace una evaluación de los indicadores de la eutrofización en una zona reducida de Alborán, donde existen multitud de datos oceanográficos, meteorológicos y ambientales. Para llevarla a cabo, se adaptó la metodología empleada en el capítulo 1 a la región ECOMALAGA. Una vez realizada la zonación, se agregaron los datos oceanográficos, meteorológicos y ambientales potencialmente relacionados con la eutrofización en cada área, y posteriormente se evaluaron las diferencias estadísticas a lo largo del ciclo estacional y entre las diferentes zonas. Con esta finalidad, se estiman las tendencias temporales de las variables ambientales en cada zona. A partir de los resultados obtenidos se infirió qué variables y/o mecanismos podrían estar influyendo sobre la concentración superficial de la clorofila a. En el tercer capítulo se ensayaron modelos aditivos generalizados (GAM) con el fin de identificar las variables más importantes que afectan a los indicadores de la eutrofización. Como variable respuesta del modelo se usó la clorofila a, pues se trata del indicador directo de la eutrofización más empleado. Las variables explicativas se componen de variables oceanográficas, meteorológicas y ambientales. En el cuarto capítulo se desarrolla un algoritmo regional para el mar de Alborán que permite obtener valores de clorofila a a partir de imágenes de satélite más ajustados a los valores que proporcionan los algoritmos disponibles que la sobreestiman considerablemente. En la discusión final y conclusiones se hace énfasis en el enfoque práctico de esta tesis doctoral, detallando la potencialidad de la metodología presentada para la evaluación de la eutrofización. Para esto, se detallan los resultados de la evaluación obtenidos para el mar Alborán empleando dicha metodología, definiendo su estado actual y las tendencias registradas, así como las causas de los problemas encontrados. Finalmente se evalúan y proponen posibles medidas para su remediación y control.