999 resultados para Imagen y sonido
Resumo:
Resumen literal de la revista
Resumo:
Resumen basado en el de la publicación
Resumo:
Este proyecto de innovación educativa se presentó en el Congreso Internacional de Innovación en la Educación celebrado en Valladolid los dias 26, 27 y 28 de abril de 2005
Resumo:
Presenta una experiencia educativa llevada a cabo por el IES El Olivo de Parla (Madrid) en el área de Imagen y Comunicación Audiovisual de la clase de plástica. Utilizando un ordenador, estudian el entrono de Parla y realizan una presentación en PowerPoint con el tema 'Imagen audiovisual y artística del Municipio de Parla'. Proporciona además, los objetivos, la metodología, la evaluación y las conclusiones de esta experiencia.
Resumo:
La finalidad de este proyecto, en el que participan diferentes departamentos del centro, es realizar un taller de radio y un periódico digital. El objetivo principal de estas actividades es fomentar en los alumnos la capacidad de análisis y de visión crítica de la imagen y de la palabra; cómo enseñarles a comunicarse y a persuadir; y lograr de ellos un compromiso con la sociedad en la que viven. Otros objetivos son potenciar el uso didáctico de los medios informáticos y multimedia; lograr la aplicación de recursos multimedia e informáticos en las programaciones didácticas de asignaturas de ESO y Bachillerato; implicar a profesores de diferentes departamentos en el tratamiento digital de la imagen y el sonido y en la redacción de noticias para el periódico digital; además de implicar a los alumnos en la realidad social del centro y fomentar el respeto en la comunicación con los demás. Entre las actividades realizadas destacan una serie de sesiones formativas y de planificación dirigidas a los profesores para después poder elaborar dos unidades didácticas que se incluirían en la programación del curso; y la posterior puesta en práctica con los alumnos que se materializa en dos talleres, uno de maquetación periodística y otro de radio.
Resumo:
Resumen basado en el de la publicación
Resumo:
1-Desarrollar un programa de ordenador, operando en tiempo real, para el análisis de la composición visual y sonora de documentos en vídeo. 2-Analizar una muestra de vídeos y películas didácticas con ayuda del programa elaborado, con el fin de orientar los criterios a seguir en la producción del material de la experiencia. 3-Producir 4 vídeo-clases relacionadas con la Enseñanza Superior de los vehículos automóviles y comprobar la eficacia didáctica de estos, comparándolos con otras metodologías tradicionales en la enseñanza de la Ingeniería. 4-Analizar la actitud de los alumnos en relación a este medio. 52 sujetos de sexto curso de la E.T.S de Ingenieros Industriales de la Universidad Politécnica de Madrid. En primer lugar, y para cumplimentar los dos primeros objetivos de la investigación, se elaboró un programa de ordenador para analizar la composición de los vídeos didácticos. Se han analizado 8 vídeos didácticos procedentes de diferentes países; este estudio se ha llevado a cabo mediante el análisis de dos tipos de variables: de imagen y de sonido. Posteriormente se produjeron 4 vídeos relacionados con la enseñanza de la Ingeniería de automóviles, que fueron los que se aplicaron en el tratamiento experimental. En el estudio experimental, para comparar la eficacia didáctica de los vídeos con la de otros medios más convencionales se definió como variable independiente el tipo de enseñanza (vídeo-convencional) y como variables dependientes el rendimiento de los sujetos y las actitudes de los mismos. En alguno de los experimentos se medían la estabilidad de aprendizaje, utilizando una segunda medida de los conocimientos del sujeto al cabo del tiempo. 8 vídeos didácticos elaborados en diferentes pasos relacionados con temas de Ingeniería de los vehículos automóviles. 4 vídeos didácticos elaborados ad-hoc. Dos pruebas de conocimientos. Encuestas de opinión y percepción. Encuesta de opinión abierta. Programas de ordenador. Las calificaciones medias del grupo experimental y control en la prueba de conocimientos son muy semejantes, no observándose ninguna ventaja significativa del vídeo o de los métodos convencionales. Respecto a la retención-olvido de los contenidos, se observa que el vídeo provoca una mayor retención de conocimientos en un periodo de tiempo inmediatamente posterior a la clase, pero cuando este periodo se prolonga esta ventaja no resulta evidente. Respecto a las actitudes de los alumnos hacia el medio, se observa que existe una amplia aceptación del vídeo en cuanto a una presunta mayor eficacia en la captación, comprensión y retención, aunque se apunta como elemento negativo la falta de interacción con el profesor. El vídeo puede utilizarse como sustituto de otros modos de enseñanza aplicadas en ingeniería para transmitir información, si los contenidos son de carácter conceptual y no exigen lenguajes simbólicos de alto nivel. La eficacia didáctica del vídeo depende de la adecuada explotación de sus recursos expresivos.
Resumo:
Este ensayo analiza los legados del pensamiento de Michel Foucault para el estudio de las prácticas visuales, la mirada y las tecnologías de la imagen. A partir la recepción de Foucault en el campo de los estudios visuales, me interesa reflexionar sobre cómo la imagen y la mirada se inscriben dentro de una red de relaciones, saberes, tecnologías, normativas e instituciones que develan formas de operación del poder y de construcción de los sujetos. Para empezar, pongo en diálogo conceptos como “cultura visual”, “visualidad” y “regímenes escópicos” con la perspectiva arqueológica y genealógica propuesta por el pensador francés. En un segundo momento, reflexiono sobre los procesos de sujeción y construcción de sujetos derivados de distintos regímenes de vigilancia y visibilidad. Finalmente, ofrezco una serie de notas para conceptualizar el dispositivo audiovisual en comparación con el dispositivo panóptico.
Resumo:
El objeto de esta Tesis doctoral es el desarrollo de una metodologia para la deteccion automatica de anomalias a partir de datos hiperespectrales o espectrometria de imagen, y su cartografiado bajo diferentes condiciones tipologicas de superficie y terreno. La tecnologia hiperespectral o espectrometria de imagen ofrece la posibilidad potencial de caracterizar con precision el estado de los materiales que conforman las diversas superficies en base a su respuesta espectral. Este estado suele ser variable, mientras que las observaciones se producen en un numero limitado y para determinadas condiciones de iluminacion. Al aumentar el numero de bandas espectrales aumenta tambien el numero de muestras necesarias para definir espectralmente las clases en lo que se conoce como Maldicion de la Dimensionalidad o Efecto Hughes (Bellman, 1957), muestras habitualmente no disponibles y costosas de obtener, no hay mas que pensar en lo que ello implica en la Exploracion Planetaria. Bajo la definicion de anomalia en su sentido espectral como la respuesta significativamente diferente de un pixel de imagen respecto de su entorno, el objeto central abordado en la Tesis estriba primero en como reducir la dimensionalidad de la informacion en los datos hiperespectrales, discriminando la mas significativa para la deteccion de respuestas anomalas, y segundo, en establecer la relacion entre anomalias espectrales detectadas y lo que hemos denominado anomalias informacionales, es decir, anomalias que aportan algun tipo de informacion real de las superficies o materiales que las producen. En la deteccion de respuestas anomalas se asume un no conocimiento previo de los objetivos, de tal manera que los pixeles se separan automaticamente en funcion de su informacion espectral significativamente diferenciada respecto de un fondo que se estima, bien de manera global para toda la escena, bien localmente por segmentacion de la imagen. La metodologia desarrollada se ha centrado en la implicacion de la definicion estadistica del fondo espectral, proponiendo un nuevo enfoque que permite discriminar anomalias respecto fondos segmentados en diferentes grupos de longitudes de onda del espectro, explotando la potencialidad de separacion entre el espectro electromagnetico reflectivo y emisivo. Se ha estudiado la eficiencia de los principales algoritmos de deteccion de anomalias, contrastando los resultados del algoritmo RX (Reed and Xiaoli, 1990) adoptado como estandar por la comunidad cientifica, con el metodo UTD (Uniform Targets Detector), su variante RXD-UTD, metodos basados en subespacios SSRX (Subspace RX) y metodo basados en proyecciones de subespacios de imagen, como OSPRX (Orthogonal Subspace Projection RX) y PP (Projection Pursuit). Se ha desarrollado un nuevo metodo, evaluado y contrastado por los anteriores, que supone una variacion de PP y describe el fondo espectral mediante el analisis discriminante de bandas del espectro electromagnetico, separando las anomalias con el algortimo denominado Detector de Anomalias de Fondo Termico o DAFT aplicable a sensores que registran datos en el espectro emisivo. Se han evaluado los diferentes metodos de deteccion de anomalias en rangos del espectro electromagnetico del visible e infrarrojo cercano (Visible and Near Infrared-VNIR), infrarrojo de onda corta (Short Wavelenght Infrared-SWIR), infrarrojo medio (Meadle Infrared-MIR) e infrarrojo termico (Thermal Infrared-TIR). La respuesta de las superficies en las distintas longitudes de onda del espectro electromagnetico junto con su entorno, influyen en el tipo y frecuencia de las anomalias espectrales que puedan provocar. Es por ello que se han utilizado en la investigacion cubos de datos hiperepectrales procedentes de los sensores aeroportados cuya estrategia y diseno en la construccion espectrometrica de la imagen difiere. Se han evaluado conjuntos de datos de test de los sensores AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) y MASTER (MODIS/ASTER Simulator). Se han disenado experimentos sobre ambitos naturales, urbanos y semiurbanos de diferente complejidad. Se ha evaluado el comportamiento de los diferentes detectores de anomalias a traves de 23 tests correspondientes a 15 areas de estudio agrupados en 6 espacios o escenarios: Urbano - E1, Semiurbano/Industrial/Periferia Urbana - E2, Forestal - E3, Agricola - E4, Geologico/Volcanico - E5 y Otros Espacios Agua, Nubes y Sombras - E6. El tipo de sensores evaluados se caracteriza por registrar imagenes en un amplio rango de bandas, estrechas y contiguas, del espectro electromagnetico. La Tesis se ha centrado en el desarrollo de tecnicas que permiten separar y extraer automaticamente pixeles o grupos de pixeles cuya firma espectral difiere de manera discriminante de las que tiene alrededor, adoptando para ello como espacio muestral parte o el conjunto de las bandas espectrales en las que ha registrado radiancia el sensor hiperespectral. Un factor a tener en cuenta en la investigacion ha sido el propio instrumento de medida, es decir, la caracterizacion de los distintos subsistemas, sensores imagen y auxiliares, que intervienen en el proceso. Para poder emplear cuantitativamente los datos medidos ha sido necesario definir las relaciones espaciales y espectrales del sensor con la superficie observada y las potenciales anomalias y patrones objetivos de deteccion. Se ha analizado la repercusion que en la deteccion de anomalias tiene el tipo de sensor, tanto en su configuracion espectral como en las estrategias de diseno a la hora de registrar la radiacion prodecente de las superficies, siendo los dos tipos principales de sensores estudiados los barredores o escaneres de espejo giratorio (whiskbroom) y los barredores o escaneres de empuje (pushbroom). Se han definido distintos escenarios en la investigacion, lo que ha permitido abarcar una amplia variabilidad de entornos geomorfologicos y de tipos de coberturas, en ambientes mediterraneos, de latitudes medias y tropicales. En resumen, esta Tesis presenta una tecnica de deteccion de anomalias para datos hiperespectrales denominada DAFT en su variante de PP, basada en una reduccion de la dimensionalidad proyectando el fondo en un rango de longitudes de onda del espectro termico distinto de la proyeccion de las anomalias u objetivos sin firma espectral conocida. La metodologia propuesta ha sido probada con imagenes hiperespectrales reales de diferentes sensores y en diferentes escenarios o espacios, por lo tanto de diferente fondo espectral tambien, donde los resultados muestran los beneficios de la aproximacion en la deteccion de una gran variedad de objetos cuyas firmas espectrales tienen suficiente desviacion respecto del fondo. La tecnica resulta ser automatica en el sentido de que no hay necesidad de ajuste de parametros, dando resultados significativos en todos los casos. Incluso los objetos de tamano subpixel, que no pueden distinguirse a simple vista por el ojo humano en la imagen original, pueden ser detectados como anomalias. Ademas, se realiza una comparacion entre el enfoque propuesto, la popular tecnica RX y otros detectores tanto en su modalidad global como local. El metodo propuesto supera a los demas en determinados escenarios, demostrando su capacidad para reducir la proporcion de falsas alarmas. Los resultados del algoritmo automatico DAFT desarrollado, han demostrado la mejora en la definicion cualitativa de las anomalias espectrales que identifican a entidades diferentes en o bajo superficie, reemplazando para ello el modelo clasico de distribucion normal con un metodo robusto que contempla distintas alternativas desde el momento mismo de la adquisicion del dato hiperespectral. Para su consecucion ha sido necesario analizar la relacion entre parametros biofisicos, como la reflectancia y la emisividad de los materiales, y la distribucion espacial de entidades detectadas respecto de su entorno. Por ultimo, el algoritmo DAFT ha sido elegido como el mas adecuado para sensores que adquieren datos en el TIR, ya que presenta el mejor acuerdo con los datos de referencia, demostrando una gran eficacia computacional que facilita su implementacion en un sistema de cartografia que proyecte de forma automatica en un marco geografico de referencia las anomalias detectadas, lo que confirma un significativo avance hacia un sistema en lo que se denomina cartografia en tiempo real. The aim of this Thesis is to develop a specific methodology in order to be applied in automatic detection anomalies processes using hyperspectral data also called hyperspectral scenes, and to improve the classification processes. Several scenarios, areas and their relationship with surfaces and objects have been tested. The spectral characteristics of reflectance parameter and emissivity in the pattern recognition of urban materials in several hyperspectral scenes have also been tested. Spectral ranges of the visible-near infrared (VNIR), shortwave infrared (SWIR) and thermal infrared (TIR) from hyperspectral data cubes of AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) and MASTER (MODIS/ASTER Simulator) have been used in this research. It is assumed that there is not prior knowledge of the targets in anomaly detection. Thus, the pixels are automatically separated according to their spectral information, significantly differentiated with respect to a background, either globally for the full scene, or locally by the image segmentation. Several experiments on different scenarios have been designed, analyzing the behavior of the standard RX anomaly detector and different methods based on subspace, image projection and segmentation-based anomaly detection methods. Results and their consequences in unsupervised classification processes are discussed. Detection of spectral anomalies aims at extracting automatically pixels that show significant responses in relation of their surroundings. This Thesis deals with the unsupervised technique of target detection, also called anomaly detection. Since this technique assumes no prior knowledge about the target or the statistical characteristics of the data, the only available option is to look for objects that are differentiated from the background. Several methods have been developed in the last decades, allowing a better understanding of the relationships between the image dimensionality and the optimization of search procedures as well as the subpixel differentiation of the spectral mixture and its implications in anomalous responses. In other sense, image spectrometry has proven to be efficient in the characterization of materials, based on statistical methods using a specific reflection and absorption bands. Spectral configurations in the VNIR, SWIR and TIR have been successfully used for mapping materials in different urban scenarios. There has been an increasing interest in the use of high resolution data (both spatial and spectral) to detect small objects and to discriminate surfaces in areas with urban complexity. This has come to be known as target detection which can be either supervised or unsupervised. In supervised target detection, algorithms lean on prior knowledge, such as the spectral signature. The detection process for matching signatures is not straightforward due to the complications of converting data airborne sensor with material spectra in the ground. This could be further complicated by the large number of possible objects of interest, as well as uncertainty as to the reflectance or emissivity of these objects and surfaces. An important objective in this research is to establish relationships that allow linking spectral anomalies with what can be called informational anomalies and, therefore, identify information related to anomalous responses in some places rather than simply spotting differences from the background. The development in recent years of new hyperspectral sensors and techniques, widen the possibilities for applications in remote sensing of the Earth. Remote sensing systems measure and record electromagnetic disturbances that the surveyed objects induce in their surroundings, by means of different sensors mounted on airborne or space platforms. Map updating is important for management and decisions making people, because of the fast changes that usually happen in natural, urban and semi urban areas. It is necessary to optimize the methodology for obtaining the best from remote sensing techniques from hyperspectral data. The first problem with hyperspectral data is to reduce the dimensionality, keeping the maximum amount of information. Hyperspectral sensors augment considerably the amount of information, this allows us to obtain a better precision on the separation of material but at the same time it is necessary to calculate a bigger number of parameters, and the precision lowers with the increase in the number of bands. This is known as the Hughes effects (Bellman, 1957) . Hyperspectral imagery allows us to discriminate between a huge number of different materials however some land and urban covers are made up with similar material and respond similarly which produces confusion in the classification. The training and the algorithm used for mapping are also important for the final result and some properties of thermal spectrum for detecting land cover will be studied. In summary, this Thesis presents a new technique for anomaly detection in hyperspectral data called DAFT, as a PP's variant, based on dimensionality reduction by projecting anomalies or targets with unknown spectral signature to the background, in a range thermal spectrum wavelengths. The proposed methodology has been tested with hyperspectral images from different imaging spectrometers corresponding to several places or scenarios, therefore with different spectral background. The results show the benefits of the approach to the detection of a variety of targets whose spectral signatures have sufficient deviation in relation to the background. DAFT is an automated technique in the sense that there is not necessary to adjust parameters, providing significant results in all cases. Subpixel anomalies which cannot be distinguished by the human eye, on the original image, however can be detected as outliers due to the projection of the VNIR end members with a very strong thermal contrast. Furthermore, a comparison between the proposed approach and the well-known RX detector is performed at both modes, global and local. The proposed method outperforms the existents in particular scenarios, demonstrating its performance to reduce the probability of false alarms. The results of the automatic algorithm DAFT have demonstrated improvement in the qualitative definition of the spectral anomalies by replacing the classical model by the normal distribution with a robust method. For their achievement has been necessary to analyze the relationship between biophysical parameters such as reflectance and emissivity, and the spatial distribution of detected entities with respect to their environment, as for example some buried or semi-buried materials, or building covers of asbestos, cellular polycarbonate-PVC or metal composites. Finally, the DAFT method has been chosen as the most suitable for anomaly detection using imaging spectrometers that acquire them in the thermal infrared spectrum, since it presents the best results in comparison with the reference data, demonstrating great computational efficiency that facilitates its implementation in a mapping system towards, what is called, Real-Time Mapping.
Resumo:
La ecografía es hoy en día uno de los métodos de visualización más populares para examinar el interior de cuerpos opacos. Su aplicación es especialmente significativa tanto en el campo del diagnóstico médico como en las aplicaciones de evaluación no destructiva en el ámbito industrial, donde se evalúa la integridad de un componente o una estructura. El desarrollo de sistemas ecográficos de alta calidad y con buenas prestaciones se basa en el empleo de sistemas multisensoriales conocidos como arrays que pueden estar compuestos por varias decenas de elementos. El desarrollo de estos dispositivos tiene asociada una elevada complejidad, tanto por el número de sensores y la electrónica necesaria para la adquisición paralela de señales, como por la etapa de procesamiento de los datos adquiridos que debe operar en tiempo real. Esta etapa de procesamiento de señal trabaja con un elevado flujo de datos en paralelo y desarrolla, además de la composición de imagen, otras sofisticadas técnicas de medidas sobre los datos (medida de elasticidad, flujo, etc). En este sentido, el desarrollo de nuevos sistemas de imagen con mayores prestaciones (resolución, rango dinámico, imagen 3D, etc) está fuertemente limitado por el número de canales en la apertura del array. Mientras algunos estudios se han centrado en la reducción activa de sensores (sparse arrays como ejemplo), otros se han centrado en analizar diferentes estrategias de adquisiciónn que, operando con un número reducido de canales electrónicos en paralelo, sean capaz por multiplexación emular el funcionamiento de una apertura plena. A estas últimas técnicas se las agrupa mediante el concepto de Técnicas de Apertura Sintética (SAFT). Su interés radica en que no solo son capaces de reducir los requerimientos hardware del sistema (bajo consumo, portabilidad, coste, etc) sino que además permiten dentro de cierto compromiso la mejora de la calidad de imagen respecto a los sistemas convencionales...
Fotografía y conocimiento. La imagen científica en la era electrónica (Desde los inicios hasta 1975)
Resumo:
El universo de la imagen técnica de nuestros días es de una riqueza desbordante. Existen tecnologías que hacen uso de toda clase de radiaciones, o de los múltiples efectos producidos por la luz y los fenómenos eléctricos para la producción de imágenes. O que saben aprovechar el refinamiento y precisión de los dispositivos electrónicos para captar y reproducir en forma de imágenes los fenómenos del mundo natural que pasan desapercibidos a nuestros sentidos, ya sea por su tamaño reducido, su lejanía o velocidad. Conocer el origen, la tipología, las bases cientifico-técnicas de estas herramientas, o los avances que la ciencia debe a su intervención, es la tarea de la presente obra, que completa una primera entrega: Fotografía y conocimiento: la fotografía y la ciencia. Desde los orígenes a 1927 (Editorial Complutense). En esta ocasión la atención se centra en el estudio del papel desempeñado por la imagen tecnológica en la adquisición de conocimiento en su etapa electrónica (desde los inicios a 1975). Indagar en la relación que se establece entre imagen y conocimiento pueder ser de gran ayuda a científicos, artistas y humanistas para entender el mundo iconográfico que nos rodea.
Resumo:
La exploración ecográfica del tubo digestivo es compleja y debe contemplarse dentro del protocolo diagnóstico de los pacientes con sintomatología digestiva como una técnica complementaria a otras técnicas de diagnóstico por imagen, fundamentalmente de la radiología. Estas técnicas de diagnóstico por la imagen, en un número elevado de casos, serán útiles para la aproximación al diagnóstico de las principales patologías que afectan al tubo digestivo en el perro. La ecografía abdominal requiere una mayor pericia por parte del explorador. La presencia de contenido alimenticio y gas dentro de su luz es una barrera que ha retrasado el uso de esta técnica como herramienta diagnóstica del sistema digestivo. El estudio ecográfico del estómago y duodeno proximal es, por sus características anatómicas y por su posición en abdomen craneal, más compleja que otras estructuras abdominales. Unas condiciones previas adecuadas que preparen el paciente, el desarrollo de protocolos de exploración apropiados y la descripción del patrón ecográfico y establecimiento de las medidas de normalidad para los diferentes pacientes serán imprescindibles para la realización correcta y completa de una ecografía de esta región. El conocimiento de la física del sonido, así como su interacción con las diferentes estructuras del organismo y el reconocimiento de los artefactos ecográficos son fundamentales para poder desarrollar un examen correcto de la cavidad abdominal y más concretamente de esta porción del tubo digestivo...
Resumo:
El acompañante musical de danza (AMD) traduce a sonido secuencias de movimiento, basando su práctica en la observación de las acciones motoras del bailarín. ¿Cómo es que el AMD llega a comprender las calidades motoras en términos musicales? ¿Qué es lo que el AMD identifica a partir de su observación? ¿Cuáles son las diferencias y semejanzas de timing de las representaciones motoras en el planeamiento de una acción cuando se trabaja con estímulos auditivos y visuales en simultáneo? Con el objeto de comenzar a responder algunas de esos interrogantes se diseñó un estudio en el que se indagan diferentes aspectos de la habilidad para sincronizar con la imagen y el sonido de una secuencia de danza de las personas habitualmente involucradas en la realización de este tipo de secuencias (Profesores, Estudiantes Bailarines y AMD).
Resumo:
Los documentos audiovisuales contienen en un mismo soporte información visual y sonido; asimismo, se caracterizan por su opacidad, es decir requieren de un dispositivo tecnológico para su grabación, transmisión y comprensión. En la actualidad, constituyen un importante acervo cultural que merece ser resguardado y puesto a disposición de la comunidad científica y del público en general como expresión de la memoria colectiva y de la cultura de nuestra sociedad. Somos conscientes de la existencia de un cúmulo significativo de material audiovisual, hoy conservado en soportes tecnológicos que han caído en desuso, lo cual implica dos grandes riesgos: por un lado, la posibilidad de pérdida o deterioro de la información contenida en ellos; por otro, la creciente dificultad para acceder a su contenido debido a la obsolescencia de los equipos necesarios para reproducirlos. En consecuencia, este proyecto se propone recuperar y resguardar en un soporte tecnológico actual y seguro: 1) el material audiovisual producido en el marco del programa televisivo Encuentros, conducido por el periodista Kuroki Murúa, emitido entre 1990 y 1998 por los Servicios de Radio y Televisión de la Universidad Nacional de Córdoba, el cual consistía en la realización de entrevistas a historiadores, sociólogos, escritores, psicoanalistas y la emisión de informes sobre manifestaciones culturales de diversa índole; 2) los discursos emitidos por los gobernadores e intendentes de Córdoba, asi como de los principales dirigentes de la oposición, difundidos por radio y televisión desde la recuperación de la democracia hasta 2001. El primer conjunto está registrado en cassettes VHS, lo cual implica un serio riesgo para la seguridad de ese material porque es sabido que el simple paso del tiempo produce un deterioro irreparable en las cintas; además requiere de un dispositivo tecnológico para su reproducción que actualmente no está disponible en el mercado. El segundo conjunto está disperso en los archivos de las distintas emisoras de radio y televisión de la ciudad de Córdoba. Estos propósitos se insertan dentro de las actividades que desde 1998 se desarrollan en el Archivo de la Palabra del Centro de Estudios Avanzados de la Universidad Nacional de Córdoba. El Archivo de la Palabra fue creado como un espacio para la creación de fuentes orales producto de investigaciones referidas a la historia política de Córdoba, como también un lugar de reunión y resguardo de las entrevistas realizadas en el marco de investigaciones que contemplaran el uso de este tipo de fuente. En esta instancia, nos proponemos ampliar los objetivos planteados inicialmente incorporando al acervo documental del Archivo, material audiovisual como el correspondiente al programa Encuentros y los discursos políticos a los que hemos hecho referencia. A los propósitos mencionados anteriormente se suman fortalecer la vinculación con redes, archivos orales, asociaciones y centros de investigación que contemplen el uso de fuentes orales e impulsar la formación de recursos humanos en el tratamiento y conservación de fuentes documentales orales y audiovisuales. La realización de este proyecto implica la prosecución de la siguiente metodología: búsqueda y localización del material audiovisual, conservación en un formato adecuado, clasificación, catalogación, puesta a disposición del público. Consideramos que este proyecto contribuirá a la recuperación, resguardo, difusión y utilización de un importante acervo documental que actualmente, debido a las condiciones de mantenimiento en las que se encuentra y a los formatos en los que está registrado corre el riesgo de perderse. Además, el material aludido constituirá un aporte fundamental para el estudio, análisis y comprensión de nuestro pasado reciente como así también para la revalorización de la memoria colectiva de nuestra sociedad. El estudio tiene como límites temporales dos años claves en la historia política argentina: 1983 y 2001.
Resumo:
El presente proyecto se propone integrar en una investigación tres dimensiones de la proyección identitaria de Argentina en el sistema internacional, como son la construcción mediática de la realidad, las estrategias de comunicación y participación de la sociedad civil y las definiciones en torno a la marca país. En tal sentido, se explorará la incidencia de estas tres dimensiones en la política exterior argentina en el período 2003-2011. Se parte del supuesto de que las producciones periodísticas se alejan cada vez más del ideal de política de comunicación exterior, al tiempo que se acercan en alianzas a las entidades de participación ciudadana. Esta relación muchas veces supera el impacto y construcción de realidad hacia afuera de aquellas estrategias de comunicación formales que diseña el estado argentino. Por un lado, la influencia de la producción mediática, de la sociedad civil y de la marca país no han sido consideradas en forma acabada en el estudio de las relaciones internacionales, a pesar de que los paradigmas actuales les otorgan a estas dimensiones un papel relevante en la construcción de imagen y posicionamiento internacional de los países. Por otro lado, la identificación de estas dimensiones como factores que inciden en la política exterior dan cuenta de un cambio de paradigma en las relaciones internacionales en épocas recientes, en tanto se suman a las dimensiones tradicionales vinculadas al paradigma realista. Finalmente, los hallazgos de este estudio servirán de base para el diseño de una política exterior que amplíe las dimensiones exclusivas del ámbito diplomático, a la vez que integre políticas dispersas relativas a comunicación, medios, participación ciudadana y marca país.