1000 resultados para Profesionalización de los Archivos
Resumo:
El objetivo del presente trabajo es el análisis de las transformaciones del mundo indígena durante los años inmediatamente posteriores a las Campañas Militares de fines del siglo XIX, destacando sus estrategias de adaptación ante la nueva relación con el Estado Nacional. Así, los cambios en la organización sociopolítica indígena y en sus relaciones económicas en virtud de su nueva articulación con la sociedad estatal, son enfocados a través de diferentes estudios de caso: tribus sometidas voluntariamente y relocalizadas en tierras asignadas por el Estado; y grupos familiares que, a pesar de estar aislados de sus vínculos tribales tradicionales, mantuvieron su identidad étnica y cierto grado de autonomía social y económica. Los casos se desarrollan en el territorio de la actual provincia de Neuquén, entre 1882 y 1919, y son reconstruidos gracias a documentos de los archivos Histórico Provincial y de Tierras y Colonias de la provincia de Neuquén. Estas situaciones presentan una compleja dinámica en la cual la diversidad de continuidades, reemplazos y desapariciones queda integrada dentro de una misma lógica de supervivencia, traspasando la visión tradicional de una contradicción entre resistencia y asimilación.
Resumo:
La siguiente investigación tuvo por objetivo analizar las representaciones de las diversas dependencias de inteligencia de la Policía de la Provincia de Buenos Aires, en relación a la construcción del actor político calificado como "comunista", entre el período 1930-1962. El enfoque de análisis recorrió las prácticas que caracterizaron el funcionamiento de la labor de inteligencia de la policía bonaerense, desde sus inicios en la Década Infame (1), hasta su definitiva institucionalización y jerarquización como labor policial hacia fines de los años cincuenta y principios de los sesenta. El trabajo presentado, pretendió comprender la historia institucional que enmarca a la fuente principal, los archivos de la Dirección de Inteligencia de la policía de la provincia de Buenos Aires, en diálogo con otros documentos, también propios de las fuerzas de seguridad. En este caso, los cambios que se fueron generando desde la institución de inteligencia policial a lo largo de todo el siglo XX, invitan a pensar cuáles fueron las lógicas y los mecanismos de la propia institución productora del archivo, (Muzzoppapa, 2010)
Resumo:
Esta tesis explora los aportes de la novela histórica uruguaya a los debates abiertos en la posdictadura uruguaya considerando las peculiaridades que este subgénero imprime a sus propuestas, el ángulo nuevo que ofrece. En primer lugar quiero destacar el reclamo -que la novela histórica hace visible- de una relectura y reescritura global de la historia uruguaya desde su "origen" en las guerras de Independencia. Este gesto señala un profundo quiebre en los ideales e imaginarios con los cuales los uruguayos se identificaban y pone en evidencia una aguda desconfianza en las narraciones heredadas sobre la nación. En este sentido la experiencia de la dictadura constituyó una fractura que impulsó el cuestionamiento de sus relatos consolidados y su necesaria reescritura bajo diferentes presupuestos. En el prefijo "post" de posdictadura es posible advertir no sólo una dimensión temporal sino un giro epistémico que reorganiza los dispositivos identitarios, los imaginarios comunitarios y los relatos nacionales desde otro locus de enunciación. Este cambio de paradigma lo expone de un modo notable la novela histórica en tanto cuestiona el "origen" de la nación y con ello los andamios que sostenían el entero edificio. En segundo lugar, el conjunto de novelas históricas de estos años lee el pasado desde la nueva agenda del presente. Cuestiones como la memoria, la justicia, la tolerancia, las identidades excluidas, los autoritarismos se discuten desde la peculiar perspectiva de la novela histórica que los desplaza hacia el pasado. La reescritura del pasado, como sabemos, se constituye -y ahora de un modo notable- desde las preocupaciones del presente. Este se convierte en un foco que ilumina zonas en penumbras del pasado, desentierra historias semiolvidadas, escarba en archivos particulares y oficiales, pone en escena problemáticas ausentes. Desde la lente de la experiencia de la última dictadura, la ficción diseña, por un lado, una "cartografía de la barbarie" que -descolocando la teleología del progreso- vincula procesos autoritarios de diversa índole; por el otro trama una red simbólica, un "imaginario de las dictaduras"
Resumo:
El presente trabajo se enmarca dentro de una propuesta de créditos de investigación de la cátedra de historia de la educación argentina y latinoamericana de FFyL en el marco del proyecto "Archivo maestro. El aporte de los archivos escolares en la construcción de la historia de la educación argentina". Este trabajo tiene como objetivo analizar las prácticas escolares de la educación física en la Escuela Normal de Profesores n° 2 "Mariano Acosta" en el período fundacional comprendido entre 1874 y 1910 siguiendo así la periodización del proyecto en el cual se encuadra. Para eso se trabajo con los documentos del Archivo Histórico de la Escuela. Se usaron dos tipos de fuentes. Por un lado, aquellas encontradas en los libros copiadores y libros de notas que refieren a la vida institucional. Por otro lado, divulgaciones sobre la educación física en esa época, como el libro del primer director de la escuela publicado en 1878 donde sistematiza principios de pedagogía y su concepción acerca de la educación física y publicaciones de Romero Brest en la revista el Monitor. A partir del análisis de dichas fuentes, se reconstruyen los tipos de prácticas corporales que se realizaron en los inicios de esta escuela. Y luego, se revisa cuales eran los discursos circulantes que tensionaban el campo simbólico de la educación física como asignatura escolar. De este modo, este trabajo intenta aportar un nuevo punto de vista en la reconstrucción de las prácticas de enseñanza de esta escuela a través de una mirada desde el cuerpo. Se pretende que el relato sobre la dimensión institucional arroje saberes al campo de la historia de la educación física, que nos permitan reflexionar sobre el presente
Resumo:
Se analiza particularmente el modelo FRAD de la IFLA con el fin de aproximar a la comunidad bibliotecaria local a los nuevos modelos que están siendo desarrollados internacionalmente. A partir de este acercamiento, el estudio de las GARR y las ISAAR[CFP], normas utilizadas para la descripción de autoridades en los archivos, y un análisis del entorno de la Facultad de Humanidades y Ciencias de la Educación de la Universidad Nacional de la Plata, se define un modelo de base de datos acorde con las necesidades detectadas en el análisis del entorno para la institución mencionada que permitiría controlar los nombres de personas y de entidades corporativas, y se propone también, una aplicación para cargar, visualizar y consultar los datos en un sistema web. Se estima que una aplicación de este tipo beneficiaría la recuperación de información en las distintas bases de datosinstitucionales, colaboraría con la memoria de la organización y con el resguardo de la identidad de las personas que conforman la comunidad académica y que han elegido un nombre para firmar los trabajos que han producido. La aplicación de FRAD ante un entorno concreto con necesidades propias y tangibles comprueba en cierta forma la factibilidad de aplicación de este modelo conceptual para la solución de problemas
Resumo:
El trabajo trata del lugar que ocupan los archivos en los estudios literarios y cómo los propios archivos se están transformando junto con el lugar donde se asientan. Este cambio no sólo afecta la posibilidad creciente de acceder a un material que hasta hace poco era, más que secreto, invisible; sino que la propia noción de literatura queda afectada
Resumo:
El trabajo es un extracto de una larga investigación en los archivos del escritor argentino Manuel Puig, la génesis de su producción y su relación con el campo intelectual internacional. En este extracto se presenta un estudio del uso del melodrama en la producción 'espectacular' del autor y la publcación de un inédito que incluí como primicia en 1996 en la revista Orbis Tertius No. 2, Centro de Teoría y Crítica Literaria, UNLP.
Resumo:
Quienes han sido seguidores de la obra de Ezequiel Martínez Estrada (1895-1964) pueden advertir que son numerosos los estudios acerca de él y de su obra, pero creemos que la validación de sus textos reside en su perdurabilidad. Por esta razón debe seguir estudiándoselo a la luz de las incitaciones críticas recientes que en este caso devienen en cuestiones geneticistas. Es a partir de los pre-textos que obran en la Fundación Martínez Estrada y de los artículos y obras éditas del autor, que podemos observar el proceso de escritura desde la mirada de la crítica genética. La importancia de las investigaciones de genética textual en los archivos de grandes escritores contribuye a proporcionar un ámbito de reflexión concreto sobre los objetivos y métodos de la crítica genética, los cuales arrojan luz sobre los procesos de creación. De este modo, el estudio de un caso particular de escritura en un autor fundamental para pensar la tradición ensayística argentina nos permite dar cuenta de que una de las regularidades en las reescrituras que Martínez Estrada realiza sobre el Sarmiento se relacionan con la tensión entre la modernidad y la identidad
Resumo:
El trabajo se enmarca en la Práctica de Investigación, dictada en la Facultad de Psicología de la UBA: 'Psicología y Educación: La participación de Psicólogos y Docentes en Comunidades de Práctica y Aprendizaje Situado', cuya Coordinadora docente es Mag. Prof. Cristina Erausquin. Asimismo, la indagación a la que hace referencia se desarrolló en el marco del Proyecto de Investigación UBACYT P023, de la Programación 2008-2010, dirigido por la misma Docente e Investigadora. Se abordan tres Configuraciones Prácticas de Apoyo que se desarrollan en dependencias del Ministerio de Educación del Gobierno de la Ciudad de Buenos Aires, pertenecientes al área de Educación Especial: Maestra de Apoyo a la Integración (MAI), Maestra de Apoyo Psicológico (MAP), Intérprete de Lengua de Señas Argentinas (ILSA). Operan desde Educación Especial hacia Educación Común, favoreciendo la inclusión educativa, a través del armado de redes, relaciones, interacciones entre personas, grupos o instituciones, que se conforman para detectar e identificar las barreras al aprendizaje y desarrollar estrategias educativas para la participación escolar y comunitaria. Se identifican los Modelos Mentales de situación-problema e intervención, que construyen agentes psicoeducativos, a partir de su participación en Comunidades de Práctica (en este caso, las Configuraciones Prácticas de Apoyo). Se problematiza la posibilidad o no de funcionamiento y la operatividad de las Comunidades de Práctica en dichas Configuraciones de Apoyo. Desde enfoques socio culturales -inspirados en Lev Vigotsky- y la teoría de la actividad histórico-cultural, en su tercera generación, se plantea la interfase Educación Común-Educación Especial, pensada como la interacción entre dos sistemas de actividad, tomados en su trama conjunta como principal unidad de análisis de la indagación. Considerada en su red de relaciones con otros sistemas de actividad, dentro de los cuales se incluye a las Configuraciones de Apoyo, en su potencialidad para el desarrollo de objetos inter-psicológicos de actividad y sentidos de experiencias co-construídos Se describen las herramientas para la recolección de datos sobre las perspectivas de los agentes actores del escenario educativo: 'Cuestionario de Modelos Mentales sobre Situaciones Problema de Intervención de agentes psicoeducativos en Contextos Educativos' (Erausquin, Basualdo, 2009; Casal, 2011); y para el análisis de las narrativas obtenidas, la 'Matriz de Análisis Complejo del proceso de construcción de competencias para la intervención profesional del agente psicoeducativo sobre problemas situados en contexto' (Erausquin, Basualdo, 2009), así como entrevistas semi estructuradas a los coordinadores de las configuraciones de apoyo, centradas en el funcionamiento, dinámica, historia y tensiones de su conformación. Se presenta el análisis de datos de los Cuestionarios administrados, obtenido con la aplicación de la Matriz, focalizado en los Ejes de Profesionalización Psicoeducativa más significativos de la Dimensión Intervención Profesional del Agente y Herramientas utilizadas en la Intervención. Se hallan en los Actores entrevistados fortalezas significativas en la complejización y explicitación de los problemas y las acciones; en el perspectivismo -descentración de la propia perspectiva como la única explicación del problema, - y en la inter-agencialidad en la intervención. Se advierten indicios de construcción conjunta con otros agentes psicoeducativos de y en la intervención, lo mismo que diferencias, obstáculos y desafíos del proceso la profesionalización de los agentes en el campo educativo. Finalmente, se advierte en los diferentes Modelos Mentales Situacionales analizados en el presente trabajo una fuerte implicación en la problemática de la exclusión- inclusión en los diferentes agentes psicoeducativos actuantes en las Configuraciones Prácticas de Apoyo, que conjuntamente con el importante desarrollo del perspectivismo y la inter-agencialidad, resultan cruciales para poder pensar y pensar- se como siendo parte y tomando parte de las Comunidades de Práctica, a su vez imprescindibles para el logro de la verdadera inclusión de todos y para todos los sujetos, desde su propia singularidad
Resumo:
La obra de Louis I. Kahn —como decía Robert Le Ricolais, íntimo colaborador suyo sorprendentemente ignorado hasta ahora— no es fácil de reducir a un discurso lineal. Al hilo de esta apreciación, en el presente trabajo hemos intentado distanciarnos de una linealidad, lo cual nos separa sensiblemente de otras interpretaciones sobre este arquitecto. El acceso directo al material de los Archivos Kahn de la Universidad de Pennsylvania, los mismos edificios construidos y aquellos otros proyectos no realizados, la conversación con sus íntimos colaboradores y los hallazgos de documentación hasta ahora inédita han hecho posible una aproximación a la realidad vital del pensamiento y la obra de Kahn. Hemos querido en este trabajo acercarnos a aquellos puntos de máxima tensión interna en la obra kahniana, a aquellas aparentes contradicciones que desvelan la aproximación de Kahn al hecho proyectual. Estos puntos luminosos, desde la consideración del material, la estructura y el espacio, han servido de urdimbre para el trabajo. Y los hemos abordado desde tres hilos conductores, tres niveles de discurso cuyas fibras se entrelazan y forman un tejido. En primer lugar, la cultura arquitectónica de los años cincuenta con el telón de fondo del organicismo, entendido éste como reacción a un reduccionismo funcionalista y que adopta muchas formas más allá del concepto wrightiano de "arquitectura orgánica". En segundo término, la consideración de los problemas formales más allá de una configuración precisa, desde sus principios, de modo abierto, como corresponde al concepto kahniano de Forma", que entendemos en este trabajo como "disposición flexible" o "estructura topológica", siguiendo las Ideas de Robert Le Ricolais. Por último, la abstracción visual y espacial, la consideración de que además de la naturaleza de los materiales, existe otra dimensión más visual o fenomenológica pero no por ello menos rigurosa, más ligada a la interpretación personal que el artista o el arquitecto hacen del material con el que trabajan. En este sentido, encontramos paralelismos entre las actitudes de Josef Albers y Kahn ante el espacio. 1. Kahn queda incorporado en este trabajo a la tradición orgánica a través de una idea de geometría estructurada en niveles sucesivos de escala: una geometría orgánica. Anne Griswold Tyng, quien puso a Kahn en contacto con esta tradición, y su entendimiento de la arquitectura como el arte de dar forma al número y número a la forma, le posibilitó afianzarse en sus propias convicciones y en la radicalidad y universalidad de este orden geométrico arquetípico, presente tanto en las realidades naturales como en las mentales. En este sentido, la unidad elemental de espacio en Kahn —la estancia ["Room'), una unidad indivisible cuya fragmentación interna destruiría su sentido— constituye muchos de sus proyectos como acumulaciones celulares, como si se generaran por crecimiento o agrupación de unidades elementales —casa Parasol (1944), casa Adler (1955), Centro de Arte Británico de la Universidad de Yale (1969-74)—. La idea de "crecimiento" frente a la de "composición", con la que más frecuentemente se ha asociado a Kahn, parece ser una clave importante para entender su proceso proyectual, como manifiesta una reveladora discusión mantenida entre Kahn y Colin Rowe que se recoge en este trabajo. Este concepto kahniano de "Room"se revela como un 'espacio para', un espacio con carácter definido, un lugar que evoca un uso y que escapa de la idea abstracta de espacio como 'pura extensión' asumida por el funcionalismo. 2. En este trabajo se propone para Kahn el término de "disposición" mejor que el de "composición", con el que más frecuentemente ha sido asociado. Nos situamos, por tanto, frente a las interpretaciones más comunes, que se centran en el sentido de la "composición" analizando aspectos puramente compositivos en su obra —axialidades y otros recursos formales en las plantas, por ejemplo—, así como su herencia de una tradición Beaux-Arts. Desde nuestro punto de vista, la topología sirve como referente para un nuevo entendimiento de Kahn, y a la luz de sus conceptos se comprende que el proyecto se define por las relaciones, continuidades y conexiones de los espacios entre sí, y no por su forma precisa. Esa idea de forma abierta dota al proyecto de una libertad interna para recomponerse sobre sí mismo, para encontrar esa adecuada disposición ["Forma" según la llama Kahn) y extraer de ella toda su energía. 3. Las ideas de Kahn sobre "lo que el material quiere ser", que parecen identificarse con el concepto wrightiano de "la naturaleza de los materiales", sugieren de modo implícito una oculta paradoja. La obra de Kahn se abre a aspectos fenomenológicos, más ligados a lo visual y a la experiencia perceptiva del material: su textura, su comportamiento ante la luz, sus resonancias cromáticas. A este respecto, hemos encontrado en Kahn ecos de las ideas que Josef Albers expresaba mediante juegos de color, abstracción y espacio en sus composiciones con cristal. Una interpretación arquitectónica del aforismo kahniano de que "la materia es luz gastada" parece estar en la vibración del material ante la luz, y en el reconocimiento de que entre ambos existe un constante intercambio de energía, una asociación íntima. El material es traído a la presencia por la luz, y ésta necesita de la materia para hacerse visible. Material y luz son dos fuentes de energía en continuo intercambio que se reclaman mutuamente. Esto lleva a Kahn a matizadas yuxtaposiciones de materiales, sutiles enfrentamientos de texturas que son valoradas por el principio siempre cambiante de la luz dando vida al espacio. Sin embargo, estas cualidades fenomenológicas y abstractas de la materia, que le sirven para activar el espacio, se ven filtradas a través de un proceso constructivo. Al operar en sus proyectos con las cualidades visuales de los materiales, Kahn mantiene una paralela atención por dejar en ese juego las huellas del sistema constructivo. Descubrimos que los materiales, en sus sistemas de encofrado, puesta en obra, estandarización y prefabricación, cuentan la historia de un proceso, y que la idea del edificio en construcción, en su hacerse, en esa batalla con la técnica, está presente desde el proyecto como elemento conformador. De este modo se revelan aspectos importantes del tipo de espacio que Kahn propone: un espacio atravesado por la acción del instrumento, que evidencia cómo ha sido hecho. En último extremo, esta noción espacial es expresión de una Idea base en el pensamiento de Kahn: que el espacio procede del muro al abrirse, al desmaterializarse, y está atado a un sistema constructivo-estructural. De este modo, el presente trabajo da cuenta del peculiar modo de entender las relaciones entre el material, la estructura y el espacio por parte de Kahn, quien se ubica en una perspectiva amplia e ¡integradora que acoge y aglutina nociones de ámbitos que parecerían contrapuestos: la abstracción y la tectónica, el rigor geométrico y una apertura topológica. Esto nos revela a un Kahn que elude lecturas directas o lineales, que se sitúa ante los problemas con los ojos siempre abiertos —así dibujaba su actitud mental Robert Le Ricolais—, permanentemente atento a los acontecimientos espaciales, a su continuidad heredera de un primer movimiento moderno y a las sutiles discontinuidades que necesariamente aparecen en éste. Pues el espacio kahniano nace de la disgregación del espacio continuo, de la escisión de éste en unidades, de la aceptación de su heterogeneidad (espacios servidores o servidos, estancias que buscan su propia autonomía y diferenciación de acuerdo con un modo más natural de resolver los problemas). Pero, al mismo tiempo, este espacio no atraviesa una total disgregación, ya que también se busca con igual energía una continuidad casi homogénea, una cierta indiferenciación entre las partes, una sorprendente aspiración al silencio: la disolución de lo individual, de lo particular, en una homogeneidad creada por una simultánea tensión entre geometría, espacio, material, estructura y sistema constructivo.
Resumo:
El presente proyecto fin de carrera consiste en el diseño, desarrollo e implementación de una aplicación informática cuya función sea la identificación de distintos ficheros de imagen, audio y video y la interpretación y presentación de los metadatos asociados a los mismos. El software desarrollado, EXTRACTORDATOS_LBS, reconocerá el tipo de formato del fichero bajo estudio a partir del análisis de los bytes de identificación contenidos en la cabecera del archivo. En base a la información registrada en dicha cabecera, la aplicación interpretará el contenido de los metadatos asociados al fichero, mostrando por pantalla aquellos que resulten de interés para el análisis de los mismos. Previamente a la implementación del software se acomete el análisis teórico de los formatos de diversos archivos multimedia, recogidos en múltiples normas y recomendaciones. Tras esa identificación, se procede al desarrollo de la aplicación EXTRACTORDATOS_LBS , que informa de los parámetros de interés contenidos en las cabeceras de los archivos. El desarrollo se ilustra con los diagramas conceptuales asociados a la arquitectura del software implementado. De igual forma, se muestran las salidas por pantalla de una serie de ficheros de muestra, y se presenta el manual de usuario de la aplicación. La versión electrónica de este documento acompaña el ejecutable que permite el análisis de los archivos. This final project consists in the design, development and implementation of a computer application whose function is the identification of different image, audio and video files and the interpretation and presentation of their metadata. The software developed, EXTRACTORDATOS_LBS, will recognize the type of the file under study through the analysis of the identification bytes contained on the file’s header. Based on information registered in this header, the application will interpret the metadata content associated to file, displaying the most interesting ones for their analysis. Prior to the software implementation, a theoretical analysis of the different formats of media files is undertaken. After this identification, the application EXTRACTORDATOS_LBS is developed. This software analyzes and displays the most interesting parameters contained in multimedia file’s header. The development of the application is illustrated with flow charts associated to the architecture of the software. Furthermore, some graphic examples of use of the program are included, as well as the user’s manual. The electronic version of this document attaches the executable file that permits file analysis.
Resumo:
La optimización de parámetros tales como el consumo de potencia, la cantidad de recursos lógicos empleados o la ocupación de memoria ha sido siempre una de las preocupaciones principales a la hora de diseñar sistemas embebidos. Esto es debido a que se trata de sistemas dotados de una cantidad de recursos limitados, y que han sido tradicionalmente empleados para un propósito específico, que permanece invariable a lo largo de toda la vida útil del sistema. Sin embargo, el uso de sistemas embebidos se ha extendido a áreas de aplicación fuera de su ámbito tradicional, caracterizadas por una mayor demanda computacional. Así, por ejemplo, algunos de estos sistemas deben llevar a cabo un intenso procesado de señales multimedia o la transmisión de datos mediante sistemas de comunicaciones de alta capacidad. Por otra parte, las condiciones de operación del sistema pueden variar en tiempo real. Esto sucede, por ejemplo, si su funcionamiento depende de datos medidos por el propio sistema o recibidos a través de la red, de las demandas del usuario en cada momento, o de condiciones internas del propio dispositivo, tales como la duración de la batería. Como consecuencia de la existencia de requisitos de operación dinámicos es necesario ir hacia una gestión dinámica de los recursos del sistema. Si bien el software es inherentemente flexible, no ofrece una potencia computacional tan alta como el hardware. Por lo tanto, el hardware reconfigurable aparece como una solución adecuada para tratar con mayor flexibilidad los requisitos variables dinámicamente en sistemas con alta demanda computacional. La flexibilidad y adaptabilidad del hardware requieren de dispositivos reconfigurables que permitan la modificación de su funcionalidad bajo demanda. En esta tesis se han seleccionado las FPGAs (Field Programmable Gate Arrays) como los dispositivos más apropiados, hoy en día, para implementar sistemas basados en hardware reconfigurable De entre todas las posibilidades existentes para explotar la capacidad de reconfiguración de las FPGAs comerciales, se ha seleccionado la reconfiguración dinámica y parcial. Esta técnica consiste en substituir una parte de la lógica del dispositivo, mientras el resto continúa en funcionamiento. La capacidad de reconfiguración dinámica y parcial de las FPGAs es empleada en esta tesis para tratar con los requisitos de flexibilidad y de capacidad computacional que demandan los dispositivos embebidos. La propuesta principal de esta tesis doctoral es el uso de arquitecturas de procesamiento escalables espacialmente, que son capaces de adaptar su funcionalidad y rendimiento en tiempo real, estableciendo un compromiso entre dichos parámetros y la cantidad de lógica que ocupan en el dispositivo. A esto nos referimos con arquitecturas con huellas escalables. En particular, se propone el uso de arquitecturas altamente paralelas, modulares, regulares y con una alta localidad en sus comunicaciones, para este propósito. El tamaño de dichas arquitecturas puede ser modificado mediante la adición o eliminación de algunos de los módulos que las componen, tanto en una dimensión como en dos. Esta estrategia permite implementar soluciones escalables, sin tener que contar con una versión de las mismas para cada uno de los tamaños posibles de la arquitectura. De esta manera se reduce significativamente el tiempo necesario para modificar su tamaño, así como la cantidad de memoria necesaria para almacenar todos los archivos de configuración. En lugar de proponer arquitecturas para aplicaciones específicas, se ha optado por patrones de procesamiento genéricos, que pueden ser ajustados para solucionar distintos problemas en el estado del arte. A este respecto, se proponen patrones basados en esquemas sistólicos, así como de tipo wavefront. Con el objeto de poder ofrecer una solución integral, se han tratado otros aspectos relacionados con el diseño y el funcionamiento de las arquitecturas, tales como el control del proceso de reconfiguración de la FPGA, la integración de las arquitecturas en el resto del sistema, así como las técnicas necesarias para su implementación. Por lo que respecta a la implementación, se han tratado distintos aspectos de bajo nivel dependientes del dispositivo. Algunas de las propuestas realizadas a este respecto en la presente tesis doctoral son un router que es capaz de garantizar el correcto rutado de los módulos reconfigurables dentro del área destinada para ellos, así como una estrategia para la comunicación entre módulos que no introduce ningún retardo ni necesita emplear recursos configurables del dispositivo. El flujo de diseño propuesto se ha automatizado mediante una herramienta denominada DREAMS. La herramienta se encarga de la modificación de las netlists correspondientes a cada uno de los módulos reconfigurables del sistema, y que han sido generadas previamente mediante herramientas comerciales. Por lo tanto, el flujo propuesto se entiende como una etapa de post-procesamiento, que adapta esas netlists a los requisitos de la reconfiguración dinámica y parcial. Dicha modificación la lleva a cabo la herramienta de una forma completamente automática, por lo que la productividad del proceso de diseño aumenta de forma evidente. Para facilitar dicho proceso, se ha dotado a la herramienta de una interfaz gráfica. El flujo de diseño propuesto, y la herramienta que lo soporta, tienen características específicas para abordar el diseño de las arquitecturas dinámicamente escalables propuestas en esta tesis. Entre ellas está el soporte para el realojamiento de módulos reconfigurables en posiciones del dispositivo distintas a donde el módulo es originalmente implementado, así como la generación de estructuras de comunicación compatibles con la simetría de la arquitectura. El router has sido empleado también en esta tesis para obtener un rutado simétrico entre nets equivalentes. Dicha posibilidad ha sido explotada para aumentar la protección de circuitos con altos requisitos de seguridad, frente a ataques de canal lateral, mediante la implantación de lógica complementaria con rutado idéntico. Para controlar el proceso de reconfiguración de la FPGA, se propone en esta tesis un motor de reconfiguración especialmente adaptado a los requisitos de las arquitecturas dinámicamente escalables. Además de controlar el puerto de reconfiguración, el motor de reconfiguración ha sido dotado de la capacidad de realojar módulos reconfigurables en posiciones arbitrarias del dispositivo, en tiempo real. De esta forma, basta con generar un único bitstream por cada módulo reconfigurable del sistema, independientemente de la posición donde va a ser finalmente reconfigurado. La estrategia seguida para implementar el proceso de realojamiento de módulos es diferente de las propuestas existentes en el estado del arte, pues consiste en la composición de los archivos de configuración en tiempo real. De esta forma se consigue aumentar la velocidad del proceso, mientras que se reduce la longitud de los archivos de configuración parciales a almacenar en el sistema. El motor de reconfiguración soporta módulos reconfigurables con una altura menor que la altura de una región de reloj del dispositivo. Internamente, el motor se encarga de la combinación de los frames que describen el nuevo módulo, con la configuración existente en el dispositivo previamente. El escalado de las arquitecturas de procesamiento propuestas en esta tesis también se puede beneficiar de este mecanismo. Se ha incorporado también un acceso directo a una memoria externa donde se pueden almacenar bitstreams parciales. Para acelerar el proceso de reconfiguración se ha hecho funcionar el ICAP por encima de la máxima frecuencia de reloj aconsejada por el fabricante. Así, en el caso de Virtex-5, aunque la máxima frecuencia del reloj deberían ser 100 MHz, se ha conseguido hacer funcionar el puerto de reconfiguración a frecuencias de operación de hasta 250 MHz, incluyendo el proceso de realojamiento en tiempo real. Se ha previsto la posibilidad de portar el motor de reconfiguración a futuras familias de FPGAs. Por otro lado, el motor de reconfiguración se puede emplear para inyectar fallos en el propio dispositivo hardware, y así ser capaces de evaluar la tolerancia ante los mismos que ofrecen las arquitecturas reconfigurables. Los fallos son emulados mediante la generación de archivos de configuración a los que intencionadamente se les ha introducido un error, de forma que se modifica su funcionalidad. Con el objetivo de comprobar la validez y los beneficios de las arquitecturas propuestas en esta tesis, se han seguido dos líneas principales de aplicación. En primer lugar, se propone su uso como parte de una plataforma adaptativa basada en hardware evolutivo, con capacidad de escalabilidad, adaptabilidad y recuperación ante fallos. En segundo lugar, se ha desarrollado un deblocking filter escalable, adaptado a la codificación de vídeo escalable, como ejemplo de aplicación de las arquitecturas de tipo wavefront propuestas. El hardware evolutivo consiste en el uso de algoritmos evolutivos para diseñar hardware de forma autónoma, explotando la flexibilidad que ofrecen los dispositivos reconfigurables. En este caso, los elementos de procesamiento que componen la arquitectura son seleccionados de una biblioteca de elementos presintetizados, de acuerdo con las decisiones tomadas por el algoritmo evolutivo, en lugar de definir la configuración de las mismas en tiempo de diseño. De esta manera, la configuración del core puede cambiar cuando lo hacen las condiciones del entorno, en tiempo real, por lo que se consigue un control autónomo del proceso de reconfiguración dinámico. Así, el sistema es capaz de optimizar, de forma autónoma, su propia configuración. El hardware evolutivo tiene una capacidad inherente de auto-reparación. Se ha probado que las arquitecturas evolutivas propuestas en esta tesis son tolerantes ante fallos, tanto transitorios, como permanentes y acumulativos. La plataforma evolutiva se ha empleado para implementar filtros de eliminación de ruido. La escalabilidad también ha sido aprovechada en esta aplicación. Las arquitecturas evolutivas escalables permiten la adaptación autónoma de los cores de procesamiento ante fluctuaciones en la cantidad de recursos disponibles en el sistema. Por lo tanto, constituyen un ejemplo de escalabilidad dinámica para conseguir un determinado nivel de calidad, que puede variar en tiempo real. Se han propuesto dos variantes de sistemas escalables evolutivos. El primero consiste en un único core de procesamiento evolutivo, mientras que el segundo está formado por un número variable de arrays de procesamiento. La codificación de vídeo escalable, a diferencia de los codecs no escalables, permite la decodificación de secuencias de vídeo con diferentes niveles de calidad, de resolución temporal o de resolución espacial, descartando la información no deseada. Existen distintos algoritmos que soportan esta característica. En particular, se va a emplear el estándar Scalable Video Coding (SVC), que ha sido propuesto como una extensión de H.264/AVC, ya que este último es ampliamente utilizado tanto en la industria, como a nivel de investigación. Para poder explotar toda la flexibilidad que ofrece el estándar, hay que permitir la adaptación de las características del decodificador en tiempo real. El uso de las arquitecturas dinámicamente escalables es propuesto en esta tesis con este objetivo. El deblocking filter es un algoritmo que tiene como objetivo la mejora de la percepción visual de la imagen reconstruida, mediante el suavizado de los "artefactos" de bloque generados en el lazo del codificador. Se trata de una de las tareas más intensivas en procesamiento de datos de H.264/AVC y de SVC, y además, su carga computacional es altamente dependiente del nivel de escalabilidad seleccionado en el decodificador. Por lo tanto, el deblocking filter ha sido seleccionado como prueba de concepto de la aplicación de las arquitecturas dinámicamente escalables para la compresión de video. La arquitectura propuesta permite añadir o eliminar unidades de computación, siguiendo un esquema de tipo wavefront. La arquitectura ha sido propuesta conjuntamente con un esquema de procesamiento en paralelo del deblocking filter a nivel de macrobloque, de tal forma que cuando se varía del tamaño de la arquitectura, el orden de filtrado de los macrobloques varia de la misma manera. El patrón propuesto se basa en la división del procesamiento de cada macrobloque en dos etapas independientes, que se corresponden con el filtrado horizontal y vertical de los bloques dentro del macrobloque. Las principales contribuciones originales de esta tesis son las siguientes: - El uso de arquitecturas altamente regulares, modulares, paralelas y con una intensa localidad en sus comunicaciones, para implementar cores de procesamiento dinámicamente reconfigurables. - El uso de arquitecturas bidimensionales, en forma de malla, para construir arquitecturas dinámicamente escalables, con una huella escalable. De esta forma, las arquitecturas permiten establecer un compromiso entre el área que ocupan en el dispositivo, y las prestaciones que ofrecen en cada momento. Se proponen plantillas de procesamiento genéricas, de tipo sistólico o wavefront, que pueden ser adaptadas a distintos problemas de procesamiento. - Un flujo de diseño y una herramienta que lo soporta, para el diseño de sistemas reconfigurables dinámicamente, centradas en el diseño de las arquitecturas altamente paralelas, modulares y regulares propuestas en esta tesis. - Un esquema de comunicaciones entre módulos reconfigurables que no introduce ningún retardo ni requiere el uso de recursos lógicos propios. - Un router flexible, capaz de resolver los conflictos de rutado asociados con el diseño de sistemas reconfigurables dinámicamente. - Un algoritmo de optimización para sistemas formados por múltiples cores escalables que optimice, mediante un algoritmo genético, los parámetros de dicho sistema. Se basa en un modelo conocido como el problema de la mochila. - Un motor de reconfiguración adaptado a los requisitos de las arquitecturas altamente regulares y modulares. Combina una alta velocidad de reconfiguración, con la capacidad de realojar módulos en tiempo real, incluyendo el soporte para la reconfiguración de regiones que ocupan menos que una región de reloj, así como la réplica de un módulo reconfigurable en múltiples posiciones del dispositivo. - Un mecanismo de inyección de fallos que, empleando el motor de reconfiguración del sistema, permite evaluar los efectos de fallos permanentes y transitorios en arquitecturas reconfigurables. - La demostración de las posibilidades de las arquitecturas propuestas en esta tesis para la implementación de sistemas de hardware evolutivos, con una alta capacidad de procesamiento de datos. - La implementación de sistemas de hardware evolutivo escalables, que son capaces de tratar con la fluctuación de la cantidad de recursos disponibles en el sistema, de una forma autónoma. - Una estrategia de procesamiento en paralelo para el deblocking filter compatible con los estándares H.264/AVC y SVC que reduce el número de ciclos de macrobloque necesarios para procesar un frame de video. - Una arquitectura dinámicamente escalable que permite la implementación de un nuevo deblocking filter, totalmente compatible con los estándares H.264/AVC y SVC, que explota el paralelismo a nivel de macrobloque. El presente documento se organiza en siete capítulos. En el primero se ofrece una introducción al marco tecnológico de esta tesis, especialmente centrado en la reconfiguración dinámica y parcial de FPGAs. También se motiva la necesidad de las arquitecturas dinámicamente escalables propuestas en esta tesis. En el capítulo 2 se describen las arquitecturas dinámicamente escalables. Dicha descripción incluye la mayor parte de las aportaciones a nivel arquitectural realizadas en esta tesis. Por su parte, el flujo de diseño adaptado a dichas arquitecturas se propone en el capítulo 3. El motor de reconfiguración se propone en el 4, mientras que el uso de dichas arquitecturas para implementar sistemas de hardware evolutivo se aborda en el 5. El deblocking filter escalable se describe en el 6, mientras que las conclusiones finales de esta tesis, así como la descripción del trabajo futuro, son abordadas en el capítulo 7. ABSTRACT The optimization of system parameters, such as power dissipation, the amount of hardware resources and the memory footprint, has been always a main concern when dealing with the design of resource-constrained embedded systems. This situation is even more demanding nowadays. Embedded systems cannot anymore be considered only as specific-purpose computers, designed for a particular functionality that remains unchanged during their lifetime. Differently, embedded systems are now required to deal with more demanding and complex functions, such as multimedia data processing and high-throughput connectivity. In addition, system operation may depend on external data, the user requirements or internal variables of the system, such as the battery life-time. All these conditions may vary at run-time, leading to adaptive scenarios. As a consequence of both the growing computational complexity and the existence of dynamic requirements, dynamic resource management techniques for embedded systems are needed. Software is inherently flexible, but it cannot meet the computing power offered by hardware solutions. Therefore, reconfigurable hardware emerges as a suitable technology to deal with the run-time variable requirements of complex embedded systems. Adaptive hardware requires the use of reconfigurable devices, where its functionality can be modified on demand. In this thesis, Field Programmable Gate Arrays (FPGAs) have been selected as the most appropriate commercial technology existing nowadays to implement adaptive hardware systems. There are different ways of exploiting reconfigurability in reconfigurable devices. Among them is dynamic and partial reconfiguration. This is a technique which consists in substituting part of the FPGA logic on demand, while the rest of the device continues working. The strategy followed in this thesis is to exploit the dynamic and partial reconfiguration of commercial FPGAs to deal with the flexibility and complexity demands of state-of-the-art embedded systems. The proposal of this thesis to deal with run-time variable system conditions is the use of spatially scalable processing hardware IP cores, which are able to adapt their functionality or performance at run-time, trading them off with the amount of logic resources they occupy in the device. This is referred to as a scalable footprint in the context of this thesis. The distinguishing characteristic of the proposed cores is that they rely on highly parallel, modular and regular architectures, arranged in one or two dimensions. These architectures can be scaled by means of the addition or removal of the composing blocks. This strategy avoids implementing a full version of the core for each possible size, with the corresponding benefits in terms of scaling and adaptation time, as well as bitstream storage memory requirements. Instead of providing specific-purpose architectures, generic architectural templates, which can be tuned to solve different problems, are proposed in this thesis. Architectures following both systolic and wavefront templates have been selected. Together with the proposed scalable architectural templates, other issues needed to ensure the proper design and operation of the scalable cores, such as the device reconfiguration control, the run-time management of the architecture and the implementation techniques have been also addressed in this thesis. With regard to the implementation of dynamically reconfigurable architectures, device dependent low-level details are addressed. Some of the aspects covered in this thesis are the area constrained routing for reconfigurable modules, or an inter-module communication strategy which does not introduce either extra delay or logic overhead. The system implementation, from the hardware description to the device configuration bitstream, has been fully automated by modifying the netlists corresponding to each of the system modules, which are previously generated using the vendor tools. This modification is therefore envisaged as a post-processing step. Based on these implementation proposals, a design tool called DREAMS (Dynamically Reconfigurable Embedded and Modular Systems) has been created, including a graphic user interface. The tool has specific features to cope with modular and regular architectures, including the support for module relocation and the inter-module communications scheme based on the symmetry of the architecture. The core of the tool is a custom router, which has been also exploited in this thesis to obtain symmetric routed nets, with the aim of enhancing the protection of critical reconfigurable circuits against side channel attacks. This is achieved by duplicating the logic with an exactly equal routing. In order to control the reconfiguration process of the FPGA, a Reconfiguration Engine suited to the specific requirements set by the proposed architectures was also proposed. Therefore, in addition to controlling the reconfiguration port, the Reconfiguration Engine has been enhanced with the online relocation ability, which allows employing a unique configuration bitstream for all the positions where the module may be placed in the device. Differently to the existing relocating solutions, which are based on bitstream parsers, the proposed approach is based on the online composition of bitstreams. This strategy allows increasing the speed of the process, while the length of partial bitstreams is also reduced. The height of the reconfigurable modules can be lower than the height of a clock region. The Reconfiguration Engine manages the merging process of the new and the existing configuration frames within each clock region. The process of scaling up and down the hardware cores also benefits from this technique. A direct link to an external memory where partial bitstreams can be stored has been also implemented. In order to accelerate the reconfiguration process, the ICAP has been overclocked over the speed reported by the manufacturer. In the case of Virtex-5, even though the maximum frequency of the ICAP is reported to be 100 MHz, valid operations at 250 MHz have been achieved, including the online relocation process. Portability of the reconfiguration solution to today's and probably, future FPGAs, has been also considered. The reconfiguration engine can be also used to inject faults in real hardware devices, and this way being able to evaluate the fault tolerance offered by the reconfigurable architectures. Faults are emulated by introducing partial bitstreams intentionally modified to provide erroneous functionality. To prove the validity and the benefits offered by the proposed architectures, two demonstration application lines have been envisaged. First, scalable architectures have been employed to develop an evolvable hardware platform with adaptability, fault tolerance and scalability properties. Second, they have been used to implement a scalable deblocking filter suited to scalable video coding. Evolvable Hardware is the use of evolutionary algorithms to design hardware in an autonomous way, exploiting the flexibility offered by reconfigurable devices. In this case, processing elements composing the architecture are selected from a presynthesized library of processing elements, according to the decisions taken by the algorithm, instead of being decided at design time. This way, the configuration of the array may change as run-time environmental conditions do, achieving autonomous control of the dynamic reconfiguration process. Thus, the self-optimization property is added to the native self-configurability of the dynamically scalable architectures. In addition, evolvable hardware adaptability inherently offers self-healing features. The proposal has proved to be self-tolerant, since it is able to self-recover from both transient and cumulative permanent faults. The proposed evolvable architecture has been used to implement noise removal image filters. Scalability has been also exploited in this application. Scalable evolvable hardware architectures allow the autonomous adaptation of the processing cores to a fluctuating amount of resources available in the system. Thus, it constitutes an example of the dynamic quality scalability tackled in this thesis. Two variants have been proposed. The first one consists in a single dynamically scalable evolvable core, and the second one contains a variable number of processing cores. Scalable video is a flexible approach for video compression, which offers scalability at different levels. Differently to non-scalable codecs, a scalable video bitstream can be decoded with different levels of quality, spatial or temporal resolutions, by discarding the undesired information. The interest in this technology has been fostered by the development of the Scalable Video Coding (SVC) standard, as an extension of H.264/AVC. In order to exploit all the flexibility offered by the standard, it is necessary to adapt the characteristics of the decoder to the requirements of each client during run-time. The use of dynamically scalable architectures is proposed in this thesis with this aim. The deblocking filter algorithm is the responsible of improving the visual perception of a reconstructed image, by smoothing blocking artifacts generated in the encoding loop. This is one of the most computationally intensive tasks of the standard, and furthermore, it is highly dependent on the selected scalability level in the decoder. Therefore, the deblocking filter has been selected as a proof of concept of the implementation of dynamically scalable architectures for video compression. The proposed architecture allows the run-time addition or removal of computational units working in parallel to change its level of parallelism, following a wavefront computational pattern. Scalable architecture is offered together with a scalable parallelization strategy at the macroblock level, such that when the size of the architecture changes, the macroblock filtering order is modified accordingly. The proposed pattern is based on the division of the macroblock processing into two independent stages, corresponding to the horizontal and vertical filtering of the blocks within the macroblock. The main contributions of this thesis are: - The use of highly parallel, modular, regular and local architectures to implement dynamically reconfigurable processing IP cores, for data intensive applications with flexibility requirements. - The use of two-dimensional mesh-type arrays as architectural templates to build dynamically reconfigurable IP cores, with a scalable footprint. The proposal consists in generic architectural templates, which can be tuned to solve different computational problems. •A design flow and a tool targeting the design of DPR systems, focused on highly parallel, modular and local architectures. - An inter-module communication strategy, which does not introduce delay or area overhead, named Virtual Borders. - A custom and flexible router to solve the routing conflicts as well as the inter-module communication problems, appearing during the design of DPR systems. - An algorithm addressing the optimization of systems composed of multiple scalable cores, which size can be decided individually, to optimize the system parameters. It is based on a model known as the multi-dimensional multi-choice Knapsack problem. - A reconfiguration engine tailored to the requirements of highly regular and modular architectures. It combines a high reconfiguration throughput with run-time module relocation capabilities, including the support for sub-clock reconfigurable regions and the replication in multiple positions. - A fault injection mechanism which takes advantage of the system reconfiguration engine, as well as the modularity of the proposed reconfigurable architectures, to evaluate the effects of transient and permanent faults in these architectures. - The demonstration of the possibilities of the architectures proposed in this thesis to implement evolvable hardware systems, while keeping a high processing throughput. - The implementation of scalable evolvable hardware systems, which are able to adapt to the fluctuation of the amount of resources available in the system, in an autonomous way. - A parallelization strategy for the H.264/AVC and SVC deblocking filter, which reduces the number of macroblock cycles needed to process the whole frame. - A dynamically scalable architecture that permits the implementation of a novel deblocking filter module, fully compliant with the H.264/AVC and SVC standards, which exploits the macroblock level parallelism of the algorithm. This document is organized in seven chapters. In the first one, an introduction to the technology framework of this thesis, specially focused on dynamic and partial reconfiguration, is provided. The need for the dynamically scalable processing architectures proposed in this work is also motivated in this chapter. In chapter 2, dynamically scalable architectures are described. Description includes most of the architectural contributions of this work. The design flow tailored to the scalable architectures, together with the DREAMs tool provided to implement them, are described in chapter 3. The reconfiguration engine is described in chapter 4. The use of the proposed scalable archtieectures to implement evolvable hardware systems is described in chapter 5, while the scalable deblocking filter is described in chapter 6. Final conclusions of this thesis, and the description of future work, are addressed in chapter 7.
Resumo:
Incipit : "Informe sobre una misión filológica en Valencia. Señor Ministro. Los archivos y las bibliotecas de Valencia"
Resumo:
Se comenzó el trabajo recabando información sobre los distintos enfoques que se le había dado a la anotación a lo largo del tiempo, desde anotación de imágenes a mano, pasando por anotación de imágenes utilizando características de bajo nivel, como color y textura, hasta la anotación automática. Tras entrar en materia, se procedió a estudiar artículos relativos a los diferentes algoritmos utilizados para la anotación automática de imágenes. Dado que la anotación automática es un campo bastante abierto, hay un gran numero de enfoques. Teniendo las características de las imágenes en particular en las que se iba a centrar el proyecto, se fueron descartando los poco idoneos, bien por un coste computacional elevado, o porque estaba centrado en un tipo diferente de imágenes, entre otras cosas. Finalmente, se encontró un algoritmo basado en formas (Active Shape Model) que se consideró que podría funcionar adecuadamente. Básicamente, los diferentes objetos de la imagen son identicados a partir de un contorno base generado a partir de imágenes de muestra, siendo modicado automáticamente para cubrir la zona deseada. Dado que las imágenes usadas son todas muy similares en composición, se cree que puede funcionar bien. Se partió de una implementación del algoritmo programada en MATLAB. Para empezar, se obtuvieron una serie de radiografías del tórax ya anotadas. Las imágenes contenían datos de contorno para ambos pulmones, las dos clavículas y el corazón. El primer paso fue la creación de una serie de scripts en MATLAB que permitieran: - Leer y transformar las imágenes recibidas en RAW, para adaptarlas al tamaño y la posición de los contornos anotados - Leer los archivos de texto con los datos de los puntos del contorno y transformarlos en variables de MATLAB - Unir la imagen transformada con los puntos y guardarla en un formato que la implementación del algoritmo entendiera. Tras conseguir los ficheros necesarios, se procedió a crear un modelo para cada órgano utilizando para el entrenamiento una pequeña parte de las imágenes. El modelo obtenido se probó con varias imágenes de las restantes. Sin embargo, se encontro bastante variación dependiendo de la imagen utilizada y el órgano detectado. ---ABSTRACT---The project was started by procuring information about the diferent approaches to image annotation over time, from manual image anotation to automatic annotation. The next step was to study several articles about the diferent algorithms used for automatic image annotation. Given that automatic annotation is an open field, there is a great number of approaches. Taking into account the features of the images that would be used, the less suitable algorithms were rejected. Eventually, a shape-based algorithm (Active Shape Model) was found. Basically, the diferent objects in the image are identified from a base contour, which is generated from training images. Then this contour is automatically modified to cover the desired area. Given that all the images that would be used are similar in object placement, the algorithm would probably work nicely. The work started from a MATLAB implementation of the algorithm. To begin with, a set of chest radiographs already annotated were obtained. These images came with contour data for both lungs, both clavicles and the heart. The first step was the creation of a series of MATLAB scripts to join the RAW images with the annotation data and transform them into a format that the algorithm could read. After obtaining the necessary files, a model for each organ was created using part of the images for training. The trained model was tested on several of the reimaining images. However, there was much variation in the results from one image to another. Generally, lungs were detected pretty accurately, whereas clavicles and the heart gave more problems. To improve the method, a new model was trained using half of the available images. With this model, a significant inprovement of the results can be seen.