24 resultados para Arte de hablar en publico
Resumo:
1. Nuestra investigación se centra en el estudio de los “ámbitos o espacios intermedios” en momentos de la arquitectura contemporánea, en un período de transición entre finales de los años 80 y nuestros días. Pretendemos analizar cómo se presenta el ámbito intermedio en el objeto o lugar arquitectónico y su función o relación con el entorno cercano, desde el proyecto hasta su repercusión en la experiencia vivida. 2. El concepto de intermedio entendido como ámbito o espacio intersticial, fronterizo y ambivalente (o multivalente), atraviesa en la presente investigación el campo de la etimología, de la ciencia, del pensamiento y del arte, para detenerse en la arquitectura actual, llevándose a cabo una indagación concreta en el proceso de concepción, en la propuesta formal, espacial y funcional, así como en la percepción y demás experiencias o vivencias en el lugar arquitectónico. 3. En primer lugar nos proponemos estudiar y explorar el concepto de “intermedio” en sus características, funciones y ubicaciones dentro de la cultura contemporánea, detectando sus antecedentes culturales más importantes, para a continuación aplicarlo reflexivamente a obras significativas de arquitectura. La investigación se enfoca en la modalidad figural (imprecisa) de lo intermedio (en alusión al “figural” deleuziano), cuyas metáforas base son lo translúcido, la penumbra y la espuma, vinculadas al actual paradigma cultural de la complejidad (C. Jencks). A continuación se analizan las relaciones o implicaciones de dicha modalidad figural en obras de arquitectos como Eisenman, Holl, Tschumi, Ito, Fujimoto, Van Berkel y Bos, y Siza, comprobando su valor operativo y poniendo de manifiesto su sentido e importancia en la actualidad y en la disciplina. El estudio tiene como trasfondo el concepto de in-between de la obra de Eisenman, y utiliza conceptos de la filosofía del límite de Trías como algunos de sus principales fundamentos. 4. En cada una de las obras de arquitectura presentadas esta modalidad imprecisa se traduce en un ámbito o espacio intermedio figural específico. Son obras en las que real y virtual, matricial y objetual, arquitectura y territorio, existente y nuevo, colectivo e individual, social e íntimo, interior y exterior, y demás usos y funciones se entrelazan o funden. Son arquitecturas cuya geometría ya no se encuentra tan determinada por aspectos bi o tridimensionales del dibujo o de la construcción. A través de la manipulación de estas geometrías más o menos complejas, dinámicas e intersticiales, estas obras reflejan (o intuyen) las premisas del actual Zeitgeist: un cambio de esquemas de objetos a relaciones basado en un pensamiento más holístico, transdisciplinar, sistémico o complejo (E. Morin), y una nueva conciencia colectiva sobre la realidad que anuncia la crisis de la percepción, el cambio de paradigma y nuevos valores (F. Capra). Emerge otra forma de sentir y percibir el mundo, los lugares y los espacios, que poco a poco está cambiando el modo de pensar y dibujar la arquitectura, y consecuentemente de interaccionar con ella. 5. El sentido del espacio intermedio figural, emerge en las cada vez más complejas cualidades morfológico-espaciales y funcionales de una parte importante de la arquitectura actual. Arquitectura, geometría y tecnología informática están más entrelazadas que nunca, y de un modo más libre, para así poder indagar en nuevas formas de pensar y crear lugares en que los “espacios intermedios” que investigamos son un testimonio. El espacio arquitectónico se vuelve afectivo e interactivo, un lugar intermedio figural, formalizado por espacialidades intersticiales que parecen aludir a lo líquido, donde la forma es más matriz que configuración, el espacio más espacialidad que compartimiento, la función más versátil y multivalente que específica o autónoma, y la perplejidad, la imaginación y la evocación se entrecruzan y vuelven patentes. 6. La arquitectura de los lugares intermedios valora no solamente el “plano”, la “configuración” y la “transparencia”, sino sobre todo el “espacio” y la “relación” en sus interrelaciones con los usuarios y demás contextos. De la identidad a la relacionalidad, de la representación a la presentación, es una arquitectura que propone “otros espacios” que más que espacios son topografías y espacialidades intersticiales, de tensión, transición, transformación, relación, intercambio e interacción. Son lugares intermedios reales y virtuales, que se sirven tanto de la morfología como de la topología para conquistar nuevas espacialidades, pretendiendo salir de la estricta operación de “forming”/”morphing”/formación/”conformación” para explorar la de “spacing”/espaciamiento. Son lugares que se basan en conceptos como la zona de indiscernibilidad de Deleuze, la imagen- flujo de Buci-Glucksmann, la suspensión-entre de Sloterdijk, o el espacio no-objetivo al que se refiere José Gil, plasmándose en la arquitectura contemporánea como tropos de lo intersticial. 7. Son los lugares intermedios de la arquitectura actual, de espacialidad háptica, más “afectiva”, generativa e interactiva, donde ese ámbito intermedio transforma y es transformado, “afecta”, “con-mueve” (nos hace mover/accionar) y evoca otros lugares, otras posibilidades de espacio habitable u ocupable. Emerge lo intermedio como lugar, algo que anuncia y exhibe, de manera paradigmática y manifiesta, el monumento de Eisenman en Berlín. ABSTRACT 1. Our research focuses on the study of “in-between spaces or environments” at particular times in contemporary architecture, in a transition period from the end of the 1980’s through to today. We aim to analyse how in-between environments are presented in the architectural object or place and their function or their relationship with the nearby surroundings, from the project through to the experience had. 2. In this research, the in-between concept, understood as an interstitial, border and ambivalent (or multi-purpose) environment or space, is assessed from the viewpoint of etymology, science, thought and art, to conclude in current architecture, with specific exploration of the conception process, of the formal, spatial and functional proposal, together with the perception and other experiences in the architectural place. 3. Firstly, we aim to study and explore the “in-between” concept as regards its features, functions and locations within contemporary culture, revealing its most important cultural background, to then apply it reflexively to important works of architecture. The research focuses on the figural (imprecise) mode of in-between (in allusion to Deleuze’s “figural” approach) whose base metaphors are the translucent, semi-darkness and foam, linked to the current cultural paradigm of complexity (C. Jenks). We then go on to assess the relationships or implications of said figural mode in architectural works by Eisenman, Holl, Tschumi, Ito, Fujimoto, Van Berkel and Bos, and Siza, verifying their operational worth and revealing their meaning and importance today and in this discipline. The backdrop of the study is the in-between concept of Eisenman’s work and it also uses concepts from the philosophy of the limit of Trías as its main underpinnings. 4. In each of the architectural works presented, this imprecise mode is translated into a specific in-between environment or space. They are works in which real and virtual, matricial and objectual, architecture and territory, existing and new, collective and individual, social and intimate, interior and exterior and other uses and functions all intertwine or blend together. They are architectures the geometry of which is not so much determined by bi- or tri-dimensional aspects of the drawing or construction. Through the manipulation of these more or less complex, dynamic and interstitial geometries, these works reflect (or insinuate) the premises of the current Zeitgeist: A change in the scheme of objects to relationships towards a more holistic, transdisciplinary, systemic or complex thought (E. Morin), and a new collective conscience about the reality which announces the crisis of perception, the change in paradigm and new values (F. Capra). Another way of feeling and perceiving the world, places and spaces, which little by little is changing the way of thinking and drawing architecture and hence of interacting with it. 5. The meaning of figural in-between space emerges in the increasingly complex, morphological-spatial and functional qualities of a large part of architecture today. Architecture, geometry and computer technology are more than ever intertwined in a freer way to inquire into other ways of thinking and making places, where the “in-between” spaces we research are a testimony. Architectural space becomes affective and interactive, a figural in-between place, formed by interstitial spatiality which seems to allude to something liquid, where shape is more matrix than configuration, space more spatiality than compartment, its function more versatile and multi-purpose than specific or autonomous, and perplexity, imagination and evocation criss-cross each other, becoming obvious. 6. The architecture of in-between places values not only “flat”, “configuration” and “transparency”, but above all “space” and the “relationship” in its interrelations with users and other contexts. From identity to relationality, from representation to presentation, it is an architecture that proposes “other spaces”, which more than spaces are topographies and interstitial spatialities, of tension, transition, transformation, relation, exchange and interaction. They are real and virtual in-between places, that take in both morphology and topology to conquer new spatialities, aiming to depart from the strict “forming”/”morphing” operation in order to explore “spacing”. They are places that derive both from Deleuze’s indiscernibility zone concept, from Buci-Glucksmann´s image-flow concept, from Sloterdijk’s suspension-between, and from the non-objective space referred to by José Gil, and they are embodied in contemporary architecture as tropes of the interstitial. 7. They are the in-between places in architecture today, of haptic spatiality, more “affective”, generative and interactive, where that in-between environment transforms and is transformed, “affects”, “moves” (it makes us move/act) and evokes other places, other possibilities of habitable or occupiable space. The in-between emerges as a place, which paradigmatically and declaredly, Eisenman´s monument in Berlin announces and exhibits. RESUMO 1. A investigação centra-se no estudo dos “âmbitos ou espaços intermédios” em momentos da arquitectura contemporânea, no período de transição entre os finais dos anos 80 e os nossos dias. Pretende-se analisar como se apresenta o âmbito intermédio no objecto ou lugar arquitectónico e sua função ou relação com o meio envolvente, desde o projecto até à sua repercussão na experiencia vivenciada. 2. O conceito de intermédio entendido como âmbito ou espaço intersticial, fronteiriço e ambivalente (ou multivalente), atravessa na presente investigação o campo da etimologia, da ciência, do pensamento e da arte, para deter-se na arquitectura actual, realizando-se uma indagação concreta no processo de concepção, na proposta formal, espacial e funcional, assim como na percepção e demais experiencias ou vivencias no lugar arquitectónico. 3. Em primeiro lugar, explora-se o conceito de “intermédio” nas suas características, funções e concretizações na cultura contemporânea, detectando os seus antecedentes culturais mais importantes, para em seguida aplicá-lo reflexivamente a obras significativas de arquitectura. A investigação centra-se na modalidade figural (imprecisa) do intermédio (alusão ao figural deleuziano) cujas metáforas base são o translúcido, a penumbra e a espuma, relacionadas com o actual paradigma da complexidade (C. Jencks). Em seguida analisam-se as relações ou implicações da referida modalidade figural em obras de arquitectos como Eisenman, Holl, Tschumi, Ito, Fujimoto, Van Berkel e Bos, e Siza, como modo de comprovar o seu valor operativo e revelar o seu sentido e importância na actualidade e na disciplina. O estudo tem como referencia o conceito de in-between da obra de Eisenman, e utiliza conceitos da filosofia do limite de Trias como alguns dos seus principais fundamentos. 4. Em cada uma das obras de arquitectura apresentadas esta modalidade imprecisa traduz-se num âmbito ou espaço intermédia figural especifico. São obras nas quais real e virtual, matricial e objectual, arquitectura e território, existente e novo, colectivo e individual, social e intimo, interior e exterior, e outros usos e funções se entrelaçam ou fundem. São arquitecturas cuja geometria já não está tão determinada por aspectos bi ou tridimensionais do desenho ou da construção. Através do uso destas geometrias mais ou menos complexas, dinâmicas e intersticiais, estas obras reflectem (ou intuem) as premissas do actual zeitgeist: uma mudança de esquemas de objectos a relações para um pensamento mais holístico, transdisciplinar, sistémico ou complexo (E. Morin) e uma nova consciência colectiva sobre a realidade, que anuncia a crise da percepção, a mudança de paradigma e novos valores (F. Capra). Emerge uma outra forma de sentir e perceber o mundo, os lugares e os espaços, que gradualmente vai alterando o modo de pensar e desenhar a arquitectura, e consequentemente de interagir com ela. 5. O sentido do espaço intermédio figural, emerge nas cada vez mais complexas qualidades morfológico-espaciais e funcionais de uma parte importante da arquitectura actual. Cada vez mais, arquitectura, geometria e tecnologia informática, relacionam-se de um modo mais livre para indagar outras formas de pensar e fazer lugares, onde os espaços intermédios que investigamos são um testemunho. O espaço arquitectónico torna-se afectivo e interactivo, um lugar intermédio figural, formalizado por espacialidades intersticiais que parecem aludir ao estado liquido, onde a forma é mais matriz que configuração, o espaço mais espacialidade que compartimento, a função mais versátil e multivalente que especifica ou autónoma, e a perplexidade, a imaginação e a evocação entrecruzam-se e tornam-se patentes. 6. A arquitectura dos lugares intermédios valoriza não só o “plano”, a “configuração” e a “transparência”, mas sobretudo o” espaço” e a ”relação” nas suas inter-relações com os utentes e restante contextos. Da identidade à relacionalidade, da representação à apresentação, é uma arquitectura que propõe “outros espaços”, que além de espaços são topografias e espacialidades intersticiais, de tensão, transição, transformação, relação, intercambio e interacção. São lugares intermédios reais e virtuais que utilizam tanto a morfologia como a topologia para conquistar novas espacialidades, pretendendo ultrapassar a estrita operação de “forming”/“morphing”/formação para explorar a de “spacing”/espaçamento. São lugares que se apoiam tanto no conceito de zona de indescernibilidade de Deleuze, como na de imagem-fluxo de Buci-Glucksmann como no de suspensão–entre de Sloterdijk ou de espaço-não objectivo que refere José Gil, e se plasmam na arquitectura contemporânea como tropos do intersticial. 7. São os lugares intermédios da arquitectura actual, de espacialidade háptica, mais “afectiva”, generativa e interactiva, onde esse âmbito intermédio transforma e é transformado, “afecta”, ”co-move “(nos faz mover/agir) e evoca outros lugares, outras possibilidades de espaço habitável ou ocupável. Emerge o intermédio como lugar que, paradigmática e manifestamente, o monumento de Eisenmann em Berlim, anuncia e exibe.
Resumo:
El siglo XIX fue un siglo dedicado a los grandes edificios públicos. Los teatros, las academias, los museos. Sin embargo la arquitectura durante el siglo XX se dedicará al estudio de la casa. Todos los usos y tipologías se verán fuertemente revisados pero el núcleo de todos los esfuerzos y verdadero inicio de la arquitectura moderna será la vivienda. A partir de ella todos los preceptos modernos se irán aplicando a los distintos programas. Nikolaus Pevsner señala a William Morris como el primer arquitecto moderno porque precisamente entendió que un arte verdaderamente social, en consonancia con su tiempo y la sociedad a la que sirve, ha de ocuparse de aquello que preocupe a la gente. Con la nueva situación de la vivienda en el centro de las motivaciones disciplinares el mueble adopta un nuevo protagonismo. En un momento avanzado de su carrera Marcel Breuer observa entre curioso e irónico cómo el mueble moderno había sido promocionado paradójicamente no por los diseñadores de muebles sino por los arquitectos1. La respuesta la da Le Corbusier en una de sus conferencias de 1931 recogida en Precisiones 2 cuando señala la reformulación del mobiliario como el "nudo gordiano" de cuya resolución pendía la renovación de la planta moderna. El Movimiento Moderno se había visto obligado a atacar este tema para poder avanzar en sus propuestas domésticas. El Movimiento Moderno se propuso solucionar los problemas de la vivienda y de una Europa en reconstrucción pero se exigía además ser capaz de aportar una visión propositiva de la vida moderna. No se trataba únicamente de resolver los problemas ya existentes sino que además había la necesidad autoimpuesta de anticipar la domesticidad del futuro. Para ello sus viviendas al completo, mueble e inmueble, debían de presentarse bajo esa nueva imagen. El manifiesto fundacional de la Deustcher Werkbund extendía el radio de acción del nuevo arquitecto desde la construcción de las ciudades a los cojines del sofá. Este mobiliario tenía la compleja misión de condensar sintéticamente todos esos ideales que la modernidad había traído consigo: abstracción, higiene, fascinación maquínica, confianza positivista en la ciencia o la expresión material optimizada. Objetos de la vida moderna, en palabras de Le Corbusier, susceptibles de suscitar un estado de vida moderno. Pocas sillas en la historia del diseño habrán acarreado tanta polémica y tanta disputa por su autoría como la sillas voladas de tubo de acero en sus diferentes versiones. Para entenderlo situémonos en el año 1927 a las puertas de la exposición "Die Wohnung" ("La vivienda") organizada por los maestros de la Bauhaus y dirigida por Mies van der Rohe en la ladera Weissenhof de Stuttgart. Muchos nombres célebres de la arquitectura mostraron en esa ocasión su personal propuesta para la vivienda moderna y los objetos que la habitan. Entre ellos los muebles con tubo de acero fueron una presencia constante en la exposición pero hubo una pieza que destacó sobre todas las demás por su novedad y audacia. La pieza en cuestión era el modelo de silla volada, esto es, sin apoyos posteriores y cuya rigidez estaba conferida al esfuerzo solidario de la estructura continua de tubo de acero y que terminaría por convertirse en el cruce de caminos de tres figuras de la disciplina arquitectónica: Marcel Breuer, Mies van der Rohe y Mart Stam. Cada uno de ellos desarrolló su propio modelo de silla volada en sus versiones MR por parte de Mies, L&C Arnold de Stam y el posterior modelo BR 33 de Marcel Breuer. Los tres, en algún momento de su vida reclamaron de uno u otro modo su autoría como objetos que les pertenecían intelectualmente. Estas sillas se convirtieron en la expresión máxima de uno de los ansiados anhelos de la modernidad, la propia materialidad del acero, en su versión optimizada, era la que había derivado en una forma completamente nueva de un objeto cotidiano y cuyo tipo estaba ya totalmente asumido. Los nuevos materiales y las nuevas formas de hacer habían irrumpido hasta en los utensilios domésticos, y habían sido capaces de reformularlos. El punto de partida para esta investigación es precisamente esa coincidencia de tres figuras de la arquitectura moderna, los tres de formación artesanal, en un mismo modelo de silla y en una misma fecha. Tres arquitectos que se habían encargado de asegurar que el movimiento moderno no reconocía problemas formales sino solamente de construcción, iban a coincidir en el mismo tiempo y lugar, precisamente en una misma forma, como si tal coincidencia hubiera sido producto de una voluntad de época. Sin embargo el interés de este estudio no radica en una indagación sobre la autoría sino sobre cómo un mismo objeto resulta ser propositivo e interesante en campos muy diversos y la forma en que cada uno lo hace suyo incorporándolo a su propia investigación proyectual. La silla, más allá de ser un objeto de diseño exclusivamente, trasciende su propia escala para situarse inmersa en un proceso de búsqueda y exploración a nivel conceptual, formal, constructivo y estructural en la arquitectura cada uno de ellos. En un momento en que el oficio del arquitecto está siendo intensamente redefinido considero especialmente pertinente esta investigación, que en definitiva versa sobre la forma distintiva en que el pensamiento arquitectónico es capaz de proyectarse sobre cualquier disciplina para reformularla. ABSTRACT The nineteenth century was a century dedicated to the great public buildings; theaters, schools or museums. However the architecture in the twentieth century was devoted to the study of housing. All uses and typologies were heavily revised but the focus of all efforts and true beginning of modern architecture was housing. From these beginnings all modern precepts were applied to the various programs. Nikolaus Pevsner points to William Morris as the first modern architect precisely because he understood that a truly social art in line with its time and the society it serves must deal with social concerns at that time. With the new housing situation at the center of disciplinary concerns furniture took on a new prominence. At an advanced stage of his career Marcel Breuer observed partly with curiosity, partly with irony how modern furniture had been promoted not by furniture designers but by architects. The answer is given by Le Corbusier in one of his lectures of 1931 collected in Precisions when he pointed the reformulation of furniture as the "Gordian knot" for the renewal of modern plan resolution. Modernism had been forced to confront this issue in order to advance their domestic approaches. Modernism not only put forward a solution to the problems of housing and a Europe under reconstruction but is also needed to be able to contribute to an exciting vision of modern life. Not only did solve existing problems but also it had the self-imposed necessity of anticipating future domesticity and to do their houses full, movable and immovable, they should be submitted under this new image. The founding manifesto of the Deutsche Werkbund extended the scope of the new architect from building cities to the couch cushions. This furniture had the complex mission of synthetically condensing all the ideals of modernity had brought with it: abstraction, hygiene, mechanization, positivist confidence in science or material expression. Objects of modern life, in words of Le Corbusier, were likely to give rise a state of modern life. Few chairs in design history have resulted in so much controversy and so much dispute over their invention as the various versions of cantilevered tubular steel chairs. To understand this let us place ourselves in 1927 at the gates of the exhibition "Die Wohnung" ("Housing") organized by the teachers of the Bauhaus and directed by Mies van der Rohe in Stuttgart Weissenhoflung. Many famous names in architecture at that time showed their personal proposals for modern housing and the objects that inhabit them. Amongst these objects, the steel tube furniture was a constant presence at the exhibition but there was a piece so audacious that it stood out from all the others. This piece in question was the cantilever model chair, that is, which had no further rear support and whose rigidity was attributed to the solidity of its continues structure of steel tube. This piece would eventually become the crossroads of three very different personalities: Mart Stam, Marcel Breuer and Mies van der Rohe. Each of them developed their own model of cantilevered chair in different versions; The MR model developed by Mies van der Rohe, the L&C by Arnold Stam and a later model BR 33 by Marcel Breuer, and the three, at some point in their lives demanded the authorship of its invention as objects that belonged to them intellectually. These chairs epitomized one of the coveted objects of modernity, steel material in its optimized version, was what had led to a completely new form of an everyday object whose this type was fully adopted on board in design. New materials and production methods had burst into world of household objects, and had been able to reformulate their design. The bold design then became a dark object of controversy. The starting point for this doctoral thesis is the concurrent invention of the same model of chair by three different figures of modern architecture. These three architects, who were responsible for ensuring that the modern movement considered construction rather than form as the main design consideration, were working in the same place and at the same point in time. It was almost as if these three architects were shaped by the culture of the time (Zeitgeist). However the focus of this study lies not in an investigation of responsibility of ownership but in the investigation fo how the same object can turn out to be purposeful and interesting in many different fields and the way in which each researcher makes it his own by developing his own project research. 1927, the year of their meeting, was a initiatory year in the career of our players. The chair, beyond being only a design object transcended its own scale and became immersed in a process of research and development on a conceptual, formal, structural and constructive level in the architectural approach of each of the architects. At a time when the role of the architect is being redefined intensely I consider this research, which ultimately concerns the distinctive way the architectural thought can be projected onto and reformulate any discipline, to be particularly relevant.
Resumo:
La optimización de parámetros tales como el consumo de potencia, la cantidad de recursos lógicos empleados o la ocupación de memoria ha sido siempre una de las preocupaciones principales a la hora de diseñar sistemas embebidos. Esto es debido a que se trata de sistemas dotados de una cantidad de recursos limitados, y que han sido tradicionalmente empleados para un propósito específico, que permanece invariable a lo largo de toda la vida útil del sistema. Sin embargo, el uso de sistemas embebidos se ha extendido a áreas de aplicación fuera de su ámbito tradicional, caracterizadas por una mayor demanda computacional. Así, por ejemplo, algunos de estos sistemas deben llevar a cabo un intenso procesado de señales multimedia o la transmisión de datos mediante sistemas de comunicaciones de alta capacidad. Por otra parte, las condiciones de operación del sistema pueden variar en tiempo real. Esto sucede, por ejemplo, si su funcionamiento depende de datos medidos por el propio sistema o recibidos a través de la red, de las demandas del usuario en cada momento, o de condiciones internas del propio dispositivo, tales como la duración de la batería. Como consecuencia de la existencia de requisitos de operación dinámicos es necesario ir hacia una gestión dinámica de los recursos del sistema. Si bien el software es inherentemente flexible, no ofrece una potencia computacional tan alta como el hardware. Por lo tanto, el hardware reconfigurable aparece como una solución adecuada para tratar con mayor flexibilidad los requisitos variables dinámicamente en sistemas con alta demanda computacional. La flexibilidad y adaptabilidad del hardware requieren de dispositivos reconfigurables que permitan la modificación de su funcionalidad bajo demanda. En esta tesis se han seleccionado las FPGAs (Field Programmable Gate Arrays) como los dispositivos más apropiados, hoy en día, para implementar sistemas basados en hardware reconfigurable De entre todas las posibilidades existentes para explotar la capacidad de reconfiguración de las FPGAs comerciales, se ha seleccionado la reconfiguración dinámica y parcial. Esta técnica consiste en substituir una parte de la lógica del dispositivo, mientras el resto continúa en funcionamiento. La capacidad de reconfiguración dinámica y parcial de las FPGAs es empleada en esta tesis para tratar con los requisitos de flexibilidad y de capacidad computacional que demandan los dispositivos embebidos. La propuesta principal de esta tesis doctoral es el uso de arquitecturas de procesamiento escalables espacialmente, que son capaces de adaptar su funcionalidad y rendimiento en tiempo real, estableciendo un compromiso entre dichos parámetros y la cantidad de lógica que ocupan en el dispositivo. A esto nos referimos con arquitecturas con huellas escalables. En particular, se propone el uso de arquitecturas altamente paralelas, modulares, regulares y con una alta localidad en sus comunicaciones, para este propósito. El tamaño de dichas arquitecturas puede ser modificado mediante la adición o eliminación de algunos de los módulos que las componen, tanto en una dimensión como en dos. Esta estrategia permite implementar soluciones escalables, sin tener que contar con una versión de las mismas para cada uno de los tamaños posibles de la arquitectura. De esta manera se reduce significativamente el tiempo necesario para modificar su tamaño, así como la cantidad de memoria necesaria para almacenar todos los archivos de configuración. En lugar de proponer arquitecturas para aplicaciones específicas, se ha optado por patrones de procesamiento genéricos, que pueden ser ajustados para solucionar distintos problemas en el estado del arte. A este respecto, se proponen patrones basados en esquemas sistólicos, así como de tipo wavefront. Con el objeto de poder ofrecer una solución integral, se han tratado otros aspectos relacionados con el diseño y el funcionamiento de las arquitecturas, tales como el control del proceso de reconfiguración de la FPGA, la integración de las arquitecturas en el resto del sistema, así como las técnicas necesarias para su implementación. Por lo que respecta a la implementación, se han tratado distintos aspectos de bajo nivel dependientes del dispositivo. Algunas de las propuestas realizadas a este respecto en la presente tesis doctoral son un router que es capaz de garantizar el correcto rutado de los módulos reconfigurables dentro del área destinada para ellos, así como una estrategia para la comunicación entre módulos que no introduce ningún retardo ni necesita emplear recursos configurables del dispositivo. El flujo de diseño propuesto se ha automatizado mediante una herramienta denominada DREAMS. La herramienta se encarga de la modificación de las netlists correspondientes a cada uno de los módulos reconfigurables del sistema, y que han sido generadas previamente mediante herramientas comerciales. Por lo tanto, el flujo propuesto se entiende como una etapa de post-procesamiento, que adapta esas netlists a los requisitos de la reconfiguración dinámica y parcial. Dicha modificación la lleva a cabo la herramienta de una forma completamente automática, por lo que la productividad del proceso de diseño aumenta de forma evidente. Para facilitar dicho proceso, se ha dotado a la herramienta de una interfaz gráfica. El flujo de diseño propuesto, y la herramienta que lo soporta, tienen características específicas para abordar el diseño de las arquitecturas dinámicamente escalables propuestas en esta tesis. Entre ellas está el soporte para el realojamiento de módulos reconfigurables en posiciones del dispositivo distintas a donde el módulo es originalmente implementado, así como la generación de estructuras de comunicación compatibles con la simetría de la arquitectura. El router has sido empleado también en esta tesis para obtener un rutado simétrico entre nets equivalentes. Dicha posibilidad ha sido explotada para aumentar la protección de circuitos con altos requisitos de seguridad, frente a ataques de canal lateral, mediante la implantación de lógica complementaria con rutado idéntico. Para controlar el proceso de reconfiguración de la FPGA, se propone en esta tesis un motor de reconfiguración especialmente adaptado a los requisitos de las arquitecturas dinámicamente escalables. Además de controlar el puerto de reconfiguración, el motor de reconfiguración ha sido dotado de la capacidad de realojar módulos reconfigurables en posiciones arbitrarias del dispositivo, en tiempo real. De esta forma, basta con generar un único bitstream por cada módulo reconfigurable del sistema, independientemente de la posición donde va a ser finalmente reconfigurado. La estrategia seguida para implementar el proceso de realojamiento de módulos es diferente de las propuestas existentes en el estado del arte, pues consiste en la composición de los archivos de configuración en tiempo real. De esta forma se consigue aumentar la velocidad del proceso, mientras que se reduce la longitud de los archivos de configuración parciales a almacenar en el sistema. El motor de reconfiguración soporta módulos reconfigurables con una altura menor que la altura de una región de reloj del dispositivo. Internamente, el motor se encarga de la combinación de los frames que describen el nuevo módulo, con la configuración existente en el dispositivo previamente. El escalado de las arquitecturas de procesamiento propuestas en esta tesis también se puede beneficiar de este mecanismo. Se ha incorporado también un acceso directo a una memoria externa donde se pueden almacenar bitstreams parciales. Para acelerar el proceso de reconfiguración se ha hecho funcionar el ICAP por encima de la máxima frecuencia de reloj aconsejada por el fabricante. Así, en el caso de Virtex-5, aunque la máxima frecuencia del reloj deberían ser 100 MHz, se ha conseguido hacer funcionar el puerto de reconfiguración a frecuencias de operación de hasta 250 MHz, incluyendo el proceso de realojamiento en tiempo real. Se ha previsto la posibilidad de portar el motor de reconfiguración a futuras familias de FPGAs. Por otro lado, el motor de reconfiguración se puede emplear para inyectar fallos en el propio dispositivo hardware, y así ser capaces de evaluar la tolerancia ante los mismos que ofrecen las arquitecturas reconfigurables. Los fallos son emulados mediante la generación de archivos de configuración a los que intencionadamente se les ha introducido un error, de forma que se modifica su funcionalidad. Con el objetivo de comprobar la validez y los beneficios de las arquitecturas propuestas en esta tesis, se han seguido dos líneas principales de aplicación. En primer lugar, se propone su uso como parte de una plataforma adaptativa basada en hardware evolutivo, con capacidad de escalabilidad, adaptabilidad y recuperación ante fallos. En segundo lugar, se ha desarrollado un deblocking filter escalable, adaptado a la codificación de vídeo escalable, como ejemplo de aplicación de las arquitecturas de tipo wavefront propuestas. El hardware evolutivo consiste en el uso de algoritmos evolutivos para diseñar hardware de forma autónoma, explotando la flexibilidad que ofrecen los dispositivos reconfigurables. En este caso, los elementos de procesamiento que componen la arquitectura son seleccionados de una biblioteca de elementos presintetizados, de acuerdo con las decisiones tomadas por el algoritmo evolutivo, en lugar de definir la configuración de las mismas en tiempo de diseño. De esta manera, la configuración del core puede cambiar cuando lo hacen las condiciones del entorno, en tiempo real, por lo que se consigue un control autónomo del proceso de reconfiguración dinámico. Así, el sistema es capaz de optimizar, de forma autónoma, su propia configuración. El hardware evolutivo tiene una capacidad inherente de auto-reparación. Se ha probado que las arquitecturas evolutivas propuestas en esta tesis son tolerantes ante fallos, tanto transitorios, como permanentes y acumulativos. La plataforma evolutiva se ha empleado para implementar filtros de eliminación de ruido. La escalabilidad también ha sido aprovechada en esta aplicación. Las arquitecturas evolutivas escalables permiten la adaptación autónoma de los cores de procesamiento ante fluctuaciones en la cantidad de recursos disponibles en el sistema. Por lo tanto, constituyen un ejemplo de escalabilidad dinámica para conseguir un determinado nivel de calidad, que puede variar en tiempo real. Se han propuesto dos variantes de sistemas escalables evolutivos. El primero consiste en un único core de procesamiento evolutivo, mientras que el segundo está formado por un número variable de arrays de procesamiento. La codificación de vídeo escalable, a diferencia de los codecs no escalables, permite la decodificación de secuencias de vídeo con diferentes niveles de calidad, de resolución temporal o de resolución espacial, descartando la información no deseada. Existen distintos algoritmos que soportan esta característica. En particular, se va a emplear el estándar Scalable Video Coding (SVC), que ha sido propuesto como una extensión de H.264/AVC, ya que este último es ampliamente utilizado tanto en la industria, como a nivel de investigación. Para poder explotar toda la flexibilidad que ofrece el estándar, hay que permitir la adaptación de las características del decodificador en tiempo real. El uso de las arquitecturas dinámicamente escalables es propuesto en esta tesis con este objetivo. El deblocking filter es un algoritmo que tiene como objetivo la mejora de la percepción visual de la imagen reconstruida, mediante el suavizado de los "artefactos" de bloque generados en el lazo del codificador. Se trata de una de las tareas más intensivas en procesamiento de datos de H.264/AVC y de SVC, y además, su carga computacional es altamente dependiente del nivel de escalabilidad seleccionado en el decodificador. Por lo tanto, el deblocking filter ha sido seleccionado como prueba de concepto de la aplicación de las arquitecturas dinámicamente escalables para la compresión de video. La arquitectura propuesta permite añadir o eliminar unidades de computación, siguiendo un esquema de tipo wavefront. La arquitectura ha sido propuesta conjuntamente con un esquema de procesamiento en paralelo del deblocking filter a nivel de macrobloque, de tal forma que cuando se varía del tamaño de la arquitectura, el orden de filtrado de los macrobloques varia de la misma manera. El patrón propuesto se basa en la división del procesamiento de cada macrobloque en dos etapas independientes, que se corresponden con el filtrado horizontal y vertical de los bloques dentro del macrobloque. Las principales contribuciones originales de esta tesis son las siguientes: - El uso de arquitecturas altamente regulares, modulares, paralelas y con una intensa localidad en sus comunicaciones, para implementar cores de procesamiento dinámicamente reconfigurables. - El uso de arquitecturas bidimensionales, en forma de malla, para construir arquitecturas dinámicamente escalables, con una huella escalable. De esta forma, las arquitecturas permiten establecer un compromiso entre el área que ocupan en el dispositivo, y las prestaciones que ofrecen en cada momento. Se proponen plantillas de procesamiento genéricas, de tipo sistólico o wavefront, que pueden ser adaptadas a distintos problemas de procesamiento. - Un flujo de diseño y una herramienta que lo soporta, para el diseño de sistemas reconfigurables dinámicamente, centradas en el diseño de las arquitecturas altamente paralelas, modulares y regulares propuestas en esta tesis. - Un esquema de comunicaciones entre módulos reconfigurables que no introduce ningún retardo ni requiere el uso de recursos lógicos propios. - Un router flexible, capaz de resolver los conflictos de rutado asociados con el diseño de sistemas reconfigurables dinámicamente. - Un algoritmo de optimización para sistemas formados por múltiples cores escalables que optimice, mediante un algoritmo genético, los parámetros de dicho sistema. Se basa en un modelo conocido como el problema de la mochila. - Un motor de reconfiguración adaptado a los requisitos de las arquitecturas altamente regulares y modulares. Combina una alta velocidad de reconfiguración, con la capacidad de realojar módulos en tiempo real, incluyendo el soporte para la reconfiguración de regiones que ocupan menos que una región de reloj, así como la réplica de un módulo reconfigurable en múltiples posiciones del dispositivo. - Un mecanismo de inyección de fallos que, empleando el motor de reconfiguración del sistema, permite evaluar los efectos de fallos permanentes y transitorios en arquitecturas reconfigurables. - La demostración de las posibilidades de las arquitecturas propuestas en esta tesis para la implementación de sistemas de hardware evolutivos, con una alta capacidad de procesamiento de datos. - La implementación de sistemas de hardware evolutivo escalables, que son capaces de tratar con la fluctuación de la cantidad de recursos disponibles en el sistema, de una forma autónoma. - Una estrategia de procesamiento en paralelo para el deblocking filter compatible con los estándares H.264/AVC y SVC que reduce el número de ciclos de macrobloque necesarios para procesar un frame de video. - Una arquitectura dinámicamente escalable que permite la implementación de un nuevo deblocking filter, totalmente compatible con los estándares H.264/AVC y SVC, que explota el paralelismo a nivel de macrobloque. El presente documento se organiza en siete capítulos. En el primero se ofrece una introducción al marco tecnológico de esta tesis, especialmente centrado en la reconfiguración dinámica y parcial de FPGAs. También se motiva la necesidad de las arquitecturas dinámicamente escalables propuestas en esta tesis. En el capítulo 2 se describen las arquitecturas dinámicamente escalables. Dicha descripción incluye la mayor parte de las aportaciones a nivel arquitectural realizadas en esta tesis. Por su parte, el flujo de diseño adaptado a dichas arquitecturas se propone en el capítulo 3. El motor de reconfiguración se propone en el 4, mientras que el uso de dichas arquitecturas para implementar sistemas de hardware evolutivo se aborda en el 5. El deblocking filter escalable se describe en el 6, mientras que las conclusiones finales de esta tesis, así como la descripción del trabajo futuro, son abordadas en el capítulo 7. ABSTRACT The optimization of system parameters, such as power dissipation, the amount of hardware resources and the memory footprint, has been always a main concern when dealing with the design of resource-constrained embedded systems. This situation is even more demanding nowadays. Embedded systems cannot anymore be considered only as specific-purpose computers, designed for a particular functionality that remains unchanged during their lifetime. Differently, embedded systems are now required to deal with more demanding and complex functions, such as multimedia data processing and high-throughput connectivity. In addition, system operation may depend on external data, the user requirements or internal variables of the system, such as the battery life-time. All these conditions may vary at run-time, leading to adaptive scenarios. As a consequence of both the growing computational complexity and the existence of dynamic requirements, dynamic resource management techniques for embedded systems are needed. Software is inherently flexible, but it cannot meet the computing power offered by hardware solutions. Therefore, reconfigurable hardware emerges as a suitable technology to deal with the run-time variable requirements of complex embedded systems. Adaptive hardware requires the use of reconfigurable devices, where its functionality can be modified on demand. In this thesis, Field Programmable Gate Arrays (FPGAs) have been selected as the most appropriate commercial technology existing nowadays to implement adaptive hardware systems. There are different ways of exploiting reconfigurability in reconfigurable devices. Among them is dynamic and partial reconfiguration. This is a technique which consists in substituting part of the FPGA logic on demand, while the rest of the device continues working. The strategy followed in this thesis is to exploit the dynamic and partial reconfiguration of commercial FPGAs to deal with the flexibility and complexity demands of state-of-the-art embedded systems. The proposal of this thesis to deal with run-time variable system conditions is the use of spatially scalable processing hardware IP cores, which are able to adapt their functionality or performance at run-time, trading them off with the amount of logic resources they occupy in the device. This is referred to as a scalable footprint in the context of this thesis. The distinguishing characteristic of the proposed cores is that they rely on highly parallel, modular and regular architectures, arranged in one or two dimensions. These architectures can be scaled by means of the addition or removal of the composing blocks. This strategy avoids implementing a full version of the core for each possible size, with the corresponding benefits in terms of scaling and adaptation time, as well as bitstream storage memory requirements. Instead of providing specific-purpose architectures, generic architectural templates, which can be tuned to solve different problems, are proposed in this thesis. Architectures following both systolic and wavefront templates have been selected. Together with the proposed scalable architectural templates, other issues needed to ensure the proper design and operation of the scalable cores, such as the device reconfiguration control, the run-time management of the architecture and the implementation techniques have been also addressed in this thesis. With regard to the implementation of dynamically reconfigurable architectures, device dependent low-level details are addressed. Some of the aspects covered in this thesis are the area constrained routing for reconfigurable modules, or an inter-module communication strategy which does not introduce either extra delay or logic overhead. The system implementation, from the hardware description to the device configuration bitstream, has been fully automated by modifying the netlists corresponding to each of the system modules, which are previously generated using the vendor tools. This modification is therefore envisaged as a post-processing step. Based on these implementation proposals, a design tool called DREAMS (Dynamically Reconfigurable Embedded and Modular Systems) has been created, including a graphic user interface. The tool has specific features to cope with modular and regular architectures, including the support for module relocation and the inter-module communications scheme based on the symmetry of the architecture. The core of the tool is a custom router, which has been also exploited in this thesis to obtain symmetric routed nets, with the aim of enhancing the protection of critical reconfigurable circuits against side channel attacks. This is achieved by duplicating the logic with an exactly equal routing. In order to control the reconfiguration process of the FPGA, a Reconfiguration Engine suited to the specific requirements set by the proposed architectures was also proposed. Therefore, in addition to controlling the reconfiguration port, the Reconfiguration Engine has been enhanced with the online relocation ability, which allows employing a unique configuration bitstream for all the positions where the module may be placed in the device. Differently to the existing relocating solutions, which are based on bitstream parsers, the proposed approach is based on the online composition of bitstreams. This strategy allows increasing the speed of the process, while the length of partial bitstreams is also reduced. The height of the reconfigurable modules can be lower than the height of a clock region. The Reconfiguration Engine manages the merging process of the new and the existing configuration frames within each clock region. The process of scaling up and down the hardware cores also benefits from this technique. A direct link to an external memory where partial bitstreams can be stored has been also implemented. In order to accelerate the reconfiguration process, the ICAP has been overclocked over the speed reported by the manufacturer. In the case of Virtex-5, even though the maximum frequency of the ICAP is reported to be 100 MHz, valid operations at 250 MHz have been achieved, including the online relocation process. Portability of the reconfiguration solution to today's and probably, future FPGAs, has been also considered. The reconfiguration engine can be also used to inject faults in real hardware devices, and this way being able to evaluate the fault tolerance offered by the reconfigurable architectures. Faults are emulated by introducing partial bitstreams intentionally modified to provide erroneous functionality. To prove the validity and the benefits offered by the proposed architectures, two demonstration application lines have been envisaged. First, scalable architectures have been employed to develop an evolvable hardware platform with adaptability, fault tolerance and scalability properties. Second, they have been used to implement a scalable deblocking filter suited to scalable video coding. Evolvable Hardware is the use of evolutionary algorithms to design hardware in an autonomous way, exploiting the flexibility offered by reconfigurable devices. In this case, processing elements composing the architecture are selected from a presynthesized library of processing elements, according to the decisions taken by the algorithm, instead of being decided at design time. This way, the configuration of the array may change as run-time environmental conditions do, achieving autonomous control of the dynamic reconfiguration process. Thus, the self-optimization property is added to the native self-configurability of the dynamically scalable architectures. In addition, evolvable hardware adaptability inherently offers self-healing features. The proposal has proved to be self-tolerant, since it is able to self-recover from both transient and cumulative permanent faults. The proposed evolvable architecture has been used to implement noise removal image filters. Scalability has been also exploited in this application. Scalable evolvable hardware architectures allow the autonomous adaptation of the processing cores to a fluctuating amount of resources available in the system. Thus, it constitutes an example of the dynamic quality scalability tackled in this thesis. Two variants have been proposed. The first one consists in a single dynamically scalable evolvable core, and the second one contains a variable number of processing cores. Scalable video is a flexible approach for video compression, which offers scalability at different levels. Differently to non-scalable codecs, a scalable video bitstream can be decoded with different levels of quality, spatial or temporal resolutions, by discarding the undesired information. The interest in this technology has been fostered by the development of the Scalable Video Coding (SVC) standard, as an extension of H.264/AVC. In order to exploit all the flexibility offered by the standard, it is necessary to adapt the characteristics of the decoder to the requirements of each client during run-time. The use of dynamically scalable architectures is proposed in this thesis with this aim. The deblocking filter algorithm is the responsible of improving the visual perception of a reconstructed image, by smoothing blocking artifacts generated in the encoding loop. This is one of the most computationally intensive tasks of the standard, and furthermore, it is highly dependent on the selected scalability level in the decoder. Therefore, the deblocking filter has been selected as a proof of concept of the implementation of dynamically scalable architectures for video compression. The proposed architecture allows the run-time addition or removal of computational units working in parallel to change its level of parallelism, following a wavefront computational pattern. Scalable architecture is offered together with a scalable parallelization strategy at the macroblock level, such that when the size of the architecture changes, the macroblock filtering order is modified accordingly. The proposed pattern is based on the division of the macroblock processing into two independent stages, corresponding to the horizontal and vertical filtering of the blocks within the macroblock. The main contributions of this thesis are: - The use of highly parallel, modular, regular and local architectures to implement dynamically reconfigurable processing IP cores, for data intensive applications with flexibility requirements. - The use of two-dimensional mesh-type arrays as architectural templates to build dynamically reconfigurable IP cores, with a scalable footprint. The proposal consists in generic architectural templates, which can be tuned to solve different computational problems. •A design flow and a tool targeting the design of DPR systems, focused on highly parallel, modular and local architectures. - An inter-module communication strategy, which does not introduce delay or area overhead, named Virtual Borders. - A custom and flexible router to solve the routing conflicts as well as the inter-module communication problems, appearing during the design of DPR systems. - An algorithm addressing the optimization of systems composed of multiple scalable cores, which size can be decided individually, to optimize the system parameters. It is based on a model known as the multi-dimensional multi-choice Knapsack problem. - A reconfiguration engine tailored to the requirements of highly regular and modular architectures. It combines a high reconfiguration throughput with run-time module relocation capabilities, including the support for sub-clock reconfigurable regions and the replication in multiple positions. - A fault injection mechanism which takes advantage of the system reconfiguration engine, as well as the modularity of the proposed reconfigurable architectures, to evaluate the effects of transient and permanent faults in these architectures. - The demonstration of the possibilities of the architectures proposed in this thesis to implement evolvable hardware systems, while keeping a high processing throughput. - The implementation of scalable evolvable hardware systems, which are able to adapt to the fluctuation of the amount of resources available in the system, in an autonomous way. - A parallelization strategy for the H.264/AVC and SVC deblocking filter, which reduces the number of macroblock cycles needed to process the whole frame. - A dynamically scalable architecture that permits the implementation of a novel deblocking filter module, fully compliant with the H.264/AVC and SVC standards, which exploits the macroblock level parallelism of the algorithm. This document is organized in seven chapters. In the first one, an introduction to the technology framework of this thesis, specially focused on dynamic and partial reconfiguration, is provided. The need for the dynamically scalable processing architectures proposed in this work is also motivated in this chapter. In chapter 2, dynamically scalable architectures are described. Description includes most of the architectural contributions of this work. The design flow tailored to the scalable architectures, together with the DREAMs tool provided to implement them, are described in chapter 3. The reconfiguration engine is described in chapter 4. The use of the proposed scalable archtieectures to implement evolvable hardware systems is described in chapter 5, while the scalable deblocking filter is described in chapter 6. Final conclusions of this thesis, and the description of future work, are addressed in chapter 7.
Resumo:
La cuestión principal abordada en esta tesis doctoral es la mejora de los sistemas biométricos de reconocimiento de personas a partir de la voz, proponiendo el uso de una nueva parametrización, que hemos denominado parametrización biométrica extendida dependiente de género (GDEBP en sus siglas en inglés). No se propone una ruptura completa respecto a los parámetros clásicos sino una nueva forma de utilizarlos y complementarlos. En concreto, proponemos el uso de parámetros diferentes dependiendo del género del locutor, ya que como es bien sabido, la voz masculina y femenina presentan características diferentes que deberán modelarse, por tanto, de diferente manera. Además complementamos los parámetros clásicos utilizados (MFFC extraídos de la señal de voz), con un nuevo conjunto de parámetros extraídos a partir de la deconstrucción de la señal de voz en sus componentes de fuente glótica (más relacionada con el proceso y órganos de fonación y por tanto con características físicas del locutor) y de tracto vocal (más relacionada con la articulación acústica y por tanto con el mensaje emitido). Para verificar la validez de esta propuesta se plantean diversos escenarios, utilizando diferentes bases de datos, para validar que la GDEBP permite generar una descripción más precisa de los locutores que los parámetros MFCC clásicos independientes del género. En concreto se plantean diferentes escenarios de identificación sobre texto restringido y texto independiente utilizando las bases de datos de HESPERIA y ALBAYZIN. El trabajo también se completa con la participación en dos competiciones internacionales de reconocimiento de locutor, NIST SRE (2010 y 2012) y MOBIO 2013. En el primer caso debido a la naturaleza de las bases de datos utilizadas se obtuvieron resultados cercanos al estado del arte, mientras que en el segundo de los casos el sistema presentado obtuvo la mejor tasa de reconocimiento para locutores femeninos. A pesar de que el objetivo principal de esta tesis no es el estudio de sistemas de clasificación, sí ha sido necesario analizar el rendimiento de diferentes sistemas de clasificación, para ver el rendimiento de la parametrización propuesta. En concreto, se ha abordado el uso de sistemas de reconocimiento basados en el paradigma GMM-UBM, supervectores e i-vectors. Los resultados que se presentan confirman que la utilización de características que permitan describir los locutores de manera más precisa es en cierto modo más importante que la elección del sistema de clasificación utilizado por el sistema. En este sentido la parametrización propuesta supone un paso adelante en la mejora de los sistemas de reconocimiento biométrico de personas por la voz, ya que incluso con sistemas de clasificación relativamente simples se consiguen tasas de reconocimiento realmente competitivas. ABSTRACT The main question addressed in this thesis is the improvement of automatic speaker recognition systems, by the introduction of a new front-end module that we have called Gender Dependent Extended Biometric Parameterisation (GDEBP). This front-end do not constitute a complete break with respect to classical parameterisation techniques used in speaker recognition but a new way to obtain these parameters while introducing some complementary ones. Specifically, we propose a gender-dependent parameterisation, since as it is well known male and female voices have different characteristic, and therefore the use of different parameters to model these distinguishing characteristics should provide a better characterisation of speakers. Additionally, we propose the introduction of a new set of biometric parameters extracted from the components which result from the deconstruction of the voice into its glottal source estimate (close related to the phonation process and the involved organs, and therefore the physical characteristics of the speaker) and vocal tract estimate (close related to acoustic articulation and therefore to the spoken message). These biometric parameters constitute a complement to the classical MFCC extracted from the power spectral density of speech as a whole. In order to check the validity of this proposal we establish different practical scenarios, using different databases, so we can conclude that a GDEBP generates a more accurate description of speakers than classical approaches based on gender-independent MFCC. Specifically, we propose scenarios based on text-constrain and text-independent test using HESPERIA and ALBAYZIN databases. This work is also completed with the participation in two international speaker recognition evaluations: NIST SRE (2010 and 2012) and MOBIO 2013, with diverse results. In the first case, due to the nature of the NIST databases, we obtain results closed to state-of-the-art although confirming our hypothesis, whereas in the MOBIO SRE we obtain the best simple system performance for female speakers. Although the study of classification systems is beyond the scope of this thesis, we found it necessary to analise the performance of different classification systems, in order to verify the effect of them on the propose parameterisation. In particular, we have addressed the use of speaker recognition systems based on the GMM-UBM paradigm, supervectors and i-vectors. The presented results confirm that the selection of a set of parameters that allows for a more accurate description of the speakers is as important as the selection of the classification method used by the biometric system. In this sense, the proposed parameterisation constitutes a step forward in improving speaker recognition systems, since even when using relatively simple classification systems, really competitive recognition rates are achieved.
Resumo:
El autor ha trabajado como parte del equipo de investigación en mediciones de viento en el Centro Nacional de Energías Renovables (CENER), España, en cooperación con la Universidad Politécnica de Madrid y la Universidad Técnica de Dinamarca. El presente reporte recapitula el trabajo de investigación realizado durante los últimos 4.5 años en el estudio de las fuentes de error de los sistemas de medición remota de viento, basados en la tecnología lidar, enfocado al error causado por los efectos del terreno complejo. Este trabajo corresponde a una tarea del paquete de trabajo dedicado al estudio de sistemas remotos de medición de viento, perteneciente al proyecto de intestigación europeo del 7mo programa marco WAUDIT. Adicionalmente, los datos de viento reales han sido obtenidos durante las campañas de medición en terreno llano y terreno complejo, pertenecientes al también proyecto de intestigación europeo del 7mo programa marco SAFEWIND. El principal objetivo de este trabajo de investigación es determinar los efectos del terreno complejo en el error de medición de la velocidad del viento obtenida con los sistemas de medición remota lidar. Con este conocimiento, es posible proponer una metodología de corrección del error de las mediciones del lidar. Esta metodología está basada en la estimación de las variaciones del campo de viento no uniforme dentro del volumen de medición del lidar. Las variaciones promedio del campo de viento son predichas a partir de los resultados de las simulaciones computacionales de viento RANS, realizadas para el parque experimental de Alaiz. La metodología de corrección es verificada con los resultados de las simulaciones RANS y validadas con las mediciones reales adquiridas en la campaña de medición en terreno complejo. Al inicio de este reporte, el marco teórico describiendo el principio de medición de la tecnología lidar utilizada, es presentado con el fin de familiarizar al lector con los principales conceptos a utilizar a lo largo de este trabajo. Posteriormente, el estado del arte es presentado en donde se describe los avances realizados en el desarrollo de la la tecnología lidar aplicados al sector de la energía eólica. En la parte experimental de este trabajo de investigación se ha estudiado los datos adquiridos durante las dos campañas de medición realizadas. Estas campañas has sido realizadas en terreno llano y complejo, con el fin de complementar los conocimiento adquiridos en casa una de ellas y poder comparar los efectos del terreno en las mediciones de viento realizadas con sistemas remotos lidar. La primer campaña experimental se desarrollo en terreno llano, en el parque de ensayos de aerogeneradores H0vs0re, propiedad de DTU Wind Energy (anteriormente Ris0). La segunda campaña experimental se llevó a cabo en el parque de ensayos de aerogeneradores Alaiz, propiedad de CENER. Exactamente los mismos dos equipos lidar fueron utilizados en estas campañas, haciendo de estos experimentos altamente relevantes en el contexto de evaluación del recurso eólico. Un equipo lidar está basado en tecnología de onda continua, mientras que el otro está basado en tecnología de onda pulsada. La velocidad del viento fue medida, además de con los equipos lidar, con anemómetros de cazoletas, veletas y anemómetros verticales, instalados en mástiles meteorológicos. Los sensores del mástil meteorológico son considerados como las mediciones de referencia en el presente estudio. En primera instancia, se han analizado los promedios diez minútales de las medidas de viento. El objetivo es identificar las principales fuentes de error en las mediciones de los equipos lidar causadas por diferentes condiciones atmosféricas y por el flujo no uniforme de viento causado por el terreno complejo. El error del lidar ha sido estudiado como función de varias propiedades estadísticas del viento, como lo son el ángulo vertical de inclinación, la intensidad de turbulencia, la velocidad vertical, la estabilidad atmosférica y las características del terreno. El propósito es usar este conocimiento con el fin de definir criterios de filtrado de datos. Seguidamente, se propone una metodología para corregir el error del lidar causado por el campo de viento no uniforme, producido por la presencia de terreno complejo. Esta metodología está basada en el análisis matemático inicial sobre el proceso de cálculo de la velocidad de viento por los equipos lidar de onda continua. La metodología de corrección propuesta hace uso de las variaciones de viento calculadas a partir de las simulaciones RANS realizadas para el parque experimental de Alaiz. Una ventaja importante que presenta esta metodología es que las propiedades el campo de viento real, presentes en las mediciones instantáneas del lidar de onda continua, puede dar paso a análisis adicionales como parte del trabajo a futuro. Dentro del marco del proyecto, el trabajo diario se realizó en las instalaciones de CENER, con supervisión cercana de la UPM, incluyendo una estancia de 1.5 meses en la universidad. Durante esta estancia, se definió el análisis matemático de las mediciones de viento realizadas por el equipo lidar de onda continua. Adicionalmente, los efectos del campo de viento no uniforme sobre el error de medición del lidar fueron analíticamente definidos, después de asumir algunas simplificaciones. Adicionalmente, durante la etapa inicial de este proyecto se desarrollo una importante trabajo de cooperación con DTU Wind Energy. Gracias a esto, el autor realizó una estancia de 1.5 meses en Dinamarca. Durante esta estancia, el autor realizó una visita a la campaña de medición en terreno llano con el fin de aprender los aspectos básicos del diseño de campañas de medidas experimentales, el estudio del terreno y los alrededores y familiarizarse con la instrumentación del mástil meteorológico, el sistema de adquisición y almacenamiento de datos, así como de el estudio y reporte del análisis de mediciones. ABSTRACT The present report summarizes the research work performed during last 4.5 years of investigation on the sources of lidar bias due to complex terrain. This work corresponds to one task of the remote sensing work package, belonging to the FP7 WAUDIT project. Furthermore, the field data from the wind velocity measurement campaigns of the FP7 SafeWind project have been used in this report. The main objective of this research work is to determine the terrain effects on the lidar bias in the measured wind velocity. With this knowledge, it is possible to propose a lidar bias correction methodology. This methodology is based on an estimation of the wind field variations within the lidar scan volume. The wind field variations are calculated from RANS simulations performed from the Alaiz test site. The methodology is validated against real scale measurements recorded during an eight month measurement campaign at the Alaiz test site. Firstly, the mathematical framework of the lidar sensing principle is introduced and an overview of the state of the art is presented. The experimental part includes the study of two different, but complementary experiments. The first experiment was a measurement campaign performed in flat terrain, at DTU Wind Energy H0vs0re test site, while the second experiment was performed in complex terrain at CENER Alaiz test site. Exactly the same two lidar devices, based on continuous wave and pulsed wave systems, have been used in the two consecutive measurement campaigns, making this a relevant experiment in the context of wind resource assessment. The wind velocity was sensed by the lidars and standard cup anemometry and wind vanes (installed on a met mast). The met mast sensors are considered as the reference wind velocity measurements. The first analysis of the experimental data is dedicated to identify the main sources of lidar bias present in the 10 minute average values. The purpose is to identify the bias magnitude introduced by different atmospheric conditions and by the non-uniform wind flow resultant of the terrain irregularities. The lidar bias as function of several statistical properties of the wind flow like the tilt angle, turbulence intensity, vertical velocity, atmospheric stability and the terrain characteristics have been studied. The aim of this exercise is to use this knowledge in order to define useful lidar bias data filters. Then, a methodology to correct the lidar bias caused by non-uniform wind flow is proposed, based on the initial mathematical analysis of the lidar measurements. The proposed lidar bias correction methodology has been developed focusing on the the continuous wave lidar system. In a last step, the proposed lidar bias correction methodology is validated with the data of the complex terrain measurement campaign. The methodology makes use of the wind field variations obtained from the RANS analysis. The results are presented and discussed. The advantage of this methodology is that the wind field properties at the Alaiz test site can be studied with more detail, based on the instantaneous measurements of the CW lidar. Within the project framework, the daily basis work has been done at CENER, with close guidance and support from the UPM, including an exchange period of 1.5 months. During this exchange period, the mathematical analysis of the lidar sensing of the wind velocity was defined. Furthermore, the effects of non-uniform wind fields on the lidar bias were analytically defined, after making some assumptions for the sake of simplification. Moreover, there has been an important cooperation with DTU Wind Energy, where a secondment period of 1.5 months has been done as well. During the secondment period at DTU Wind Energy, an important introductory learning has taken place. The learned aspects include the design of an experimental measurement campaign in flat terrain, the site assessment study of obstacles and terrain conditions, the data acquisition and processing, as well as the study and reporting of the measurement analysis.
Resumo:
En este VII Congreso de estudiantes volvemos agradecer a todos los profesores y alumnos su participación y colaboración en todo momento para que en este Libro de Actas que tienes entre tus manos se hayan recopilado los trabajos de más de 100 estudiantes. Todos los trabajos han sido revisados por los profesores del Comité Científico del Congreso y esperamos que las correcciones hayan sido de utilidad a los autores. Ya sólo queda “la puesta en escena” con la exposición y los nervios de hablar en público. Se dice que “no hay temas aburridos, sino oradores poco entusiastas”. Sabemos que nuestros estudiantes, si se han lanzado a presentar su trabajo en este Congreso, es porque entusiasmo no les falta, y los organizadores del Congreso vamos a hacer todo lo posible para que no decaiga. No obstante, como en cualquier otro evento de este tipo, tenemos un tiempo limitado y esperamos que los ponentes controlen su entusiasmo y sepan respetarlo. Nuestro agradecimiento a la Fundación Premio Arce, a la Comunidad de Madrid a través del Proyecto MEDGAN (S2013/ABI-2913), a NANTA S.A., Dupont Industrial Biosciences, Editorial Agrícola Española, y a las Cátedras Fertiberia e Ingenio-UPM, como patrocinadores de este evento.
Resumo:
Las redes Bayesianas constituyen un modelo ampliamente utilizado para la representación de relaciones de dependencia condicional en datos multivariantes. Su aprendizaje a partir de un conjunto de datos o expertos ha sido estudiado profundamente desde su concepción. Sin embargo, en determinados escenarios se demanda la obtención de un modelo común asociado a particiones de datos o conjuntos de expertos. En este caso, se trata el problema de fusión o agregación de modelos. Los trabajos y resultados en agregación de redes Bayesianas son de naturaleza variada, aunque escasos en comparación con aquellos de aprendizaje. En este documento, se proponen dos métodos para la agregación de redes Gaussianas, definidas como aquellas redes Bayesianas que modelan una distribución Gaussiana multivariante. Los métodos presentados son efectivos, precisos y producen redes con menor cantidad de parámetros en comparación con los modelos obtenidos individualmente. Además, constituyen un enfoque novedoso al incorporar nociones exploradas tradicionalmente por separado en el estado del arte. Futuras aplicaciones en entornos escalables hacen dichos métodos especialmente atractivos, dada su simplicidad y la ganancia en compacidad de la representación obtenida.---ABSTRACT---Bayesian networks are a widely used model for the representation of conditional dependence relationships among variables in multivariate data. The task of learning them from a data set or experts has been deeply studied since their conception. However, situations emerge where there is a need of obtaining a consensuated model from several data partitions or a set of experts. This situation is referred to as model fusion or aggregation. Results about Bayesian network aggregation, although rich in variety, have been scarce when compared to the learning task. In this context, two methods are proposed for the aggregation of Gaussian Bayesian networks, that is, Bayesian networks whose underlying modelled distribution is a multivariate Gaussian. Both methods are effective, precise and produce networks with fewer parameters in comparison with the models obtained by individual learning. They constitute a novel approach given that they incorporate notions traditionally explored separately in the state of the art. Future applications in scalable computer environments make such models specially attractive, given their simplicity and the gaining in sparsity of the produced model.
Luz industrial e imagen tecnificada: de Moholy Nagy al C.A.V.S. (Center for Advanced Visual Studies)
Resumo:
El desarrollo de la tecnología de la luz implicará la transformación de la vida social, cultural y económica. Tanto las consideraciones espaciales del Movimiento Moderno, como los efectos producidos por la segunda Guerra Mundial, tendrán efectos visibles en las nuevas configuraciones espaciales y en la relación simbiótica y recíproca que se dará entre ideología y tecnología. La transformación en la comprensión de la articulación espacial, asociada al desarrollo tecnológico, afectará al modo en que este espacio es experimentado y percibido. El espacio expositivo y el espacio escénico se convertirán en laboratorio práctico donde desarrollar y hacer comprensible todo el potencial ilusorio de la luz, la proyección y la imagen, como parámetros modificadores y dinamizadores del espacio arquitectónico. Esta experimentación espacial estará precedida por la investigación y creación conceptual en el mundo plástico, donde los nuevos medios mecánicos serán responsables de la construcción de una nueva mirada moderna mediatizada por los elementos técnicos. La experimentación óptica, a través de la fotografía, el cine, o el movimiento de la luz y su percepción, vinculada a nuevos modos de representación y comunicación, se convertirá en elemento fundamental en la configuración espacial. Este ámbito de experimentación se hará patente en la Escuela de la Bauhaus, de la mano de Gropius, Schlemmer o Moholy Nagy entre otros; tanto en reflexiones teóricas como en el desarrollo de proyectos expositivos, arquitectónicos o teatrales, que evolucionarán en base a la tecnología y la modificación de la relación con el espectador. El espacio expositivo y el espacio escénico se tomarán como oportunidad de investigación espacial y de análisis de los modos de percepción, convirtiéndose en lugares de experimentación básicos para el aprendizaje. El teatro se postula como punto de encuentro entre el arte y la técnica, cobrando especial importancia la intersección con otras disciplinas en la definición espacial. Las múltiples innovaciones técnicas ligadas a los nuevos fundamentos teatrales en la modificación de la relación con la escena, que se producen a principios del siglo XX, tendrán como consecuencia la transformación del espacio en un espacio dinámico, tanto física como perceptivamente, que dará lugar a nuevas concepciones espaciales, muchas de ellas utópicas. La luz, la proyección y la creación de ilusión en base a estímulos visuales y sonoros, aparecen como elementos proyectuales efímeros e inmateriales, que tendrán una gran incidencia en el espacio y su modo de ser experimentado. La implicación de la tecnología en el arte conllevará modificaciones en la visualización, así como en la configuración espacial de los espacios destinados a esta. Destacaremos como propuesta el Teatro Total de Walter Gropius, en cuyo desarrollo se recogen de algún modo las experiencias espaciales y las investigaciones desarrolladas sobre la estructura formal de la percepción realizadas por Moholy Nagy, además de los conceptos acerca del espacio escénico desarrollados en el taller de Teatro de la Bauhaus por Oskar Schlemmer. En el Teatro Total, Gropius incorporará su propia visión de cuestiones que pertenecen a la tradición de la arquitectura teatral y las innovaciones conceptuales que estaban teniendo lugar desde finales del s.XIX, tales como la participación activa del público o la superación entre escena y auditorio, estableciendo en el proyecto una nueva relación perceptual entre sala, espectáculo y espectador; aumentando la sensación de inmersión, a través del uso de la física, la óptica, y la acústica, creando una energía concéntrica capaz de extenderse en todas direcciones. El Teatro Total será uno de los primeros ejemplos en los que desde el punto de partida del proyecto, se conjuga la imagen como elemento comunicativo con la configuración espacial. Las nuevas configuraciones escénicas tendrán como premisa de desarrollo la capacidad de transformación tanto perceptiva, como física. En la segunda mitad del s.XX, la creación de centros de investigación como el CAVS (The Center for Advanced Visual Studies,1967), o el EAT (Experiments in Art and Technology, 1966), favorecerán la colaboración interdisciplinar entre arte y ciencia, implicando a empresas de carácter tecnológico, como Siemens, HP, IBM o Philips, facilitando soporte técnico y económico para el desarrollo de nuevos sistemas. Esta colaboración interdisciplinar dará lugar a una serie de intervenciones espaciales que tendrán su mayor visibilidad en algunas Exposiciones Universales. El resultado será, en la mayoría de los casos, la creación de espacios de carácter inmersivo, donde se establecerá una relación simbiótica entre espacio, imagen, sonido, y espectador. La colocación del espectador en el centro de la escena y la disposición dinámica de imagen y sonido, crearán una particular narrativa espacial no lineal, concebida para la experiencia. Desde las primeras proyecciones de cine a la pantalla múltiple de los Eames, las técnicas espaciales de difusión del sonido en Stockhausen, o los experimentos con el movimiento físico interactivo, la imagen, la luz en movimiento y el sonido, quedan inevitablemente convertidos en material arquitectónico. ABSTRACT. Light technology development would lead to a social, cultural and economic transformation. Both spatial consideration of “Modern Movement” and Second World War effects on technology, would have a visible aftereffect on spatial configuration and on the symbiotic and mutual relationship between ideology & technology. Comprehension adjustment on the articulation of space together with technology development, would impact on how space is perceived and felt. Exhibition space and scenic space would turn into a laboratory where developing and making comprehensive all illusory potential of light, projection and image. These new parameters would modify and revitalize the architectonic space. as modifying and revitalizing parameters of architectonic space. Spatial experimentation would be preceded by conceptual creation and investigation on the sculptural field, where new mechanic media would be responsible for a fresh and modern look influenced by technical elements. Optical experimentation, through photography, cinema or light movement and its perception, would turn into essential components for spatial arrangement linked to new ways of performance and communication. This experimentation sphere would be clear at The Bauhaus School, by the hand of Gropius, Schlemmer or Moholy Nag among others; in theoretical, theatrical or architectural performance’s projects, that would evolve based on technology and also based on the transformation of the relationship with the observer. Exhibition and perfor-mance areas would be taken as opportunities of spatial investigation and for the analysis of the different ways of perception, thus becoming key places for learning. Theater is postulated as a meeting point between art and technique, taking on a new significance at its intersection with other disciplines working with spatial definition too. The multiple innovation techniques linked to the new foundations for the theater regarding stage relation, would have as a consequence the regeneration of the space. Space would turn dynamic, both physically and perceptibly, bringing innovative spatial conceptions, many of them unrealistic. Light, projection and illusory creation based on sound and visual stimulus would appear as intangible and momentary design components, which would have a great impact on the space and on the way it is experienced. Implication of technology in art would bring changes on the observer as well as on the spatial configuration of the art spaces2. It would stand out as a proposal Walter Groupis Total Theater, whose development would include somehow the spatial experiments and studies about formal structure of perception accomplished by Moholy Nagy besides the concepts regarding stage space enhanced at the Bauhaus Theater Studio by Oskar Schlemmer. Within Total Theater, Groupis would incorporate his own view about traditional theatric architecture and conceptual innovations that were taking place since the end of the nineteenth century, such as active audience participation or the diffusing limits between scene and audience, establishing a new perception relationship between auditorium, performance and audience, improving the feeling of immersion through the use of physics, optics and acoustics, creating a concentric energy capable of spreading in all directions. Total Theater would be one of the first example in which, from the beginning of the Project, image is combined as a communicating element with the spatial configuration. As a premise of development, new stage arrangement would have the capacity of transformation, both perceptive and physically. During the second half or the twentieth century, the creation of investigation centers such as CAVS (Center for Advanced Visual Studies, 1967) or EAT (Experiments in Art and Technology, 1966), would help to the interdisciplinary collaboration between art and science, involving technology companies like Siemens, HP, IBM or Philips, providing technical and economic support to the development of new systems. This interdisciplinary collaboration would give room to a series of spatial interventions which would have visibility in some Universal Exhibitions. The result would be, in most cases, the creation of immersive character spaces, where a symbiotic relationship would be stablished between space, image, sound and audience. The new location of the audience in the middle of the display, together with the dynamic arrangement of sound and image would create a particular, no lineal narrative conceived to be experienced. Since the first cinema projections, the multiple screen of Eames, the spatial techniques for sound dissemination at Stockhausen or the interactive physical movement experimentation, image, motion light and sound would turn inevitably into architectural material.