1000 resultados para Esquemas Todo-Partes
Resumo:
XML (eXtensibile Markup Language) é um padrão atual para representação e intercâmbio dos semi-estruturados na Web. Dados semi-estruturados são dados não convencionais cujas instâncias de uma mesma fonte de dados podem ter representações altamente heterogêneas. Em função isto, um esquema para estes dados tende a ser extenso para suportar todas as alternativas de representação que um dado pode assumir. Parte do grande volume de dados disponível hoje na Web é composto por fontes de dados heterogêneas XML sobre diversos domínios do conhecimento. Para realizar o acesso a estas fontes, aplicações na Web necessitam de um mecanismo de integração de dados. O objetivo principal deste mecanismo é disponibilizar um esquema de dados global representativo dos diversos esquemas XML das fontes de dados. Com base neste esquema global, consultas são formuladas, traduzidas para consultas sobre os esquemas XML, executadas nas fontes de dados e os resultados retornados à aplicação. Esta tese apresenta uma abordagem para a integração semântica de esquemas XML relativos a um domínio de aplicação chamada BInXS. BInXS adota um processo bottom-up de integração, no qual o esquema global é definido para um conjunto de esquemas XML representadas atrtavés de DTDs (Document Type Definitions). A vantagem do processo bottom-up é que todas as informações dos esquemas XML são consideradas no esquema global. Desta forma, toda a informação presente nas fontes de dados pode ser consultada. O processo de integração de BInXS é baseado em um conjunto de regras e algoritmos que realizam a cnversão de cada DTD para um esquema canônico conceitual e a posterior integração semântica propriamente dita destes esquemas canônicos. O processo é semi-automático pois considera uma eventual intervenção de um usuário especialista no domínio para validar ou confirmar alternativas de resultado produzidas automaticamente. Comparada com trabalhos relacionados, BInXS apresenta as seguintes contribuições: (i) uma representação canônica conceitual para esquemas XML que é o resultado de uma anállise detalhada do modelo XML; (ii) um étodo de unificação que lida com as particularidades da integração de dados semi-estruturados e; (iii) uma estratégia de mapeamento baseada em expressões de consulta XPath que possibilita uma tradução simples de consultas globais para consultas a serem executadas nas fontes de dados XML.
Resumo:
Um esquema de banco de dados certamente sofrerá alguma alteração com o passar do tempo. Algumas das causas destas modificações são ocorrência de um aumento no domínio do sistema, erros ocorridos na fase de projeto, mudanças na realidade representada pelo sistema, ou a necessidade de melhoria no seu desempenho. O uso de bancos de dados temporais é uma alternativa para o armazenamento das informações da evolução, pois permite sua recuperação por meio do histórico de suas mudanças. O presente trabalho propõe um ambiente para implementar evolução de esquemas sobre um BDOO, utilizando o Modelo Temporal de Versões (TVM). Deste modo, características de versões e de tempo são utilizadas tanto no nível dos esquemas como nos dados armazenados. Estados são associados às versões de esquema para representar seus estágios de desenvolvimento durante a evolução. O gerenciamento das versões de esquema é realizado por intermédio de uma camada denominada meta-esquema. Em um outro nível, o gerenciamento das instâncias é realizado por meio de uma camada denominada metadados, inserida para cada versão de esquema definida. Por intermédio destes controles é possível analisar a evolução dos esquemas como um todo e, para cada esquema, as correspondentes versões de seus dados e sua evolução temporal. Algumas alternativas de consulta para um ambiente com estas características são analisadas. O trabalho apresenta, ainda, as características básicas de um protótipo implementado para verificar a viabilidade da proposta apresentada.
Resumo:
Trata-se de um estudo desenvolvido com o objetivo de esclarecer a construção de esquemas multiplicativos em alunos do Ensino Fundamental, tendo em vista o aprimoramento da aprendizagem da matemática. Justifica-se a preocupação com a operação de multiplicar, por ser nessa aprendizagem que muitos alunos iniciam uma carreira de insucessos na matemática, uma vez que a multiplicação implica mudanças qualitativamente importantes no desenvolvimento cognitivo dos alunos. Foram feitas entrevistas clínicas com 45 sujeitos, de 3ª a 5ª série. Buscaram-se respostas para o problema de como acontece o avanço dos conceitos implícitos de multiplicação, relacionados com as seqüências numéricas iniciais para o esquema iterativo de multiplicação, relacionado com a coordenação parte-todo, com a reversibilidade e com a iteração. Os fundamentos teóricos, na sua maior parte, foram colhidos na Epistemologia Genética. Nesse sentido, foram estudadas, especialmente, as raízes epistemológicas do conhecimento matemático, a natureza e o papel da abstração reflexionante e a tomada de consciência. As entrevistas clínicas abrangeram a investigação dos esquemas de seqüências numéricas, dos esquemas de unidades compostas, dos esquemas prémultiplicativos e dos esquemas multiplicativos Os resultados mostram que - o desenvolvimento da multiplicação se inicia com esquemas de seqüências numéricas, passa pelos esquemas de unidades compostas e esquemas prémultiplicativos, na direção dos esquemas multiplicativos; - a falta de esquemas prévios compromete o desenvolvimento dos esquemas multiplicativos, pois a multiplicação resulta de modificações nas seqüências de números desenvolvidas pela criança, em qualquer fase do seu desenvolvimento numérico; - os primeiros esquemas multiplicativos, relacionados com as seqüências numéricas iniciais, envolvem o uso intenso dos dedos e da contagem um a um; quando as crianças utilizam esquemas de seqüências numéricas implícitas, a utilização dos dedos decresce progressivamente, até que seu uso se torna imperceptível. Por fim, os esquemas consolidam-se. As crianças dão respostas imediatas, não fazendo uso dos dedos, da contagem ou da adição. Vão direto à multiplicação, utilizando esquemas de seqüências numéricas explícitas. Daqui para diante, um tema importante a ser pesquisado se refere aos fatores que mantêm um número considerável de crianças presas aos esquemas multiplicativos rudimentares, relacionados com as seqüências numéricas iniciais.
Resumo:
Na perspectiva da Epistemologia Genética, a adição e a subtração são pertencentes a um mesmo gênero de operações, ou seja, às estruturas aditivas e, na Teoria dos Campos Conceituais, a adição e a subtração pertencem ao Campo Conceitual Aditivo. A relação entre elas é abordada dentro do Campo Conceitual Aditivo, trabalhando-se com situações de transformação, de composição parte-todo e de “quanto falta”. Esta pesquisa de Mestrado busca compreender os esquemas que as crianças utilizam na construção da subtração no campo conceitual das estruturas aditivas. Nosso objetivo de pesquisa é descrever os esquemas que expressam avanços no desenvolvimento das crianças na construção da subtração, especificamente nas situações de transformação, de composição parte-todo e de “quanto falta”. Para encontrar esses esquemas, realizamos uma pesquisa microgenética com crianças de 2ª e de 3ª série do Ensino Fundamental, resolvendo situações-problema do campo conceitual aditivo. A subtração é uma operação que leva um tempo maior do que a adição para ser construída e cuja compreensão vai muito além da apropriação da sua linguagem. Entendemos que os significados da adição e da subtração são construídos em conjunto e que, portanto, são partes de um mesmo processo. Verificamos que as crianças, ao construírem os significados dessas operações, vão elaborando esquemas cada vez mais avançados, demonstrando um progresso na compreensão principalmente da subtração.
Resumo:
Incluye Bibliografía
Resumo:
Incluye Bibliografía
Resumo:
Incluye Bibliografía
Resumo:
Pós-graduação em Linguística e Língua Portuguesa - FCLAR
Resumo:
El presente trabajo abordará el estudio del comportamiento de la expresión dentro de todo. Enmarcada en el enfoque cognitivo prototípico, nuestra reflexión parte del principio de la estructuración de nuestro conocimiento según Modelos Cognitivos Idealizados (Lakoff 1987) y, en este caso particular, de esquemas de imagen (Johnson 1987). Con un criterio de progresión que correlaciona semánticamente los empleos libres y los cohesionados, se analizarán secuencias tales como "dentro del armario", "la necesaria turbulencia que debe existir dentro de todo horno de gas o leña"; "cuestiones dentro de todo sencillas" y "No, a mí dentro de todo me parece bien lo que dijiste". Un estudio contextual a partir de usos auténticos y el relevamiento de la cantidad de empleos libres versus cohesionados permitirá establecer el grado de fijación de la expresión en el discurso. A partir de este estudio, se propondrá una modelización del valor semántico-pragmático de dentro de todo atendiendo al semantismo predominante de la forma preposicional dentro, a saber, la marcación perimetral, que se perfilará con ciertas especificidades según su empleo como adverbio o como marcador discursivo. En su uso adverbial, la expresión orienta el establecimiento de un campo en cuyo interior se negocian, según grados de aproximación, instancias de validación positiva. Juega un rol particular en la interpretación de estos empleos el concepto de hedges (Lakoff 1972) o aproximación. Como marcador discursivo, dentro de todo sugiere visibilización de límites de aceptabilidad que llevan a una reconsideración de los elementos evaluados. En esta reconsideración, juegan un rol particular la mitigación y la orientación positiva que el hablante busca dar a su discurso
Resumo:
El presente trabajo abordará el estudio del comportamiento de la expresión dentro de todo. Enmarcada en el enfoque cognitivo prototípico, nuestra reflexión parte del principio de la estructuración de nuestro conocimiento según Modelos Cognitivos Idealizados (Lakoff 1987) y, en este caso particular, de esquemas de imagen (Johnson 1987). Con un criterio de progresión que correlaciona semánticamente los empleos libres y los cohesionados, se analizarán secuencias tales como "dentro del armario", "la necesaria turbulencia que debe existir dentro de todo horno de gas o leña"; "cuestiones dentro de todo sencillas" y "No, a mí dentro de todo me parece bien lo que dijiste". Un estudio contextual a partir de usos auténticos y el relevamiento de la cantidad de empleos libres versus cohesionados permitirá establecer el grado de fijación de la expresión en el discurso. A partir de este estudio, se propondrá una modelización del valor semántico-pragmático de dentro de todo atendiendo al semantismo predominante de la forma preposicional dentro, a saber, la marcación perimetral, que se perfilará con ciertas especificidades según su empleo como adverbio o como marcador discursivo. En su uso adverbial, la expresión orienta el establecimiento de un campo en cuyo interior se negocian, según grados de aproximación, instancias de validación positiva. Juega un rol particular en la interpretación de estos empleos el concepto de hedges (Lakoff 1972) o aproximación. Como marcador discursivo, dentro de todo sugiere visibilización de límites de aceptabilidad que llevan a una reconsideración de los elementos evaluados. En esta reconsideración, juegan un rol particular la mitigación y la orientación positiva que el hablante busca dar a su discurso
Resumo:
El presente trabajo abordará el estudio del comportamiento de la expresión dentro de todo. Enmarcada en el enfoque cognitivo prototípico, nuestra reflexión parte del principio de la estructuración de nuestro conocimiento según Modelos Cognitivos Idealizados (Lakoff 1987) y, en este caso particular, de esquemas de imagen (Johnson 1987). Con un criterio de progresión que correlaciona semánticamente los empleos libres y los cohesionados, se analizarán secuencias tales como "dentro del armario", "la necesaria turbulencia que debe existir dentro de todo horno de gas o leña"; "cuestiones dentro de todo sencillas" y "No, a mí dentro de todo me parece bien lo que dijiste". Un estudio contextual a partir de usos auténticos y el relevamiento de la cantidad de empleos libres versus cohesionados permitirá establecer el grado de fijación de la expresión en el discurso. A partir de este estudio, se propondrá una modelización del valor semántico-pragmático de dentro de todo atendiendo al semantismo predominante de la forma preposicional dentro, a saber, la marcación perimetral, que se perfilará con ciertas especificidades según su empleo como adverbio o como marcador discursivo. En su uso adverbial, la expresión orienta el establecimiento de un campo en cuyo interior se negocian, según grados de aproximación, instancias de validación positiva. Juega un rol particular en la interpretación de estos empleos el concepto de hedges (Lakoff 1972) o aproximación. Como marcador discursivo, dentro de todo sugiere visibilización de límites de aceptabilidad que llevan a una reconsideración de los elementos evaluados. En esta reconsideración, juegan un rol particular la mitigación y la orientación positiva que el hablante busca dar a su discurso
Resumo:
Las piezas compuestas, constituidas por una parte prefabricada y otra hormigonada in situ, comenzaron a ser investigadas hace más de 30 años, dado el interés que su utilización despertó, por tratarse de elementos semiindustrializados de gran campo de aplicación. Las investigaciones que han sido desarrolladas han abordado el estudio del comportamiento de uniones con armaduras de cosido atravesando las "interfaces" o superficies de contacto, siendo más escasas las investigaciones concernientes a piezas sin tal armadura. Estudios sobre las condiciones específicas de ejecución en lo referente a tratamiento de las superficies de contacto, estado de saturación de la unión, sistema de compactación, no se han abordado de forma sistemática en las investigaciones precedentes. Hoy en día se conocen con buena aproximación los mecanismos de transferencia del esfuerzo rasante en las piezas compuestas. También se han evaluado en investigaciones precedentes la aplicabilidad de los modelos de ensayo a los estudios de la influencia de determinadas variables que condicionan la resistencia a rasante en función de las características de las piezas, tanto tipológicas como de comportamiento. Por último son múltiples las normas y documentos técnicos de organizaciones especializadas que contemplan procedimientos para comprobar la resistencia de las uniones y establecer limites últimos o de servicio a las tensiones rasantes. En los momentos actuales algunos investigadores centran sus estudios en el establecimiento de modelos teóricos que permitan evaluar los comportamientos de las uniones, tras el ajuste de tales modelos con resultados experimentales. Han sido escasas las investigaciones sistemáticas de piezas con "interfaces" sin armadura de cosido que analicen los parámetros condicionados por la propia ejecución cuando tales tipos de pieza son ampliamente utilizadas en nuestro país en soluciones de forjado de edificación. Del análisis del comportamiento de tales "interfaces" pueden, por otra parte, obtenerse conclusiones aplicables para juzgar el comportamiento en servicio de piezas con "interfaces" armadas, en lo referente, al menos, a su deformabilidad. Por tales motivos se justifica el interés de la investigación experimental que nos propusimos desarrollar. Para la investigación experimental adoptamos un modelo de viga, y previamente confirmamos la idoneidad mediante ensayos piloto sobre la influencia de la disposición de la carga. Como variables básicas de la investigación adoptamos dos estados de saturación superficial, húmedo (H) y encharcado (E); dos sistemas de compactación, picado con barra (P) y vibración interna (V); por último adoptamos dos tratamientos de la unión, natural (N) y cepillada (C). Complementariamente seleccionamos dos nuevas variables de estado superficial de tratamiento de la "interface", peinada (P) y tampeada (T), así como un nuevo estado de humedad superficial desecando la superficie artificialmente (AD). Las variables seleccionadas configuraron 11 combinaciones que condujeron a la fabricación y ensayo de 22 vigas al adoptar dos ejemplares idénticos por grupo de variables. Los ensayos fueron realizados en el laboratorio del Instituto Técnico de Materiales y Construcciones, obteniéndose resultados sobre la resistencia rasante en agotamiento, los corrimientos relativos entre las dos partes de la pieza compuesta y las flechas alcanzadas en el centro del vano de viga, durante todo el proceso de carga. Previamente a la realización del ensayo, fueron muestreados y ensayados los materiales, tanto los constituyentes de los hormigones como los propios hormigones y aceros para armaduras. El hormigón empleado se situó, para la edad de ensayo, en la gama de resistencia entre 166 y 250 kp/cm, con valores medios de 203 kp/cm y característicos de 177 kp/cm. Complementariamente, y antes del hormigonado de la segunda fase, se procedió a medir la rugosidad específica de acuerdo con las recomendaciones FIP y norma SIS-812005. Durante el ensayo, asimismo, se registraron los esquemas de fisuración en cada escalón de carga, definiéndose por último los esquemas de rotura, que en todos los casos, correspondió al de agotamiento frente a esfuerzo rasante. Los resultados de ensayo han sido analizados para evaluar la influencia de los parámetros investigados tanto en el comportamiento frente a estados límites de servicio, fisuración y deformaciones, como frente a los estados límites últimos condicionados por la investigación que fueron los de rasante. Para juzgar los resultados de la resistencia a rasante, los valores del esfuerzo cortante último han sido transformados en tensiones rasantes adoptando un modelo teórico simple y homogeneizando los valores de tensiones, en función de la resistencia más baja de las dos partes de la pieza, a hormigones tipo de 200 kp/cm, procediendo a comparar las variables investigadas entre si por la relación de los valores medios registrados en ensayo. Para juzgar el comportamiento en servicio, se han comparado los esquemas de fisuración, así como la relación entre flechas obtenidas en ensayo y las flechas teóricas calculadas adoptando el modelo de inercia eficaz de Branson, evaluando en consecuencia la influencia de las diferentes variables. Por último, hemos analizado la influencia de la rugosidad en la resistencia frente a rasante, así como la influencia de las variables en el corrimiento relativo para definir que mecanismo de transferencia a rasante se moviliza, fundamentalmente en estas uniones sin armadura. Como conclusiones básicas de la investigación se establecen la nula dependencia de la resistencia a rasante con los procedimientos de compactación para la tipología de pieza ensayada, así como la nula influencia de la rugosidad ni la apreciable incidencia de los procesos de tratamiento de la unión, mediante peinado y tampeado con la técnica utilizada. Por el contrario, de la investigación se desprende un efecto positivo del cepillado de la unión frente al estado natural de hormigonado y subsiguiente compactación y negativo del encharcamiento frente a los estados de unión humedecida e incluso de "interface" artificialmente desecada. Queda confirmada, asimismo, la extraordinaria rigidez de la unión en todos los casos, así como la inapreciable influencia de los parámetros investigados en el comportamiento de las piezas ensayadas frente a las características que condicionan su deformabilidad y esquemas de fisuración.
Resumo:
En los últimos años es notable la proliferación de trabajos y estudios que tratan sobre las características del hormigón reforzado con fibras, sin embargo su incorporación en el proyecto no está del todo claro, por lo que el presente trabajo se enfocará en describir las fibras y las principales características que estas modifican en el comportamiento del hormigón, tomando en consideración la Normativa EHE-08 y el Código Boliviano del Hormigón (CBH-87).También, trata de implementar el hormigón reforzado con fibras en la elaboración del proyecto, teniendo en cuenta la incidencia de las fibras en las diferentes etapas del mismo. Se compara la influencia del hormigón reforzado con fibras en las diferentes etapas de la elaboración del proyecto en España con la de un proyecto elaborado en Bolivia. Por último, se describen los aspectos a considerar en el control de calidad del hormigón reforzado con fibras a incluir en el proyecto, para una correcta utilización del mismo.
Resumo:
Se recoge en esta tesis doctoral la definición y clasificación de los edificios cuya finalidad es proporcionar espacios para escuchar y producir música. Se centra en aquellos construidos a lo largo del siglo XX, en el área geográfica y cultural que forman Europa occidental y Estados Unidos. Se analizan edificios construidos en el pasado, en una serie que se origina a mediados del siglo XIX y que se culmina terciado el propio siglo XX. Son edificios que contienen espacios pensados para músicas que, sin embargo, en su mayoría fueron creadas en un periodo anterior, desde mediados del siglo XVIII hasta las primeras décadas del siglo pasado. Un auditorium es un edificio cuya idea conlleva la compleja herencia de los múltiples lugares, abiertos y cerrados, que han alojado la música a lo largo del tiempo. Es un edificio que es útil a la sociedad y que ocupa un lugar significativo dentro de la ciudad, y es consecuencia del campo de fuerzas que constituyen los avances técnicos, el progreso de las sociedades urbanas y la evolución del arte, al compartir estrechamente, música y arquitectura, el interés por hallar la expresión de una nueva relación con la naturaleza. Se parte de la hipótesis de que el auditorium puede constituir un tipo arquitectónico con entidad suficiente para generar una tipología. Entendida ésta como una herramienta que dota de conocimientos útiles a quien va a proyectar un edificio para la música y también que permita abrir el campo de pensamiento sobre el espacio musical, sin necesidad de recurrir a modelos previos, aunque se hayan manifestado útiles y precisos. Se comienza con una aproximación a una definición del término «auditorium » y se analizan a qué funciones responde y en qué es distinto de otros edificios, a través de determinar las características formales propias. Para ello se articula la tesis en varios bloques de análisis. I Elementos para una tipología Se indaga en los atributos que determinan la naturaleza de los auditorios para definir cómo son estos edificios y qué características y condiciones tienen, no sólo las salas sino también los edificios que las contienen, buscando el origen de los espacios musicales y su relación con las personas que allí se han reunido para celebrar, a través de la música, acontecimientos colectivos. Relación que ha comportado desplazamientos por los distintos espacios que ha compartido, supeditada a otras actividades, hasta que finalmente, la música ha reclamado espacios propios. Pero también se establece otra relación física entre las distintas posiciones que ocupan en el espacio cuantos intervienen en la celebración del hecho musical, músicos y público. De otra parte se analiza cómo son sus espacios interiores, salas y vestíbulos, y los volúmenes y formas de los edificios en relación con la ciudad. Su conexión con la idea del paisaje abierto y con el carácter originario de la cueva. II Cinco tiempos Los edificios sobre los que se van explorar estas capacidades son en muchos casos arquitecturas divulgadas y conocidas. Sin embargo no todas han tenido desde su aparición el mismo grado de aprecio ni reconocimiento, y sólo el paso del tiempo ha confirmado su excelencia. El estudio se estructura en los periodos marcados por los acontecimientos bélicos y las grandes crisis que sacudieron Europa y Norte América desde comienzos del siglo XX. La identificación de los elementos significativos de la tipología se hace a través del análisis de distintos tiempos que agrupan casos heterogéneos, tiempos entendidos unas veces como la relación entre edificios coetáneos y otra como proyectos pensados por un mismo arquitecto y se detiene, entre otros, en cuatro excepcionales edificios que condensan la experiencia de varias décadas y demuestran su plenitud arquitectónica, por haber evolucionado de modelos precedentes o por su novedosas aportaciones. El Royal Festival Hall (1951), el Kresge Auditorium (1954), el Kulttuuritalo (1958) y la Philharmonie de Berlín (1963), sirven de base para una clasificación del auditorium. III Cronología gráfica Este apartado es fundamentalmente gráfico y consta un inventario de más de 100 archivos correspondientes a otros tantos auditorios y sus salas, en orden cronológico. Cada archivo cuenta con una imagen del exterior del edificio y otra del interior de la sala. Se han incorporado en cada uno de los archivos, dos dibujos a la misma escala. El primero muestra la planta de la sala con tres parámetros: la ocupación del público en referencia al lugar que ocupa la orquesta, la relación de tamaño entre la sala y las de los cuatro auditorios de referencia y la distancia al foco de sonido, la orquesta, mediante una escala en metros. Estos tres parámetros están superpuestos al que he considerado espacio audible, un rectángulo de 60 por 90 metros, en el que el foco está desplazado, por considerar que el sonido de una orquesta tiene una componente directional y que en esas dimensiones la energía sonora no decae. En el friso bajo el dibujo, aparecen cuatro iconos que informan de la relación formal de la sala con la del auditorium. Puede ser una sala dentro de un edificio sin correspondencia formal, un edificio en el que se manifiesta exteriormente el volumen de la sala, un edificio que tiene la forma de la sala y resuelve el resto del programa funcional sin manifestarlo exteriormente o, finalmente un edificio complejo cuya forma absorbe dos o más salas de música. El segundo dibujo es la sección longitudinal de la sala, recortada sobre un fondo negro para destacar su forma y proporción, todas están a la misma escala y en la misma dirección respecto del escenario para facilitar su lectura y comparación. En el parte inferior de la sección, aparecen cuatro esquemas de la forma y distribución en planta sobre el que destaca la de cada caso de estudio. La forma del techo de las salas de música de los auditorios, expresada a través de la sección longitudinal, es uno de los elementos que caracteriza el espacio musical. El perímetro de la sección, determina su superficie y por tanto, el volumen total interior. Es una herramienta técnica que permite dirigir el sonido reflejado en él, hasta cualquier lugar del interior de la sala, garantizando una distribución homogénea y evitando concentraciones perjudiciales o «sombras acústicas», lugares donde no llegan las primeras reflexiones. IV Geometría de las salas El análisis efectuado permite la elaboración de paralelos de tres de los elementos fundamentales de la tipología de las salas de los auditorium y que definen el espacio musical. El perímetro de la sección y su superficie que establecen el volumen total interior, que es un factor determinante en la reverberación de una sala. La forma y superficie del techo, que interviene directamente en el cálculo de la absorción del sonido, en función de la cualidad reflejante o absorbente del material con el que está construido, y por otra parte en la distribución del sonido en el espacio. Y por último, la forma del suelo de las salas también expresada a través de la sección longitudinal, es otro de los elementos que caracteriza el espacio musical. El modelado del suelo permite mediante distintas pendientes garantizar la correcta visión del escenario y por tanto permite también una buena audición, puesto que la llegada directa del sonido está asegurada. La otra limitación dimensional es el ancho de la grada. Cuando se ha buscado incrementar al máximo la capacidad de una sala, se han establecido graderíos en balcones en voladizo para no penalizar la distancia al escenario, de manera que algunas partes del graderío quedan cubiertas, en detrimento de su calidad acústica al privarlas de las primeras reflexiones que proceden del techo. V Auditórium y ciudad El auditorium es un edificio singular que establece con la ciudad una relación particular y que contiene en su interior una o varias salas especiales destinadas a oír y ejecutar música, a las que se accede a través de otros espacios de carácter social. Han ido evolucionando y modificándose de manera ininterrumpida, dando lugar a edificios de diversa complejidad en su programa y a salas cada vez mas especificas para cumplir mejor su cometido, perfeccionando su sonido y buscando la más elevada musicalidad. Estos edificios disponen de otros ámbitos de relación, son los espacios interiores, vestíbulos y escaleras, generalmente generosos en superficie y espacialidad, previos al espacio musical, corazón del auditorium donde suena la música en condiciones acústicas precisas. También el lugar donde se construyen los auditoriums en las ciudades tiene un especial significado, porque generalmente han buscado interponer espacios abiertos o ajardinados que suavicen el contacto directo con la ciudad y que implican, por otra parte, una preparación de las personas que asisten para escuchar los conciertos. Con el paso del tiempo, la aceptación generalizada de formas afianzadas en la ciudad, será uno de los vehículos que permita contaminar a otros tipos de edificios y alcanzar una libertad formal renovadora de los paisajes urbanos. Conclusiones La disolución del espacio musical convencional pregonado por el pabellón Philips del año 1958, no ha impedido que hoy siga vivo para el arquitecto el reto del proyecto y construcción del auditorium. Hoy conviven experiencias musicales totales; imagen, luz y movimiento, ocupando todo tipo de espacios públicos, cerrados o al aire libre, con la voluntad de conseguir espacios capaces de crear la intimidad y las precisas condiciones ambientales que hagan posible la recreación de las músicas del pasado en una especie de emocionante museo sonoro vivo. Como edificios urbanos, los auditoriums han conseguido un lugar destacado en la iconografía urbana después de un largo camino hasta conseguir el reconocimiento social. Se puede, así, establecer que estos edificios han introducido en la ciudad una nueva manera de expresarse la arquitectura. Que lo inesperado de sus formas y volúmenes en el espacio urbano, o la sorpresa de sus interiores altamente técnicos, justificados para satisfacer las nuevas necesidades impuestas por una audiencia cada vez más y más experta, obtienen la aceptación urbana por su utilidad social y por su capacidad de establecer una relación distinta entre las personas, la ciudad y la naturaleza. Coda Finalmente, el epílogo habla de la metamorfosis del espacio musical y de la convivencia de distintos espacios musicales en la actualidad. Desde la creación de las primeras y sencillas salas de música hasta las grandes salas filarmónicas que se construyen en las últimas décadas, la arquitectura ha proporcionado lugares adecuados para contener y disfrutar la música, espacios que se han modificado según cambiaban las formas musicales. Sin embargo el sonido parece mostrarse reticente a ser encerrado en el espacio y busca aliarse con el tiempo para conseguir un desplazamiento permanente. Seguramente es en el pabellón Philips de Bruselas en 1958 donde se presenta el último intento de la arquitectura de contener la música, que impulsada por tecnologías absolutamente nuevas, se mueve como dardos que atraviesan el espacio en todos los lugares y en todas las direcciones. Desde aquellas décadas centrales del pasado siglo, y superando los mas optimistas intentos de distribuir masivamente la música a través de incipientes tecnologías, se puede afirmar que vivimos en una inmersión sonora universal. Anexos Incluyen, una colección de mapas de la geografía de los auditorios europeos y norte-americanos, referenciados a los periodos de su construcción, y una relación de los auditorios estudiados con referencias bibliográficas. ABSTRACT This doctoral thesis does not only look at the ways in which architecture and music relate with one another; it also seeks to be an exact, scientific study of auditoriums, a building type that first appeared in the 20th century as a place in which to produce and listen to music. It studies concert halls, raised in Europe and the United Stated in the 20th century, for the purpose of recreating older music, that were the result of the evolution of various ancient building types. Auditoriums have a complex heritage of architecture of all times, openair and covered alike, and occupy important spots in cities. They incorporate the technical innovations of their times, and are reflections not only of the music played within them, but also of the societies that built them. Music and architecture share an interest in connecting with nature. Auditorium, a 20th-century Typology tries to define this building typology, and with that, be a practical tool in designing and constructing spaces for music, besides exploring the relationship between the two disciplines, architecture and music, and establishing the foundations for an entire school of thought. It is organized in five chapters, each focusing on a particular aspect of auditoriums, all towards defining a possible typology: I Typology elements. A study of the origin of auditoriums, and of how the different parts of these buildings —the actual concert hall, the foyer, the open spaces— relate with the city and with nature, which is ever present in music and in the origin of auditoriums. II Five sequences. A chronological journey through the 20th century, in periods marked by the two world wars and the consequent crises, with case studies of four exceptional buildings: the Royal Festival Hall (1951), the Kresge Auditorium (1954), the Kulttuuritalo (1958), and the Berlin Philharmonie (1963). III Graphic chronology. A methodical sequence looking at a hundred auditoriums, with each entry presenting images of the concert hall and the building as a whole, and two drawings on the same scale. Each concert hall floor plan shows how the orchestra relates with the audience, and it is compared to the floor plans of the four case-study examples named above. We also see how the hall is set into the building. The second drawing is the longitudinal section of the hall. Ceiling shape much determines the character of concert hall spaces, while technical data like air volume and the amount of absorbent and reflecting materials used have a direct bearing on the reflection of sound and on the overall musical quality of the auditorium. IV Geometry of concert halls. Graphic analysis of the key elements of a music space: the ceiling and the floor plan. The section is a necessary tool for determining the reverberation time of a concert hall, and is closely linked to the shape of the floor plan. In concert halls, there is a strong connection between the ceiling, the walls, and the floor, as there is between different musical instruments. It also includes maps showing where these European and American buildings are located geographically as well as in time. V The auditorium in the city. This chapter presents a series of maps showing the location of auditoriums in the city. They are often located in squares and gardens, open public spaces that serve to emotionally prepare the listener for an imminent musical experience. Time has shown that concert halls have changed the urban landscape and city life. Conclusions As a building type, auditoriums —though «dissolved» by the Philips Pavilion in 1958— remain valid spaces for listening to music. As intimate and unique spaces for social gathering and musical creation, they have done their part in transforming cities. Acoustics play a key role in these technical interiors, but just as important is the rapport that is struck between the musicians and the audience, and between musical works of the past, present, and future. Auditoriums are urban buildings that have been very successful throughout history. They have enriched our cities with surprising shapes and volumes, introduced new interiors in architecture, and struck new relationships between people, the city, and nature. As such, they are necessary. Coda Finally, the epilogue presents the evolution of the music space, from the early simple music halls to the highly complex philharmonic halls of recent years. Architecture has produced spaces for the enjoyment of music that have been modified for new musical creations, while remaining useful for the historical repertoire. Sound, and thus music, has as complex a relationship with space as it does with time. The coda of this thesis is the Philips Pavilion of 1958, perhaps the last attempt to propose a new kind of architecture for music with the latest technology. Annexes The thesis includes a collection of site maps of European and American auditoriums, complete with completion dates and descriptions.
Resumo:
Los sistemas empotrados han sido concebidos tradicionalmente como sistemas de procesamiento específicos que realizan una tarea fija durante toda su vida útil. Para cumplir con requisitos estrictos de coste, tamaño y peso, el equipo de diseño debe optimizar su funcionamiento para condiciones muy específicas. Sin embargo, la demanda de mayor versatilidad, un funcionamiento más inteligente y, en definitiva, una mayor capacidad de procesamiento comenzaron a chocar con estas limitaciones, agravado por la incertidumbre asociada a entornos de operación cada vez más dinámicos donde comenzaban a ser desplegados progresivamente. Esto trajo como resultado una necesidad creciente de que los sistemas pudieran responder por si solos a eventos inesperados en tiempo diseño tales como: cambios en las características de los datos de entrada y el entorno del sistema en general; cambios en la propia plataforma de cómputo, por ejemplo debido a fallos o defectos de fabricación; y cambios en las propias especificaciones funcionales causados por unos objetivos del sistema dinámicos y cambiantes. Como consecuencia, la complejidad del sistema aumenta, pero a cambio se habilita progresivamente una capacidad de adaptación autónoma sin intervención humana a lo largo de la vida útil, permitiendo que tomen sus propias decisiones en tiempo de ejecución. Éstos sistemas se conocen, en general, como sistemas auto-adaptativos y tienen, entre otras características, las de auto-configuración, auto-optimización y auto-reparación. Típicamente, la parte soft de un sistema es mayoritariamente la única utilizada para proporcionar algunas capacidades de adaptación a un sistema. Sin embargo, la proporción rendimiento/potencia en dispositivos software como microprocesadores en muchas ocasiones no es adecuada para sistemas empotrados. En este escenario, el aumento resultante en la complejidad de las aplicaciones está siendo abordado parcialmente mediante un aumento en la complejidad de los dispositivos en forma de multi/many-cores; pero desafortunadamente, esto hace que el consumo de potencia también aumente. Además, la mejora en metodologías de diseño no ha sido acorde como para poder utilizar toda la capacidad de cómputo disponible proporcionada por los núcleos. Por todo ello, no se están satisfaciendo adecuadamente las demandas de cómputo que imponen las nuevas aplicaciones. La solución tradicional para mejorar la proporción rendimiento/potencia ha sido el cambio a unas especificaciones hardware, principalmente usando ASICs. Sin embargo, los costes de un ASIC son altamente prohibitivos excepto en algunos casos de producción en masa y además la naturaleza estática de su estructura complica la solución a las necesidades de adaptación. Los avances en tecnologías de fabricación han hecho que la FPGA, una vez lenta y pequeña, usada como glue logic en sistemas mayores, haya crecido hasta convertirse en un dispositivo de cómputo reconfigurable de gran potencia, con una cantidad enorme de recursos lógicos computacionales y cores hardware empotrados de procesamiento de señal y de propósito general. Sus capacidades de reconfiguración han permitido combinar la flexibilidad propia del software con el rendimiento del procesamiento en hardware, lo que tiene la potencialidad de provocar un cambio de paradigma en arquitectura de computadores, pues el hardware no puede ya ser considerado más como estático. El motivo es que como en el caso de las FPGAs basadas en tecnología SRAM, la reconfiguración parcial dinámica (DPR, Dynamic Partial Reconfiguration) es posible. Esto significa que se puede modificar (reconfigurar) un subconjunto de los recursos computacionales en tiempo de ejecución mientras el resto permanecen activos. Además, este proceso de reconfiguración puede ser ejecutado internamente por el propio dispositivo. El avance tecnológico en dispositivos hardware reconfigurables se encuentra recogido bajo el campo conocido como Computación Reconfigurable (RC, Reconfigurable Computing). Uno de los campos de aplicación más exóticos y menos convencionales que ha posibilitado la computación reconfigurable es el conocido como Hardware Evolutivo (EHW, Evolvable Hardware), en el cual se encuentra enmarcada esta tesis. La idea principal del concepto consiste en convertir hardware que es adaptable a través de reconfiguración en una entidad evolutiva sujeta a las fuerzas de un proceso evolutivo inspirado en el de las especies biológicas naturales, que guía la dirección del cambio. Es una aplicación más del campo de la Computación Evolutiva (EC, Evolutionary Computation), que comprende una serie de algoritmos de optimización global conocidos como Algoritmos Evolutivos (EA, Evolutionary Algorithms), y que son considerados como algoritmos universales de resolución de problemas. En analogía al proceso biológico de la evolución, en el hardware evolutivo el sujeto de la evolución es una población de circuitos que intenta adaptarse a su entorno mediante una adecuación progresiva generación tras generación. Los individuos pasan a ser configuraciones de circuitos en forma de bitstreams caracterizados por descripciones de circuitos reconfigurables. Seleccionando aquellos que se comportan mejor, es decir, que tienen una mejor adecuación (o fitness) después de ser evaluados, y usándolos como padres de la siguiente generación, el algoritmo evolutivo crea una nueva población hija usando operadores genéticos como la mutación y la recombinación. Según se van sucediendo generaciones, se espera que la población en conjunto se aproxime a la solución óptima al problema de encontrar una configuración del circuito adecuada que satisfaga las especificaciones. El estado de la tecnología de reconfiguración después de que la familia de FPGAs XC6200 de Xilinx fuera retirada y reemplazada por las familias Virtex a finales de los 90, supuso un gran obstáculo para el avance en hardware evolutivo; formatos de bitstream cerrados (no conocidos públicamente); dependencia de herramientas del fabricante con soporte limitado de DPR; una velocidad de reconfiguración lenta; y el hecho de que modificaciones aleatorias del bitstream pudieran resultar peligrosas para la integridad del dispositivo, son algunas de estas razones. Sin embargo, una propuesta a principios de los años 2000 permitió mantener la investigación en el campo mientras la tecnología de DPR continuaba madurando, el Circuito Virtual Reconfigurable (VRC, Virtual Reconfigurable Circuit). En esencia, un VRC en una FPGA es una capa virtual que actúa como un circuito reconfigurable de aplicación específica sobre la estructura nativa de la FPGA que reduce la complejidad del proceso reconfiguración y aumenta su velocidad (comparada con la reconfiguración nativa). Es un array de nodos computacionales especificados usando descripciones HDL estándar que define recursos reconfigurables ad-hoc: multiplexores de rutado y un conjunto de elementos de procesamiento configurables, cada uno de los cuales tiene implementadas todas las funciones requeridas, que pueden seleccionarse a través de multiplexores tal y como ocurre en una ALU de un microprocesador. Un registro grande actúa como memoria de configuración, por lo que la reconfiguración del VRC es muy rápida ya que tan sólo implica la escritura de este registro, el cual controla las señales de selección del conjunto de multiplexores. Sin embargo, esta capa virtual provoca: un incremento de área debido a la implementación simultánea de cada función en cada nodo del array más los multiplexores y un aumento del retardo debido a los multiplexores, reduciendo la frecuencia de funcionamiento máxima. La naturaleza del hardware evolutivo, capaz de optimizar su propio comportamiento computacional, le convierten en un buen candidato para avanzar en la investigación sobre sistemas auto-adaptativos. Combinar un sustrato de cómputo auto-reconfigurable capaz de ser modificado dinámicamente en tiempo de ejecución con un algoritmo empotrado que proporcione una dirección de cambio, puede ayudar a satisfacer los requisitos de adaptación autónoma de sistemas empotrados basados en FPGA. La propuesta principal de esta tesis está por tanto dirigida a contribuir a la auto-adaptación del hardware de procesamiento de sistemas empotrados basados en FPGA mediante hardware evolutivo. Esto se ha abordado considerando que el comportamiento computacional de un sistema puede ser modificado cambiando cualquiera de sus dos partes constitutivas: una estructura hard subyacente y un conjunto de parámetros soft. De esta distinción, se derivan dos lineas de trabajo. Por un lado, auto-adaptación paramétrica, y por otro auto-adaptación estructural. El objetivo perseguido en el caso de la auto-adaptación paramétrica es la implementación de técnicas de optimización evolutiva complejas en sistemas empotrados con recursos limitados para la adaptación paramétrica online de circuitos de procesamiento de señal. La aplicación seleccionada como prueba de concepto es la optimización para tipos muy específicos de imágenes de los coeficientes de los filtros de transformadas wavelet discretas (DWT, DiscreteWavelet Transform), orientada a la compresión de imágenes. Por tanto, el objetivo requerido de la evolución es una compresión adaptativa y más eficiente comparada con los procedimientos estándar. El principal reto radica en reducir la necesidad de recursos de supercomputación para el proceso de optimización propuesto en trabajos previos, de modo que se adecúe para la ejecución en sistemas empotrados. En cuanto a la auto-adaptación estructural, el objetivo de la tesis es la implementación de circuitos auto-adaptativos en sistemas evolutivos basados en FPGA mediante un uso eficiente de sus capacidades de reconfiguración nativas. En este caso, la prueba de concepto es la evolución de tareas de procesamiento de imagen tales como el filtrado de tipos desconocidos y cambiantes de ruido y la detección de bordes en la imagen. En general, el objetivo es la evolución en tiempo de ejecución de tareas de procesamiento de imagen desconocidas en tiempo de diseño (dentro de un cierto grado de complejidad). En este caso, el objetivo de la propuesta es la incorporación de DPR en EHW para evolucionar la arquitectura de un array sistólico adaptable mediante reconfiguración cuya capacidad de evolución no había sido estudiada previamente. Para conseguir los dos objetivos mencionados, esta tesis propone originalmente una plataforma evolutiva que integra un motor de adaptación (AE, Adaptation Engine), un motor de reconfiguración (RE, Reconfiguration Engine) y un motor computacional (CE, Computing Engine) adaptable. El el caso de adaptación paramétrica, la plataforma propuesta está caracterizada por: • un CE caracterizado por un núcleo de procesamiento hardware de DWT adaptable mediante registros reconfigurables que contienen los coeficientes de los filtros wavelet • un algoritmo evolutivo como AE que busca filtros wavelet candidatos a través de un proceso de optimización paramétrica desarrollado específicamente para sistemas caracterizados por recursos de procesamiento limitados • un nuevo operador de mutación simplificado para el algoritmo evolutivo utilizado, que junto con un mecanismo de evaluación rápida de filtros wavelet candidatos derivado de la literatura actual, asegura la viabilidad de la búsqueda evolutiva asociada a la adaptación de wavelets. En el caso de adaptación estructural, la plataforma propuesta toma la forma de: • un CE basado en una plantilla de array sistólico reconfigurable de 2 dimensiones compuesto de nodos de procesamiento reconfigurables • un algoritmo evolutivo como AE que busca configuraciones candidatas del array usando un conjunto de funcionalidades de procesamiento para los nodos disponible en una biblioteca accesible en tiempo de ejecución • un RE hardware que explota la capacidad de reconfiguración nativa de las FPGAs haciendo un uso eficiente de los recursos reconfigurables del dispositivo para cambiar el comportamiento del CE en tiempo de ejecución • una biblioteca de elementos de procesamiento reconfigurables caracterizada por bitstreams parciales independientes de la posición, usados como el conjunto de configuraciones disponibles para los nodos de procesamiento del array Las contribuciones principales de esta tesis se pueden resumir en la siguiente lista: • Una plataforma evolutiva basada en FPGA para la auto-adaptación paramétrica y estructural de sistemas empotrados compuesta por un motor computacional (CE), un motor de adaptación (AE) evolutivo y un motor de reconfiguración (RE). Esta plataforma se ha desarrollado y particularizado para los casos de auto-adaptación paramétrica y estructural. • En cuanto a la auto-adaptación paramétrica, las contribuciones principales son: – Un motor computacional adaptable mediante registros que permite la adaptación paramétrica de los coeficientes de una implementación hardware adaptativa de un núcleo de DWT. – Un motor de adaptación basado en un algoritmo evolutivo desarrollado específicamente para optimización numérica, aplicada a los coeficientes de filtros wavelet en sistemas empotrados con recursos limitados. – Un núcleo IP de DWT auto-adaptativo en tiempo de ejecución para sistemas empotrados que permite la optimización online del rendimiento de la transformada para compresión de imágenes en entornos específicos de despliegue, caracterizados por tipos diferentes de señal de entrada. – Un modelo software y una implementación hardware de una herramienta para la construcción evolutiva automática de transformadas wavelet específicas. • Por último, en cuanto a la auto-adaptación estructural, las contribuciones principales son: – Un motor computacional adaptable mediante reconfiguración nativa de FPGAs caracterizado por una plantilla de array sistólico en dos dimensiones de nodos de procesamiento reconfigurables. Es posible mapear diferentes tareas de cómputo en el array usando una biblioteca de elementos sencillos de procesamiento reconfigurables. – Definición de una biblioteca de elementos de procesamiento apropiada para la síntesis autónoma en tiempo de ejecución de diferentes tareas de procesamiento de imagen. – Incorporación eficiente de la reconfiguración parcial dinámica (DPR) en sistemas de hardware evolutivo, superando los principales inconvenientes de propuestas previas como los circuitos reconfigurables virtuales (VRCs). En este trabajo también se comparan originalmente los detalles de implementación de ambas propuestas. – Una plataforma tolerante a fallos, auto-curativa, que permite la recuperación funcional online en entornos peligrosos. La plataforma ha sido caracterizada desde una perspectiva de tolerancia a fallos: se proponen modelos de fallo a nivel de CLB y de elemento de procesamiento, y usando el motor de reconfiguración, se hace un análisis sistemático de fallos para un fallo en cada elemento de procesamiento y para dos fallos acumulados. – Una plataforma con calidad de filtrado dinámica que permite la adaptación online a tipos de ruido diferentes y diferentes comportamientos computacionales teniendo en cuenta los recursos de procesamiento disponibles. Por un lado, se evolucionan filtros con comportamientos no destructivos, que permiten esquemas de filtrado en cascada escalables; y por otro, también se evolucionan filtros escalables teniendo en cuenta requisitos computacionales de filtrado cambiantes dinámicamente. Este documento está organizado en cuatro partes y nueve capítulos. La primera parte contiene el capítulo 1, una introducción y motivación sobre este trabajo de tesis. A continuación, el marco de referencia en el que se enmarca esta tesis se analiza en la segunda parte: el capítulo 2 contiene una introducción a los conceptos de auto-adaptación y computación autonómica (autonomic computing) como un campo de investigación más general que el muy específico de este trabajo; el capítulo 3 introduce la computación evolutiva como la técnica para dirigir la adaptación; el capítulo 4 analiza las plataformas de computación reconfigurables como la tecnología para albergar hardware auto-adaptativo; y finalmente, el capítulo 5 define, clasifica y hace un sondeo del campo del hardware evolutivo. Seguidamente, la tercera parte de este trabajo contiene la propuesta, desarrollo y resultados obtenidos: mientras que el capítulo 6 contiene una declaración de los objetivos de la tesis y la descripción de la propuesta en su conjunto, los capítulos 7 y 8 abordan la auto-adaptación paramétrica y estructural, respectivamente. Finalmente, el capítulo 9 de la parte 4 concluye el trabajo y describe caminos de investigación futuros. ABSTRACT Embedded systems have traditionally been conceived to be specific-purpose computers with one, fixed computational task for their whole lifetime. Stringent requirements in terms of cost, size and weight forced designers to highly optimise their operation for very specific conditions. However, demands for versatility, more intelligent behaviour and, in summary, an increased computing capability began to clash with these limitations, intensified by the uncertainty associated to the more dynamic operating environments where they were progressively being deployed. This brought as a result an increasing need for systems to respond by themselves to unexpected events at design time, such as: changes in input data characteristics and system environment in general; changes in the computing platform itself, e.g., due to faults and fabrication defects; and changes in functional specifications caused by dynamically changing system objectives. As a consequence, systems complexity is increasing, but in turn, autonomous lifetime adaptation without human intervention is being progressively enabled, allowing them to take their own decisions at run-time. This type of systems is known, in general, as selfadaptive, and are able, among others, of self-configuration, self-optimisation and self-repair. Traditionally, the soft part of a system has mostly been so far the only place to provide systems with some degree of adaptation capabilities. However, the performance to power ratios of software driven devices like microprocessors are not adequate for embedded systems in many situations. In this scenario, the resulting rise in applications complexity is being partly addressed by rising devices complexity in the form of multi and many core devices; but sadly, this keeps on increasing power consumption. Besides, design methodologies have not been improved accordingly to completely leverage the available computational power from all these cores. Altogether, these factors make that the computing demands new applications pose are not being wholly satisfied. The traditional solution to improve performance to power ratios has been the switch to hardware driven specifications, mainly using ASICs. However, their costs are highly prohibitive except for some mass production cases and besidesthe static nature of its structure complicates the solution to the adaptation needs. The advancements in fabrication technologies have made that the once slow, small FPGA used as glue logic in bigger systems, had grown to be a very powerful, reconfigurable computing device with a vast amount of computational logic resources and embedded, hardened signal and general purpose processing cores. Its reconfiguration capabilities have enabled software-like flexibility to be combined with hardware-like computing performance, which has the potential to cause a paradigm shift in computer architecture since hardware cannot be considered as static anymore. This is so, since, as is the case with SRAMbased FPGAs, Dynamic Partial Reconfiguration (DPR) is possible. This means that subsets of the FPGA computational resources can now be changed (reconfigured) at run-time while the rest remains active. Besides, this reconfiguration process can be triggered internally by the device itself. This technological boost in reconfigurable hardware devices is actually covered under the field known as Reconfigurable Computing. One of the most exotic fields of application that Reconfigurable Computing has enabled is the known as Evolvable Hardware (EHW), in which this dissertation is framed. The main idea behind the concept is turning hardware that is adaptable through reconfiguration into an evolvable entity subject to the forces of an evolutionary process, inspired by that of natural, biological species, that guides the direction of change. It is yet another application of the field of Evolutionary Computation (EC), which comprises a set of global optimisation algorithms known as Evolutionary Algorithms (EAs), considered as universal problem solvers. In analogy to the biological process of evolution, in EHW the subject of evolution is a population of circuits that tries to get adapted to its surrounding environment by progressively getting better fitted to it generation after generation. Individuals become circuit configurations representing bitstreams that feature reconfigurable circuit descriptions. By selecting those that behave better, i.e., with a higher fitness value after being evaluated, and using them as parents of the following generation, the EA creates a new offspring population by using so called genetic operators like mutation and recombination. As generations succeed one another, the whole population is expected to approach to the optimum solution to the problem of finding an adequate circuit configuration that fulfils system objectives. The state of reconfiguration technology after Xilinx XC6200 FPGA family was discontinued and replaced by Virtex families in the late 90s, was a major obstacle for advancements in EHW; closed (non publicly known) bitstream formats; dependence on manufacturer tools with highly limiting support of DPR; slow speed of reconfiguration; and random bitstream modifications being potentially hazardous for device integrity, are some of these reasons. However, a proposal in the first 2000s allowed to keep investigating in this field while DPR technology kept maturing, the Virtual Reconfigurable Circuit (VRC). In essence, a VRC in an FPGA is a virtual layer acting as an application specific reconfigurable circuit on top of an FPGA fabric that reduces the complexity of the reconfiguration process and increases its speed (compared to native reconfiguration). It is an array of computational nodes specified using standard HDL descriptions that define ad-hoc reconfigurable resources; routing multiplexers and a set of configurable processing elements, each one containing all the required functions, which are selectable through functionality multiplexers as in microprocessor ALUs. A large register acts as configuration memory, so VRC reconfiguration is very fast given it only involves writing this register, which drives the selection signals of the set of multiplexers. However, large overheads are introduced by this virtual layer; an area overhead due to the simultaneous implementation of every function in every node of the array plus the multiplexers, and a delay overhead due to the multiplexers, which also reduces maximum frequency of operation. The very nature of Evolvable Hardware, able to optimise its own computational behaviour, makes it a good candidate to advance research in self-adaptive systems. Combining a selfreconfigurable computing substrate able to be dynamically changed at run-time with an embedded algorithm that provides a direction for change, can help fulfilling requirements for autonomous lifetime adaptation of FPGA-based embedded systems. The main proposal of this thesis is hence directed to contribute to autonomous self-adaptation of the underlying computational hardware of FPGA-based embedded systems by means of Evolvable Hardware. This is tackled by considering that the computational behaviour of a system can be modified by changing any of its two constituent parts: an underlying hard structure and a set of soft parameters. Two main lines of work derive from this distinction. On one side, parametric self-adaptation and, on the other side, structural self-adaptation. The goal pursued in the case of parametric self-adaptation is the implementation of complex evolutionary optimisation techniques in resource constrained embedded systems for online parameter adaptation of signal processing circuits. The application selected as proof of concept is the optimisation of Discrete Wavelet Transforms (DWT) filters coefficients for very specific types of images, oriented to image compression. Hence, adaptive and improved compression efficiency, as compared to standard techniques, is the required goal of evolution. The main quest lies in reducing the supercomputing resources reported in previous works for the optimisation process in order to make it suitable for embedded systems. Regarding structural self-adaptation, the thesis goal is the implementation of self-adaptive circuits in FPGA-based evolvable systems through an efficient use of native reconfiguration capabilities. In this case, evolution of image processing tasks such as filtering of unknown and changing types of noise and edge detection are the selected proofs of concept. In general, evolving unknown image processing behaviours (within a certain complexity range) at design time is the required goal. In this case, the mission of the proposal is the incorporation of DPR in EHW to evolve a systolic array architecture adaptable through reconfiguration whose evolvability had not been previously checked. In order to achieve the two stated goals, this thesis originally proposes an evolvable platform that integrates an Adaptation Engine (AE), a Reconfiguration Engine (RE) and an adaptable Computing Engine (CE). In the case of parametric adaptation, the proposed platform is characterised by: • a CE featuring a DWT hardware processing core adaptable through reconfigurable registers that holds wavelet filters coefficients • an evolutionary algorithm as AE that searches for candidate wavelet filters through a parametric optimisation process specifically developed for systems featured by scarce computing resources • a new, simplified mutation operator for the selected EA, that together with a fast evaluation mechanism of candidate wavelet filters derived from existing literature, assures the feasibility of the evolutionary search involved in wavelets adaptation In the case of structural adaptation, the platform proposal takes the form of: • a CE based on a reconfigurable 2D systolic array template composed of reconfigurable processing nodes • an evolutionary algorithm as AE that searches for candidate configurations of the array using a set of computational functionalities for the nodes available in a run time accessible library • a hardware RE that exploits native DPR capabilities of FPGAs and makes an efficient use of the available reconfigurable resources of the device to change the behaviour of the CE at run time • a library of reconfigurable processing elements featured by position-independent partial bitstreams used as the set of available configurations for the processing nodes of the array Main contributions of this thesis can be summarised in the following list. • An FPGA-based evolvable platform for parametric and structural self-adaptation of embedded systems composed of a Computing Engine, an evolutionary Adaptation Engine and a Reconfiguration Engine. This platform is further developed and tailored for both parametric and structural self-adaptation. • Regarding parametric self-adaptation, main contributions are: – A CE adaptable through reconfigurable registers that enables parametric adaptation of the coefficients of an adaptive hardware implementation of a DWT core. – An AE based on an Evolutionary Algorithm specifically developed for numerical optimisation applied to wavelet filter coefficients in resource constrained embedded systems. – A run-time self-adaptive DWT IP core for embedded systems that allows for online optimisation of transform performance for image compression for specific deployment environments characterised by different types of input signals. – A software model and hardware implementation of a tool for the automatic, evolutionary construction of custom wavelet transforms. • Lastly, regarding structural self-adaptation, main contributions are: – A CE adaptable through native FPGA fabric reconfiguration featured by a two dimensional systolic array template of reconfigurable processing nodes. Different processing behaviours can be automatically mapped in the array by using a library of simple reconfigurable processing elements. – Definition of a library of such processing elements suited for autonomous runtime synthesis of different image processing tasks. – Efficient incorporation of DPR in EHW systems, overcoming main drawbacks from the previous approach of virtual reconfigurable circuits. Implementation details for both approaches are also originally compared in this work. – A fault tolerant, self-healing platform that enables online functional recovery in hazardous environments. The platform has been characterised from a fault tolerance perspective: fault models at FPGA CLB level and processing elements level are proposed, and using the RE, a systematic fault analysis for one fault in every processing element and for two accumulated faults is done. – A dynamic filtering quality platform that permits on-line adaptation to different types of noise and different computing behaviours considering the available computing resources. On one side, non-destructive filters are evolved, enabling scalable cascaded filtering schemes; and on the other, size-scalable filters are also evolved considering dynamically changing computational filtering requirements. This dissertation is organized in four parts and nine chapters. First part contains chapter 1, the introduction to and motivation of this PhD work. Following, the reference framework in which this dissertation is framed is analysed in the second part: chapter 2 features an introduction to the notions of self-adaptation and autonomic computing as a more general research field to the very specific one of this work; chapter 3 introduces evolutionary computation as the technique to drive adaptation; chapter 4 analyses platforms for reconfigurable computing as the technology to hold self-adaptive hardware; and finally chapter 5 defines, classifies and surveys the field of Evolvable Hardware. Third part of the work follows, which contains the proposal, development and results obtained: while chapter 6 contains an statement of the thesis goals and the description of the proposal as a whole, chapters 7 and 8 address parametric and structural self-adaptation, respectively. Finally, chapter 9 in part 4 concludes the work and describes future research paths.