13 resultados para Poesía argentina de los 90
em Universidad Politécnica de Madrid
Resumo:
En el planteamiento de las expectativas que los organismos de investigación universitaria de nuestro país pueden plantearse ante los próximos años, dos son los hechos básicos que han de tenerse en cuenta. Uno es, el obvio, de cuál es la situación en la que les gustaría encontrarse al comienzo de la década de los 90. Y el otro es el realista del análisis objetivo de su situación actual.
Resumo:
Desde mediados de los 90, gracias a las posibilidades de la World Wide Web, se liberó la cartografía de su dependencia del medio físico, posibilitando el acceso y visualización de millones de mapas almacenados en formatos gráficos a través de Internet. En este contexto, el papel de la Información Geográfica (IG) en la vida cotidiana adquirió relevancia en la medida que el acceso a la misma resultaba cada vez más fácil gracias a múltiples herramientas y aplicaciones para distribuir y acercar los mapas en distintos formatos a la sociedad en general. Sin embargo, dado que esa información enseguida pasaba a estar desactualizada, surgió una demanda desde distintos ámbitos (seguridad, medio ambiente transporte, servicios, etc.) y de la sociedad en general para disponer de la información más actual. Como respuesta a esta demanda, surgen las iniciativas denominadas Infraestructuras de Datos Espaciales (IDE). Estas iniciativas, mediante la acción coordinada de un conjunto de tecnologías, estándares, normas y políticas, brindan la posibilidad a los usuarios de acceder, a través de Internet, a IG actualizada producida por instituciones y organismos oficiales, en un marco colaborativo y sustentada en una estructura organizativa. En este contexto, el ámbito educativo no ha permanecido ajeno representando uno de los espacios más propicios para la difusión de las potencialidades y usos de las IDE. En esta tesis se propone la utilización de las IDE en el contexto educativo, específicamente en la Educación Secundaria Obligatoria (ESO). Utilizar las IDE en el contexto educativo implica asignarle un papel en el proceso de enseñanza-aprendizaje y en el marco de esta tesis se presentan los fundamentos teóricos que permiten afirmar que las IDE son un re-curso educativo que responde a las características de las Tecnologías de la Información y la Comunicación (TIC). Esto se explicita a través de un concepto más amplio que hemos denominado “recurso educativo TIC”. En este contexto se analizan las posibilidades que ofrece las IDE para alcanzar los objetivos de aprendizaje de asignaturas de la ESO relacionadas con IG y se identifican contenidos susceptibles de ser abordados utilizándolas. Por otra parte, atendiendo al modelo educativo del aprendizaje basado en competencias, se exponen las posibilidades y potencialidades que ofrecen las IDE para desarrollar la competencia digital. Una vez planteado el marco teórico se desarrollaron dos estrategias de formación y difusión de las IDE orientadas al profesorado de la ESO. En primer lugar, utilizando el Modelo de Diseño Instruccional ADDIE, se diseñaron, desarrollaron, implementaron y evaluaron tres cursos e-learning para el profesorado de ESO de las asignaturas Ciencias Sociales, Ciencias de la Naturaleza y Tecnología. En segundo lugar, con objetivo de complementar los resultados obtenidos de los cursos e-learning, se realizó una actividad en dos Institutos de Educación Secundaria orientada a difundir las IDE. La puesta en práctica de estas estrategias ofreció al profesorado la información necesaria sobre qué son las IDE y proporcionó ejemplos concretos de uso de las mismas en su asignatura, permitiéndoles disponer de los conocimientos e información para emitir una valoración sobre las posibilidades que ofrecen las IDE como un recurso educativo TIC. Since about the middle of the 1990 decade, owing to the potential of the World Wide Web, cartography freed itself from its dependence on its physical support, enabling the access and visualisation of millions of maps stored in graphical formats through the Internet. In this context, the role of Geographic Information (GI) in daily life became relevant in as much as its access turned out to be ever easier due to multiple tools and applications to distribute and bring maps in different formats closer to society in general. Yet, since the information available often became outdated, a demand for updated information arose from different specific fields (security, environment, transport, services, etc.) and from the general public. As a response to this demand, the so-called Spatial Data Infrastructure (SDI) initiatives arose which, through the coordinated action of a set of technologies, stan-dards, and policies, enabled users to access updated GI created by organisations and official institutions, through the Internet, within a cooperative framework and an organisational structure. In this context the educational world has not remained aloof, since it represented one of the most propitious scope for the dissemination of the potentials and uses of SDI. In this thesis the utilization of SDI in the educational context is proposed, specifically in the Spanish Compulsory Secondary Education (Educación Secundaria Obligatoria – ESO). This utilization implies assigning SDI a role in the teaching-learning process; here the theo-retical foundation is presented which allows asserting that SDI is an educational resource fitting in with the characteristics of the Information and Communication Technologies (ICT). This is made explicit by means of a broader concept we have called “ICT educa-tional resource”. The possibilities offered by SDI to reach the objective of learning ESO subjects related to GI are analyzed, and contents apt to be addressed by using them are identified. On the other hand, attending to the educational model of learning based on competences, the possibilities and potentials the SDI offer to develop the digital compe-tence are exposed. After having set forth the theoretical frame, two strategies of training and dissemination of SDI were developed, oriented to the ESO teaching staff. First, using the ADDIE Instruc-tional Design Model, three learning courses were designed, developed, implemented and evaluated for the ESO teaching staff in the subjects of Social Sciences, Natural Sciences and Technology. In the second place, with the purpose of supplementing the results ob-tained from the e-learning courses, an activity was carried out in two High Schools, ori-ented to disseminate the SDI. The implementation of these strategies offered the teaching staff the needed information concerning the SDI and provided specific instances of utilisa-tion thereof in their subject, thus enabling them to acquire the knowledge and information to issue an assessment of the possibilities the SDI offer as an ICT educational resource
Resumo:
Dos aspectos destacan entre los resultados más interesantes de la investigación en la década de los 90 en el campo de la ingeniería del conocimiento. Por un lado, se ha profundizado en el conocimiento sobre cómo las personas resuelven problemas. Esto se ha logrado por la vía empírica mediante un trabajo científico de observación, experimentación por medios computacionales y generalización. Como resultado de esta línea, actualmente se dispone de un primer conjunto de modelos formales, los llamados problem-solving methods (PSM), muy útiles en el campo de la ingeniería informática como plantillas de diseño que guían la construcción de nuevos sistemas. Por otro lado, como logro adicional en este campo de investigación, se ha creado un nuevo lenguaje descriptivo como complemento a las formas de representación tradicionales. Dicho lenguaje, que ha sido aceptado por un amplio número de autores, se sitúa en un mayor nivel de abstracción y permite la formulación de arquitecturas más complejas de sistemas basados en el conocimiento. Como autores que más han contribuido en este aspecto se pueden citar: Luc Steels que propuso los denominados componentes de la experiencia como forma de unificación de trabajos previos en este campo, Bob Wielinga, Guus Schreiber y Jost Breuker en el campo de metodologías de ingeniería del conocimiento y el equipo de Mark Musen respecto a herramientas. Dicho lenguaje descriptivo ha supuesto además el planteamiento de una nueva generación de herramientas software de ayuda a los técnicos desarrolladores para construcción de este tipo de sistemas. El propósito principal del presente texto es servir de base como fuente de información de ambos aspectos recientes del campo de la ingeniería del conocimiento. El texto está dirigido a profesionales y estudiantes del campo de la informática que conocen técnicas básicas tradicionales de representación del conocimiento. La redacción del presente texto se ha orientado en primer lugar para recopilar y uniformizar la descripción de métodos existentes en la literatura de ingeniería de conocimiento. Se ha elegido un conjunto de métodos representativo en este campo que no cubre la totalidad de los métodos existentes pero sí los más conocidos y utilizados en ingeniería del conocimiento, presentando una descripción detallada de carácter tanto teórico como práctico. El texto describe cada método utilizando una notación común a todos ellos, parcialmente basada en los estándares descriptivos seguidos por las metodologías más extendidas. Para cada método se incluyen algoritmos definidos de forma expresa para el presente texto con ejemplos detallados de operación. Ambos aspectos, la uniformización junto a la presentación detallada de la operación, suponen una novedad interesante respecto al estado actual de la literatura sobre este campo, lo que hace el texto muy adecuado para ser utilizado como libro de consulta como apoyo en la docencia de la asignatura de construcción de sistemas inteligentes.
Resumo:
Los modelos de desarrollo regional, rural y urbano arrancaron en la década de los 90 en Estados Unidos, modelando los factores relacionados con la economía que suministran información y conocimiento acerca de cómo los parámetros geográficos y otros externos influencian la economía regional. El desarrollo regional y en particular el rural han seguido diferentes caminos en Europa y España, adoptando como modelo los programas estructurales de la UE ligados a la PAC. El Programa para el Desarrollo Rural Sostenible, recientemente lanzado por el Gobierno de España (2010) no profundiza en los modelos económicos de esta economía y sus causas. Este estudio pretende encontrar pautas de comportamiento de las variables de la economía regional-rural, y como el efecto de distribución geográfica de la población condiciona la actividad económica. Para este propósito, y utilizando datos espaciales y económicos de las regiones, se implementaran modelos espaciales que permitan evaluar el comportamiento económico, y verificar hipótesis de trabajo sobre la geografía y la economía del territorio. Se utilizarán modelos de análisis espacial como el análisis exploratorio espacial y los modelos econométricos de ecuaciones simultáneas, y dentro de estas los modelos ampliamente utilizados en estudios regionales de Carlino-Mills- Boarnet. ABSTRACT The regional development models for rural and urban areas started in USA in the ´90s, modeling the economy and the factors involved to understand and collect the knowledge of how the external parameters influenced the regional economy. Regional development and in particular rural development has followed different paths in Europe and Spain, adopting structural programs defined in the EU Agriculture Common Policy. The program for Sustainable Rural Development recently implemented in Spain (2010) is short sighted considering the effects of the regional economy. This study endeavors to underline models of behavior for the rural and regional economy variables, and how the regional distribution of population conditions the economic activities. For that purpose using current spatial regional economic data, this study will implement spatial economic models to evaluate the behavior of the regional economy, including the evaluation of working hypothesis about geography and economy in the territory. The approach will use data analysis models, like exploratory spatial data analysis, and spatial econometric models, and in particular for its wide acceptance in regional analysis, the Carlino-Mills-Boarnet equations model.
Resumo:
La mosca mediterránea de la fruta, Ceratitis capitata (Wiedemann, 1824) (Diptera: Tephritidae), es una de las plagas de mayor incidencia económica en cítricos y otros frutales a nivel mundial. En España las medidas de control de esta plaga en cítricos, desde mediados de los 90 hasta 2009, se basaron principalmente en el monitoreo de las poblaciones y en la aplicación de tratamientos aéreos y terrestres con malatión cebo. Sin embargo, desde la retirada en la Unión Europea en 2009 de los productos fitosanitarios que contienen malatión, los insecticidas más utilizados para el control de esta plaga han sido lambda-cihalotrina y spinosad. En 2004-2005 se detectaron poblaciones españolas de C. capitata resistentes a malatión. Esta resistencia se ha asociado a una mutación (G328A) en la acetilcolinesterasa (AChE), a una duplicación del gen de la AChE (Ccace2) (una de las copias lleva la mutación G328A) y a resistencia metabólica mediada por esterasas (posiblemente aliesterasas). Sin embargo, cuando se secuenció la aliesterasa CcE7 en individuos de una línea resistente a malatión, no se encontró ninguna de las mutaciones (G137D y/o W251L/S/G) asociadas a resistencia en otras especies, si bien se encontraron otras mutaciones al compararlos con individuos de una línea susceptible. Asimismo, mediante la selección en laboratorio de una línea resistente a malatión (W-4Km) con lambda-cihalotrina, se ha podido obtener una línea resistente a lambda-cihalotrina (W-1K). Finalmente, se ha demostrado la capacidad de esta especie para desarrollar resistencia a spinosad mediante selección en laboratorio. Los múltiples mecanismos de resistencia identificados evidencian el potencial de esta especie para desarrollar resistencia a insecticidas con diferentes modos de acción. Los objetivos de esta tesis doctoral son: 1) evaluar la susceptibilidad de poblaciones españolas de campo de C. capitata a lambda-cihalotrina y dilucidar los mecanismos de resistencia en la línea W-1Kλ; 2) comparar la herencia, el coste biológico y la estabilidad de la resistencia a malatión mediada por la mutación G328A y la duplicación del gen Ccace2 (una de las copias lleva la mutación G328A); y 3) investigar el papel de las mutaciones identificadas en la aliesterasa CcαE7 en la resistencia a malatión. Estos estudios son de utilidad para el desarrollo de estrategias de manejo de la resistencia que puedan prevenir o retrasar la aparición de resistencia y aumentar la sostenibilidad de los insecticidas disponibles para el control de esta plaga. Nuestros resultados indican que las poblaciones españolas de C. capitata analizadas han desarrollado resistencia a lambda-cihalotrina. Los valores de CL50 estimados para las poblaciones recogidas en la Comunidad Valenciana, Cataluña y Andalucía oscilaron entre 129 ppm y 287 ppm, igualando o sobrepasando la concentración recomendada para los tratamientos de campo (125 ppm). Estos resultados contrastan con los obtenidos con tres poblaciones de campo recogidas en Túnez, cuya susceptibilidad fue similar a la de la línea control (C). La línea resistente a lambda-cihalotrina W-1K se continuó seleccionando en el laboratorio alcanzándose unos niveles de resistencia de 205 veces con respecto a la línea C, siendo su CL50 (4224 ppm) más de 30 veces superior a la concentración recomendada para los tratamientos de campo. Esta línea resistente mostró altos niveles de resistencia cruzada a deltametrina (150 veces) y a etofenprox (240 veces), lo que sugiere que el desarrollo de resistencia a lambda-cihalotrina podría comprometer la eficacia de otros piretroides para el control de esta plaga. Hemos demostrado que la resistencia de la línea W-1K a lambda-cihalotrina fue casi completamente suprimida por el sinergista PBO, lo que indica que las enzimas P450 desempeñan un papel muy importante en la resistencia a este insecticida. Sin embargo, tanto las moscas de la línea susceptible C como las de la línea resistente W-1K perdieron inmediatamente la capacidad de caminar (efecto “knock-down”) al ser tratadas tópicamente con lambda-cihalotrina, lo que sugiere que la resistencia no está mediada por alteraciones en la molécula diana (resistencia tipo “kdr”). La resistencia metabólica mediada por P450 fue analizada comparando la expresión de 53 genes CYP (codifican enzimas P450) de las familias CYP4, CYP6, CYP9 y CYP12 en adultos de la línea resistente W-1K y de la línea susceptible C. Nuestros resultados muestran que el gen CYP6A51 (número de acceso GenBank XM_004534804) fue sobreexpresado (13-18 veces) en la línea W-1K. Por otra parte, la expresión del gen CYP6A51 fue inducida tanto en adultos de la línea W-1K como de la línea C al ser tratados con lambda-cihalotrina. Sin embargo, no se obtuvieron diferencias significativas entre la línea susceptible C y la línea resistente W-1K al comparar la cantidad de P450 y la actividad NADPH-citocromo c reductasa presente en fracciones microsomales obtenidas a partir de abdómenes. Asimismo, no hemos podido correlacionar el metabolismo de deltametrina, estimado in vitro mediante la incubación de este insecticida con fracciones microsomales, con el nivel de resistencia a este piretroide observado en los bioensayos con la línea W-1K. Por otro lado, no se encontró ninguna alteración en la región promotora 5'UTR del gen CYP6A51 (-500 pb desde el inicio de la traducción) que pudiera explicar su sobreexpresión en la línea W-1K. Los datos obtenidos sugieren que la resistencia a lambda-cihalotrina en la línea W-1K está mediada por P450 y que la sobreexpresión de CYP6A51 puede desempeñar un papel importante, aunque se necesitan más evidencias para establecer una asociación directa de la resistencia con este gen. Hemos estudiado la herencia, el coste biológico y la estabilidad de la resistencia a malatión mediada por la mutación G328A y la duplicación del gen Ccace2 (una de las copias lleva la mutación G328A). La línea susceptible C, donde no se encuentra la mutación G328A (genotipo S/S), se cruzó con dos isolíneas establecidas para representar genotipos únicos correspondientes a los dos mecanismos de resistencia asociados a la molécula diana: 1) la isolínea 267Y (genotipo R/R) establecida a partir de una pareja que portaba la mutación G328A en homocigosis; 2) la isolínea 306TY (genotipo RS/RS) establecida a partir de una pareja que portaba en homocigosis la duplicación del gen Ccace2. No se realizaron cruces recíprocos, ya que mediante experimentos de hibridación in situ en cromosomas politénicos se pudo comprobar que el locus de la AChE y la duplicación (probablemente en tándem) se localizan en el cromosoma autosómico 2L. La susceptibilidad al malatión de los parentales resistentes (R/R o RS/RS) y susceptibles (S/S), los cruces F1 (S/R, S/RS y R/RS) y los retrocruzamientos indican que la resistencia a malatión es semi-dominante en ambos casos. Sin embargo, nuestros resultados no fueron concluyentes con respecto a la naturaleza monogénica de la resistencia a malatión en estas isolíneas. Por lo tanto, no podemos descartar que otros genes que contribuyan a la resistencia, además de la mutación G328A (isolínea 267Y) y de la duplicación del gen Ccace2 (isolínea 306TY), puedan haber sido seleccionados durante el proceso de selección de 267Y y 306TY. Varios parámetros biológicos fueron evaluados para determinar si estos dos mecanismos de resistencia a malatión suponen un coste biológico para los genotipos resistentes. Individuos con genotipo R/R mostraron un retraso en el tiempo de desarrollo de huevo a pupa, un peso de pupa reducido y una menor longevidad de los adultos, en comparación con los individuos con genotipo S/S. Sin embargo, el peso de pupa de los individuos con genotipo RS/RS fue similar al de los individuos S/S, y su desarrollo de huevo a pupa intermedio entre S/S y R/R. Estas diferencias en el coste biológico pueden estar relacionadas con la reducción de la eficiencia catalítica de la AChE mutada en los individuos R/R, y al efecto compensatorio que la copia no mutada del gen tiene en los individuos RS/RS que portan la duplicación. La estabilidad de la resistencia a malatión mediada por la mutación G328A y la duplicación se analizó mediante el seguimiento de los caracteres de resistencia en la progenie de retrocruzamientos S/R x R/R y S/RS x RS/RS a lo largo de varias generaciones en ausencia de presión de selección con insecticidas. Nuestros resultados muestran que la frecuencia del alelo que porta la mutación G328A disminuyó desde 67,5% en la primera generación del retrocruzamiento S/R x R/R (75% esperado, asumiendo segregación mendeliana y que sólo hay dos alelos: uno mutado y otro no mutado) a 12% después de 10 generaciones. Por el contrario, la frecuencia de la duplicación sólo disminuyó desde 75% en en la primera generación del retrocruzamiento S/RS x RS/RS (75% esperado, asumiendo segregación Mendeliana y que la duplicación segrega como un único alelo) a 50% en el mismo período, lo que indica que la duplicación es más estable que la mutación. Asimismo, se analizó la presencia de la mutación y de la duplicación en poblaciones de campo recogidas en seis localidades en 2004-2007, cuando todavía se usaba el malatión, y se comparó con poblaciones recogidas en los mismos campos en 2010, un año después de la prohibición del malatión en la Unión Europea. La frecuencia media del genotipo susceptible (S/S) aumentó del 55,9% en el período 2004-2007 a 70,8% en 2010, mientras que la frecuencia de los genotipos portadores de la mutación en homocigosis o heterocigosis (R/R y S/R) disminuyó del 30,4 al 9,2%, los que llevan la duplicación en homocigosis o heterocigosis (RS/RS y S/RS) aumentaron levemente desde 12,8 hasta 13,3%, y los que llevan a la vez la mutación y la duplicación (R/RS) también aumentaron del 1 al 6,7%. Estos resultados son consistentes con que la duplicación del gen Ccace2 (con una copia con la mutación G328A y la otra copia no mutada) es más ventajosa que la mutación G328A por si sola, ya que la duplicación mantiene los niveles de resistencia a la vez que limita el coste biológico. Para investigar la asociación entre la resistencia a malatión y las mutaciones encontradas previamente en CcE7, hemos generado isolíneas con mutaciones específicas seleccionadas por su ubicación próxima a la entrada al centro activo de la enzima. La isolínea Sm2 (procedente de una hembra heterocigota para la mutación V96L y un macho homocigoto para el alelo no mutado) mantuvo altos niveles de resistencia a malatión, incluso después de 30 generaciones sin presión de selección. Por el contrario, la isolínea 267Y (compuesta por individuos homocigotos para la mutación L267Y) y la línea 306TY (compuesta por individuos homocigotos para la doble mutación R306T-N307Y) mostraron una reducción significativa en los niveles de resistencia. También hemos encontrado que la resistencia a malatión de la línea Sm2 fue parcialmente revertida por DEF y TPP, y que Sm2 mostró una reducción significativa en la actividad MTB, como se ha descrito en otras especies que muestran resistencia específica a malatión mediada por aliesterases. Además, fue posible asociar la presencia de la mutación V96L en individuos de la línea Sm2 con supervivencia a una concentración discriminante de malatión (5,000 ppm) y con una baja actividad MTB. Estos resultados sugieren una posible relación entre la mutación V96L en la aliesterasa CcE7 y la resistencia a malatión, aunque todavía no se puede concluir que la resistencia es causada por esta mutación, siendo necesarios más estudios para comprobar su contribución a la resistencia. En conclusión, se ha encontrado por primera vez resistencia a lambda-cihalotrina en poblaciones de campo de C. capitata, y nuestros resultados indican que las P450 son el principal mecanismo de resistencia en la línea W-1K. Esta situación se suma al caso previamente descrito de resistencia en campo a malatión asociada a la mutación G328A, a la duplicación del gen Ccace2 (una de las copias lleva la mutación G328A) y a resistencia metabólica mediada por esterasas. Nuestros resultados también indican que la alteración de la molécula diana AChE parece ser responsable de un cierto nivel de resistencia a malatión en C. capitata, que puede ser estimada como aproximadamente 25-40 veces para la mutación G328A y 40-60 veces para la duplicación; mientras que la resistencia mediada por esterasas y que ha sido asociada en este estudio con la mutación V96L en CcE7 puede conferir un efecto multiplicativo (por un factor de 5 a 10) aumentando la resistencia a malatión a 200-400 veces. Por otra parte, hemos demostrado que los insectos resistentes que llevan la duplicación tienen un coste biológico menor y muestran una estabilidad mayor que aquellos con la mutación G328A en ausencia de presión de selección con insecticidas. Esto representa un escenario en el que los genotipos con la duplicación permanecerán en el campo en frecuencias bajas a moderadas, pero podrían ser seleccionados rápidamente si se utilizan malatión u otros insecticidas que muestren resistencia cruzada. Estos resultados tienen importantes implicaciones para los programas de manejo de la resistencia, ya que el repertorio de insecticidas eficaces para el control de C. capitata es cada vez más limitado. Además, la coexistencia de múltiples mecanismos de resistencia en poblaciones de campo ofrece el potencial para desarrollar resistencia frente a otros insecticidas disponibles para el control de esta plaga. Estrategias para de manejo de la resistencia basadas en la alternancia de insecticidas con diferentes modos de acción, y su combinación con otros métodos de control, deben ser implementadas para evitar el desarrollo de resistencia en campo. ABSTRACT The Mediterranean fruit fly (Medfly), Ceratitis capitata (Wiedemann, 1824) (Diptera: Tephritidae), is one of the most economically damaging pests of citrus and other fruit crops worldwide. Control measures in citrus crops in Spain from the mid 90's to 2009 were mainly based on field monitoring of population levels and aerial and ground treatments with malathion bait sprays. However, since the withdrawal of phytosanitary products containing malathion in the European Union in 2009, lambda-cyhalothrin and spinosad have become the most widely used insecticides for the control of this pest. Resistance to malathion was found in Spanish field populations of C. capitata in 2004-2005. This resistance has been associated with a mutation G328A in the acetylcholinesterase (AChE), a duplication of the AChE gene (Ccace2) (one of the copies bearing the mutation G328A), and metabolic resistance mediated by esterases (probably aliesterases). However, when the gene of the aliesterase CcE7 was sequenced in individuals from a malathion resistant strain of C. capitata, none of the known G137D and/or W251L/S/G mutations associated to resistance in other species were found, though other mutations were detected when compared with individuals from a susceptible strain. Noteworthy, a lambda-cyhalothrin resistant strain (W-1K) was obtained by selecting a field-derived malathion resistant strain (W-4Km) with lambda-cyhalothrin. Moreover, it has also been demonstrated the capacity of this species to develop resistance to spinosad by laboratory selection. The multiple resistance mechanisms identified highlight the potential of this species to develop resistance to insecticides with different modes of action. The objectives of this PhD Thesis are: 1) to assess the susceptibility of Spanish field populations of C. capitata to lambda-cyhalothrin and to elucidate the resistance mechanisms in the W-1Kλ strain; 2) to compare the inheritance, fitness cost and stability of the malathion resistance mediated by the G328A mutation and the duplication of the Ccace2 gene (with one of the copies bearing the mutation G328A); and 3) to investigate the role of the aliesterase CcαE7 mutations in malathion resistance. All these studies will be of use for devising proactive resistance management strategies that could prevent or delay resistance development and would increase the sustainability of the insecticides available for Medfly control. Our results indicate that Spanish field populations of C. capitata have developed resistance to lambda-cyhalothrin. The LC50 values estimated for populations collected at Comunidad Valenciana, Cataluña and Andalucía ranged from 129 ppm to 287 ppm, equaling or overpassing the recommended concentration for field treatments (125 ppm). These results contrast with those obtained with three different Tunisian field populations, whose susceptibility was similar to that of the control (C) strain. The lambda-cyhalothrin resistant W-1K strain has been further selected to achieve a 205-fold resistance compared to the C strain, being its LC50 (4,224 ppm) more than 30 times higher than the recommended concentration for field applications. This resistant strain showed high levels of cross-resistance to deltamethrin (150-fold) and etofenprox (240-fold), suggesting that the development of resistance to lambda-cyhalothrin may compromise the effectiveness of other pyrethroids for the control of this species. We have shown that the resistance of the W-1K strain to lambda-cyhalothrin was almost completely suppressed by the synergist PBO, indicating that P450 enzymes play a very important role in resistance to this insecticide. However, both susceptible C and resistant W-1K flies were knocked down after topical treatment with lambda-cyhalothrin, suggesting that kdr resistance mediated by alterations of the target site is not playing a major role. Metabolic resistance mediated by P450 was further analyzed by comparing the expression of 53 genes of the families CYP4, CYP6, CYP9 and CYP12 in adults flies from the resistant W-1K and the susceptible C strains. We found that the gene CYP6A51 (GenBank accession number XM_004534804) was overexpressed (13-18-fold) in the W-1K strain. Moreover, the expression of the CYP6A51 gene was induced when adults of the W-1K and C strains were treated with lambda-cyhalothrin. However, no significant differences were obtained between susceptible C and resistant W-1K strains for the quantity of P450 and for the activity of NADPH- cytochrome c reductase measured in microsomal fractions obtained from abdomens. Moreover, we failed to correlate the metabolism of deltamethrin, analyzed in vitro by incubating this insecticide with microsomal fractions, with the resistance level against this pyrethroid observed in bioassays with W-1K. The sequencing of the 5´UTR region of the CYP6A51 gene failed in finding an alteration in the promoter region (-500 bp from translation start site) that could explain overexpression in the W-1K strain. All data obtained suggest that resistance to lambda-cyhalothrin in the W- 1K strain is mediated by P450 and that overexpression of CYP6A51 may play a major role, although further evidences are needed to establish a direct association of resistance with this gene. We have studied the inheritance, fitness cost and stability of the malathion resistance mediated by the G328A mutation and the duplication of the Ccace2 gene (with one of the copies bearing the mutation G328A). The malathion-susceptible C strain where the G328A mutation is not found (S/S genotype) was crossed with two isolines established to represent unique genotypes corresponding to the two target-site resistance mechanisms: 1) the 267Y isoline (genotype R/R) was established from a couple bearing the mutation G328A in homozygosis; and 2) the 306TY isoline (genotype RS/RS) was established from a couple being homozygous for the duplication of the Ccace2 gene. Reciprocal crosses have not been performed, since in situ hybridization on polythene chromosomes showed that the AChE locus and the duplication (most probably in tandem) are placed at the autosomal chromosome 2L. Mortality responses to malathion of resistant isolines (R/R or RS/RS) and susceptible (S/S) genotypes, F1 crosses (S/R, S/RS, and R/RS), and the back-crosses indicated that resistance to malathion is inherited as a semi-dominant trait in both cases. However, our results were not conclusive about the monogenic nature of the resistance to malathion in these isolines. Thus, we can not discard that other genes contributing to resistance, in addition to the mutation G328A (isoline 267Y) and the duplication of the Ccace2 gene (isoline 306TY), may have been selected during the selection process of 267Y and 306TY. Several biological parameters were evaluated to determine if these two malathion resistance mechanisms impose a fitness cost for resistant genotypes. Individuals with genotype R/R have a reduced fitness in terms of developmental time from egg to pupa, pupal weight and adult longevity, when compared to susceptible individuals (genotype S/S). Interestingly, the fitness cost was substantially diminished in individuals with genotype RS/RS. These differences in fitness may be related to the reduction of the catalytic efficiency of mutated AChE in individuals R/R, and the compensatory effect that the non-mutated copy of the gene has on individuals RS/RS bearing the duplication. The stability of malathion reistance associated with the mutation G328A or the duplication was analyzed by following these resistant traits in the progeny of the back-crosses S/RS x RS/RS and S/R x R/R over consecutive generations in the absence of insecticide selection pressure. Our results show that the frequency of the allele bearing the mutation G328A decreased from 67.5% at the first generation of the back-cross S/R x R/R (75% expected, assuming Mendelian segregation and that there are only two alleles: one mutated and the other non-mutated) to 12% after 10 generations. By contrast, the frequency of the duplication only declined from 75% at the first generation of the back-cross S/RS x RS/RS (75% expected, assuming Mendelian segregation and that the duplication segregates as an unique allele) to 50% in the same period, indicating that the duplication is more stable than the mutation. The presence of the mutation and the duplication was analyzed in field populations collected in six localities in 2004-2007, when malathion was still used, and compared to populations collected in the same fields in 2010, one year after the prohibition of malathion in the European Union. The average frequency of the susceptible genotype (S/S) increased from 55.9% in the period 2004-2007 to 70.8% in 2010, whereas the frequency of those genotypes carrying the mutation in homozygosis or heterozygosis (R/R and S/R) declined from 30.4 to 9.2%, those carrying the duplication in homozygosis or heterozygosis (RS/RS and S/RS) increased slightly from 12.8 to 13.3%, and those carrying both the mutation and the duplication (R/RS) also increased from 1 to 6.7%. These results are consistent with the duplication of the Ccace2 gene (with one of the copies bearing the mutation G328A and the other copy non-mutated) being more advantageous than the G328A mutation alone by maintaining resistance while restoring part of the fitness. In order to investigate the association of malathion resistance with mutations previously found in the aliesterase CcE7, we have generated isolines bearing specific mutations selected by their putative location near the upper part of the active site gorge of the enzyme. The isoline Sm2 (originating from a female heterozygous for the mutation V96L and a male homozygous for the non-mutated allele) kept high levels of resistance to malathion, even after 30 generations without selection pressure. On the contrary, the isoline 267Y (composed by individuals homozygous for the mutation L267Y) and the strain 306TY (composed by homozygous for the double mutation R306T-N307Y) showed a significant reduction in the levels of resistance. We have found also that resistance to malathion in the Sm2 isoline was partially reverted by DEF and TPP, and that Sm2 showed a significant reduction in MTB activity, as reported for other species showing malathion-specific resistance mediated by aliesterases. Besides, it was possible to associate the presence of the mutation V96L in individuals from the Sm2 isoline with both survival to a discriminating concentration of malathion (5,000 ppm) and low MTB activity. Our results point out to a possible connection betwen the mutation V96L in the aliesterase CcE7 and resistance to malathion, though we can not yet conclude that the resistance is caused by the mutation, being needed further work to understand its contribution to resistance. In conclusion, resistance to lambda-cyhalothrin has been found for the first time in field populations of C. capitata, and metabolic resistance mediated by P450 appears to be the main resistance mechanism in the resistant strain W-1K. These findings add to the previously reported case of field resistance to malathion, associated to the G328A mutation and the duplication of the Ccace2 gene (with one of the copies bearing the mutation G328A) and to metabolic resistance mediated by esterases. Our results also indicate that altered target site AChE appears to be responsible for a certain level of resistance to malathion in C. capitata, that can be estimated as about 25-40-fold for the mutation G328A and 40-60-fold for the duplication; whereas metabolic resistance mediated by esterases and associated in this study with the mutation V96L in CcE7 may confer a multiplicative effect (by a factor of 5 to10) increasing malathion resistance to 200-400-fold. Moreover, we have shown that resistant insects carrying the duplication have better fitness and exhibit a higher stability than those with the mutation G328A in the absence of insecticide pressure. This represents a scenario where genotypes with the duplication will remain in the field at low to moderate frequencies, but could be rapidly selected if malathion or other insecticides showing cross-resistance are used. These findings have important implications for resistance management programs, as the repertoire of effective insecticides for C. capitata control is becoming very limited. Besides, multiple resistance mechanisms coexisting in field populations provide the potential to develop resistance to other available insecticides for the control of this pest. Appropriate resistance management strategies based on the alternation of insecticides with different modes of action, and their combination with other control methods, must then be implemented to avoid the evolution of resistance in the field.
Resumo:
Enrique Alarcón Álvarez responde a diversas preguntas sobre su vocación técnica y sus comienzos en el ejercicio de su profesión, su percepción de la Real Academia de Ingeniería y su papel en la misma, así como otros aspectos relativos a los Colegios Profesionales, el Espacio Europeo de Educación Superior y la situación de la ingeniería en España. Ya que en los momentos en que se realiza la entrevista es el Presidente de la Real Academia de Ingeniería muchas preguntas giran respecto a esta institución: las iniciativas surgidas en la década de los 90 que culminaron con su creación, los fines fundamentales a partir de los cuáles se crea y se estructura, sus relaciones con el ámbito docente, colegial, empresarial y con otras instituciones similares a nivel internacional.
Resumo:
El uso de la madera ha sido denostado en nuestro país en los últimos tiempos por diferentes razones. Sin embargo, se trata de un material empleado en construcción de viviendas desde tiempos prehistóricos. Una de las dificultades con las que se encontraba este material para su uso en construcción era la falta de normativa, la cual hasta hace casi 30 años era prácticamente inexistente. El desarrollo de la normativa sobre construcción con madera, y el avance que se ha producido en la tecnología del material, ha permitido que hoy día podamos disponer en el mercado de productos innovadores de madera. La madera contralaminada (Cross laminated timber o CLT), producto relativamente novedoso, data de inicios de los 90 en Centroeuropa donde desde comienzos de los 2000 ha experimentado un crecimiento notable como material de construcción. En los últimos tiempos, el CLT ha experimentado una expansión en países como Canadá o EE.UU., donde se plantean proyectos constructivos de incluso 30 plantas [1]. En España actualmente la construcción con CLT se plantea como una realidad, ya que no sólo se ejecutan proyectos sino que además somos fabricantes del producto, como es el caso de la empresa Egoin en Vizcaya.
Resumo:
La finalidad de esta investigación se enmarca dentro de los estudios sobre hormigones de presas llevados a cabo en el Laboratorio Central de Estructuras y Materiales del CEDEX. En España se han diagnosticado 18 obras afectadas tanto por la reacción álcali-sílice de tipo rápido como por la de tipo lento. Dos de de las obras, fabricadas con áridos graníticos, no presentan signos de deterioro pero en laboratorio se han hallado productos expansivos. En las 16 presas españolas restantes, el hormigón de 10 de ellas estaba fabricado con áridos graníticos, de las cuales, 7 están afectadas por la reacción de tipo lento. Sin embargo, en las clasificaciones internacionales de las rocas potencialmente reactivas se establece habitualmente que las rocas graníticas son inocuas o de reactividad muy baja. En los casos puntuales encontrados en la literatura, la reactividad de este tipo de áridos se encuentra frecuentemente asociada al cuarzo microcristalino que contienen y ocasionalmente se asocia esta reactividad también al cuarzo deformado y/o microfisurado. En la tesis doctoral de Víctor Daniel Lanza Fernández, también realizada en el CEDEX, se han tratado los áridos de reacción rápida, dando una descripción detallada de los componentes que intervienen en este tipo de reacción y presentando un ensayo eficaz para su detección en el laboratorio. La investigación desarrollada en la presente tesis doctoral se ha centrado en los áridos de reacción lenta, mucho menos estudiados. A partir del estudio bibliográfico realizado sobre este tipo de reacción se ha detectado ciertas lagunas, basadas principalmente en la falta de un método de detección en el laboratorio para los áridos de reacción lenta. No se ha encontrado un procedimiento en el estudio petrográfico que sea fiable y cuantificable para este tipo de áridos. El ensayo acelerado de barras de mortero, que para los áridos de reacción rápida supone un método rápido y fiable, falla en la detección de los áridos de reacción lenta al aplicar los límites normalizados. Si bien en publicaciones recientes se ha propuesto la posibilidad de ampliar el tiempo de tratamiento hasta los 90 días, la duración del ensayo es más larga de lo deseado. Para resolver estas lagunas, se han tomado áridos de obras reales afectadas por la reacción álcali-sílice (en algún caso también de las canteras de donde se extrajeron los áridos para la ejecución), con lo que la reactividad de estos áridos queda demostrada por su comportamiento en obra. Al objeto de aumentar la muestra de ensayo y utilizar también áridos inocuos, se han tomado muestras de canteras, tanto en uso como abandonadas. Sobre estos áridos se ha realizado una caracterización completa con los ensayos actualmente disponibles para el estudio de su reactividad con los álcalis del cemento: estudio petrográfico, ensayo acelerado de barras de mortero y Gel-Pat modificado. En la investigación se ha desarrollado una metodología de tinción de geles álcali-sílice para la cuantificación de los mismos en el interior de las barras de mortero. Se ha relacionado el volumen de gel generado en la reacción con la expansión producida, tanto para áridos lentos, como rápidos, estableciendo analogías y diferencias en el comportamiento de ambos. La cuantificación de este tipo de compuestos realizada en las barras de mortero, abre la posibilidad de estudiar la capacidad expansiva que presentan en testigos de hormigón de obras afectadas. Este dato podría ser una herramienta importante para el desarrollo de modelos matemáticos que puedan predecir el futuro comportamiento de las estructuras afectadas por la reacción álcali-sílice. La tinción ha sido asimismo utilizada para establecer un método de detección de áridos reactivos basado en el ensayo de Gel-Pat modificado. La metodología de detección propuesta para estos áridos es cuantitativa y proporciona los resultados en 14 días, suponiendo una ventaja importante sobre los métodos actuales, que permiten detectarlos en 90 días (de forma orientativa en 56 días). This research is part of the studies on durability of concrete dams carried out in the Laboratorio Central de Estructuras y Materiales of CEDEX during the last years. At the present time, 18 public works affected by alkali-silica reaction have been diagnosed in Spain. In 12 of them the concrete was mixed with granitic aggregates, 7 of which were damaged by the slow alkali-silica reaction, 3 by the rapid alkali-silica reaction and in the other 2 cases, although there was no visual evidence of the reaction in field, the laboratory tests showed the presence of expansive products inside the concrete. However, in the international classifications of potentially reactive aggregates granitic rocks are pointed out as innocuous or as low reactivity and usually their reactivity is attributed to the presence of microcrystalline quartz and occasionally with the strained and microcracked quartz. The rapid reactive aggregates were deeply studied in a previous research (Víctor Daniel Lanza’s Thesis) also carried out in CEDEX. In this research, a detailed description of the components involved in the rapid alkali-silica reaction was given. Also, a fast method to detect them in the laboratory was developed. The research of the present PhD Thesis is focused in the slow-reactive aggregates, much less studied. The state of the art has shown some gaps in the knowledge about this reaction, mainly the absence of a reliable method to detect slow-reactive aggregates. On one side, there is no systematic and quantitative petrographic test for these aggregates. On the other side, the accelerated mortar bar test has been proved to be effective to detect rapid reactive aggregates but the standard limits fail in the detection of the slowreactive aggregates. In recent investigations it has been proposed extending the test until 90 days, but this period is considered too long. In this research, aggregates taken from affected structures have been used in the test, so their reactivity has been shown in practice. With the aim of increasing the number of samples aggregates from quarries have been also used. A method to stain alkali-silica gels has been applied to mortar bars, thereby quantifying the volume of gel generated inside. This volume has been related to the expansion of the bars, both for rapid for slow reactive aggregates, establishing similarities and differences. The quantification of the gel volume, applied to concrete cores extracted from affected structures, could be an important tool in mathematical models to predict the future behaviour of the structures affected by the alkali-silica reaction. The staining method has been also used to develop a method to detect slow reactive aggregates, based on the optimised Gel-Pat test, obtaining results in 14 days. This represents a major improvement compared to the actual methods (accelerated mortar bar test) which give an indicative value of reactivity at 56 days, and a final result at 90 days.
Resumo:
El sector del vino se enfrenta a nuevas oportunidades de mercado, debido a la creciente liberalización y globalización del comercio, a las que hay que unir mayores retos, como la competencia en aumento de nuevos actores y el descenso del consumo en los países productores tradicionales. Para hacer frente a esta competencia en mercados emergentes, así como a la saturación de los tradicionales, las estrategias de diferenciación se hacen cada vez más necesarias. La industria vitivinícola española, incluida en un modelo tradicional de producción, también ha sufrido con la aparición en el mercado internacional de nuevos países productores y requiere de procesos de reestructuración de la producción y estrategias innovadoras en el comercio. En España existe un claro desajuste entre oferta y demanda, con descensos en el consumo interno, que apenas cubre la sexta parte de la producción, con la eliminación de los apoyos públicos de regulación y con aumentos continuados de las cosechas. Por ello, la vía más relevante para mantener la rentabilidad del sector es la exportación, aumentando considerablemente el volumen exportado, pero también mejorando el valor de los envíos. Esta situación, sin duda, exige adaptar la oferta española a la demanda global y requiere del conocimiento de los mercados de destino y del diseño de estrategias adecuadas para alcanzar el objetivo marcado. Estados Unidos es un importador neto de vino, debido al incremento de la demanda, que desde 2013 le hizo convertirse en el mayor consumidor mundial en volumen. Este consumo en expansión no es cubierto por la producción interna, y los vinos importados adquieren un creciente interés para el consumidor estadounidense. España tiene tasas de incremento significativas en este destino, pero sus cuotas de mercado aún se sitúan en niveles inferiores a las de muchos países competidores y el consumidor medio estadounidense no tiene un elevado conocimiento del vino español, por lo que existe una gran capacidad de crecimiento. En este contexto, se plantea la necesidad de examinar el comportamiento de la demanda de EE.UU. frente a los atributos del vino español. Identificar y analizar las características que la demanda estadounidense, como mercado de exportación, considera relevantes en el vino español de calidad diferenciada, procedente de distintas regiones productoras, y posteriormente determinar su grado de importancia, de manera que se puedan plantear herramientas para la toma de decisiones empresariales y para la definición de estrategias comerciales, por parte de productores, exportadores y distribuidores vitivinícolas. El análisis de precios hedónicos, metodología ampliamente utilizada en el sector, trata de explicar la decisión de compra de determinado producto en base a una combinación de sus atributos, además de estimar el precio implícito de cada uno de ellos. Por tanto, este enfoque resulta indicado y ha sido el empleado para proporcionar a los operadores del lado de la oferta la posibilidad de comprobar los beneficios previstos de sus inversiones, comparándolos con los costes asociados a dicho esfuerzo inversor. La estimación hedónica se realiza sobre una muestra representativa de exportaciones de bodegas españolas, obtenida de una guía especializada de EE.UU. de amplia difusión en dicho mercado. Se realizan análisis tanto para el conjunto de la muestra, como para los distintos segmentos de precio (super premium, popular premium y ultra premium), y de ellos se deriva que seis grupos de variables presentan influencia sobre la apreciación del consumidor: añada, categoría comercial (grado de envejecimiento y vinos boutique), nota de calidad, origen, tipo de vino (según su color) y tamaño de la bodega. Cualquier decisión empresarial adoptada respecto a alguno de estos atributos es relevante respecto al posicionamiento del vino en el mercado estadounidense. Al margen de determinadas particularidades y del origen del vino, que presenta conductas diferentes según el segmento de precios, se observa un comportamiento similar de la demanda respecto a cada grupo de variables en los distintos tramos del mercado. Por otro lado, es necesario señalar que el rango super premium es el de mayor complejidad a la hora de tomar decisiones y en el que se dan un mayor número de posibilidades de actuación a la hora de posicionar el producto, ya que es en el que un mayor número de parámetros resulta de interés para el consumidor. El comprador estadounidense presta gran atención a la categoría del vino, siendo el factor más influyente sobre el precio de manera general. La demanda estadounidense valora de un modo importante el grado de envejecimiento de los vinos, así como su posicionamiento en precios altos que reflejen características específicas, como ocurre en los vinos boutique, especialmente apreciados en el segmento ultra premium. En este sentido, sería pertinente analizar los costes asociados a procurar a los vinos, en el caso de ser aptos para ello, un mayor envejecimiento o para elaborar un vino boutique dirigido a este mercado, o bien centrar las exportaciones en este tipo de vinos, para comprobar si se obtienen mayores beneficios con estas operaciones. Se presentan como excepción los vinos calificados como crianza que se equiparan a los vinos jóvenes o presentan peor apreciación, por lo que puede no resultar rentable un envejecimiento del vino hasta esa categoría. Por otro lado, se observa en los dos tramos inferiores de precio, que el consumidor estadounidense sabe apreciar las oportunidades de encontrar un vino de calidad en un precio inferior al esperado, por lo que aparecen oportunidades para establecer estrategias de comercialización, vía ofertas o promociones, para penetrar en el mercado. El factor exclusividad, medido a través del tamaño de la bodega, puede servir como instrumento de diferenciación comercial en EE.UU. al presentar valor añadido para la demanda, que aprecia en mayor medida los vinos elaborados por microempresas, frente a los de grandes empresas, que obtienen los peores resultados. En los vinos super premium crece la importancia de este factor, frente al tramo inferior donde el peso de las decisiones recae en otros parámetros. En ultra premium, la demanda relaciona más el factor exclusividad con la categoría boutique y no tanto con el menor tamaño de la empresa. En cuanto al tipo de vino, resulta el atributo menos relevante para el consumidor a la hora de tomar una decisión de compra, e incluso no es significativo en el segmento inferior de precios. Por tanto, las bodegas podrían tratar de introducirse en el mercado popular premium sin atender al color del vino como aspecto clave. De manera general, los vinos tintos presentan una mayor valoración frente a los blancos y rosados, teniendo estos últimos consideración negativa para el cliente. El origen del vino es relevante en las elecciones del consumidor y tiene utilidad como elemento diferenciador. Por tanto, la localización de una bodega puede favorecer o perjudicar su penetración en EE.UU. Resulta interesante que, en el tramo superior de precios, gran parte de las apreciaciones sobre los distintos orígenes son positivas, lo que va en favor de la asociación de los vinos españoles a un cierto factor prestigio y con la generación de una buena imagen general. Sin embargo, no hay muchas procedencias significativas en este estrato, por lo que son necesarios mayores esfuerzos promocionales y de posicionamiento, para ampliar el conocimiento y aceptación por el mercado de EE.UU. y mejorar así el citado factor prestigio. De manera global, la mejor valoración por la demanda se produce en los orígenes del norte de la península, mientras que la submeseta sur, zonas colindantes y Aragón tienen apreciaciones negativas. En este sentido, hay determinados orígenes, como Yecla, Utiel-Requena, Cariñena, Vinos de la Tierra de Castilla o, especialmente, Valdepeñas, que han de modificar sus estrategias de promoción, si existieran, o emprender trabajos intensos en esta línea. Por otro lado, se muestra que la mayor penetración de mercado ayuda a un mayor conocimiento y a una mejor valoración por parte del cliente. Las denominaciones de origen Rioja, Ribera de Duero, Priorat, Penedès, Rueda y Toro, orígenes con elevada presencia en la muestra, son reconocidas positivamente. Excepciones a esta afirmación, DO Navarra y Rías Baixas, deben aumentar la promoción y replantear las estrategias de posicionamiento, ya que el consumidor no parece predispuesto a comprar un vino de estas procedencias por encima de determinado nivel de precio. Finalmente, se destaca que hay orígenes, como DO Campo de Borja o IGP Vino de la Tierra de Castilla y León, con mayor valoración a mayor precio, por lo que deberían aprovechar esta percepción de buena calidad para penetrar en el mercado, especialmente en los tramos superiores de precio. En general, el consumidor estadounidense considera la añada como un factor de media relevancia en la toma de decisiones, con menos importancia en ultra premium que entre los vinos del segmento inferior y medio. En todos los análisis hay coincidencia en la mejor valoración de las últimas añadas, hecho que puede guardar relación con el aumento de la presencia y del mayor conocimiento de los vinos españoles en EE.UU. En cualquier caso, no resultaría interesante la exportación de vinos de años de cosecha antiguos, especialmente en los tramos más baratos de precios, dado que su valor puede no verse recompensado. Finalmente indicar que el mercado estadounidense tiene gran consideración, y de manera directamente proporcional, por la nota de calidad otorgada por expertos, más notablemente a medida que aumenta el precio, y la obtención de las máximas calificaciones puede suponer una apreciación significativa, mientras que una nota situada en los valores inferiores será considerada negativamente y prácticamente del mismo modo por el consumidor. Por tanto, para el elaborador del vino resultaría muy relevante obtener una de las máximas calificaciones, ya que sólo a partir de los 90 puntos se consigue un impacto positivo considerable, que permita rentabilizar los esfuerzos inversores realizados a tal fin.
Resumo:
El objetivo de esta tesis es el diseño de una metodología que permita una valoración objetiva del funcionamiento o de la posible puesta en servicio de una vía de alta ocupación en un corredor congestionado. Las vías de alta ocupación surgen en Estados Unidos en la década de los 60 y no ha sido hasta muy entrada la década de los 90, cuando se ha pensado que estas vías de alta ocupación podían ser una solución a los problemas de congestión en el entorno europeo. La experiencia que se hereda de los casos americanos es importante, pero está inmersa en un marco con características sensiblemente diferentes a las europeas. Es por ello, que la primera labor que se ha realizado en esta tesis es la elaboración del marco conceptual y teórico adecuado, necesario para el correcto planteamiento de una metodología de evaluación. La revisión y el análisis, tanto de los planes de evaluación existentes, como de las propuestas desarrolladas en la literatura, unido a la clarificación del marco conceptual inherente a las vías de alta ocupación, ponen de relieve la necesidad de completar la práctica existente con herramientas que permitan cuantificar y valorar de manera adecuada, el funcionamiento o la puesta en servicio de una vía de alta ocupación. Sabiendo que el objetivo fundamental de una vía de alta ocupación es la reducción del número de usuarios del vehículo privado con un solo ocupante a modos de alta ocupación, y que este objetivo tiene necesariamente que estar en consonancia con las directrices de la actual política europea de transportes, se propone una metodología de cuatro fases que complementa a la práctica habitual y que la adapta al contexto europeo (sin olvidar que ya existe una labor previa en este aspecto, debido a la puesta en servicio de la vía de alta ocupación de la carretera N-VI de Madrid). Los objetivos de la metodología propuesta se centran en el estudio de la redistribución modal que debe producir la vía de alta ocupación desde el vehículo privado con un solo ocupante hacia los modos de alta ocupación (modos compartidos y transporte público), haciendo especial hincapié en las características necesariamente diferentes de los modos compartidos. El método de evaluación propuesto se articula en cuatro fases y se centra en la obtención (por medio de las tres primeras fases) de tres parámetros que van a regir la valoración positiva de la vía: el cambio modal neto (CMN), la estabilidad temporal del cambio (ETC) y las condiciones de operación en las vías convencionales (COV). El CMN indica si la vía de alta ocupación ha contribuído a la formación de los modos compartidos, el ETC indica si esta formación es una relación causal y el COV indica si se ha producido una contribución positiva al logro de una movilidad sostenible. Las posibles combinaciones derivadas de los valores de estos parámetros proporcionan a la Administración responsable una valoración objetiva de la vía de alta ocupación. El método de evaluación propone también, en función de estas combinaciones, las medidas más adecuadas a adoptar, bien para el logro de una mejora en las condiciones existentes, bien para el mantenimiento de las mismas. La aplicación práctica de esta metodología al caso de la vía de alta ocupación de la carretera N-VI, demuestra la validez, tanto de la metodología propuesta como de los parámetros que la sustentan. No obstante, se identifican una serie de limitaciones y consideraciones a matizar y que dan a pie a futuras líneas de investigación.
Resumo:
Los sistemas empotrados han sido concebidos tradicionalmente como sistemas de procesamiento específicos que realizan una tarea fija durante toda su vida útil. Para cumplir con requisitos estrictos de coste, tamaño y peso, el equipo de diseño debe optimizar su funcionamiento para condiciones muy específicas. Sin embargo, la demanda de mayor versatilidad, un funcionamiento más inteligente y, en definitiva, una mayor capacidad de procesamiento comenzaron a chocar con estas limitaciones, agravado por la incertidumbre asociada a entornos de operación cada vez más dinámicos donde comenzaban a ser desplegados progresivamente. Esto trajo como resultado una necesidad creciente de que los sistemas pudieran responder por si solos a eventos inesperados en tiempo diseño tales como: cambios en las características de los datos de entrada y el entorno del sistema en general; cambios en la propia plataforma de cómputo, por ejemplo debido a fallos o defectos de fabricación; y cambios en las propias especificaciones funcionales causados por unos objetivos del sistema dinámicos y cambiantes. Como consecuencia, la complejidad del sistema aumenta, pero a cambio se habilita progresivamente una capacidad de adaptación autónoma sin intervención humana a lo largo de la vida útil, permitiendo que tomen sus propias decisiones en tiempo de ejecución. Éstos sistemas se conocen, en general, como sistemas auto-adaptativos y tienen, entre otras características, las de auto-configuración, auto-optimización y auto-reparación. Típicamente, la parte soft de un sistema es mayoritariamente la única utilizada para proporcionar algunas capacidades de adaptación a un sistema. Sin embargo, la proporción rendimiento/potencia en dispositivos software como microprocesadores en muchas ocasiones no es adecuada para sistemas empotrados. En este escenario, el aumento resultante en la complejidad de las aplicaciones está siendo abordado parcialmente mediante un aumento en la complejidad de los dispositivos en forma de multi/many-cores; pero desafortunadamente, esto hace que el consumo de potencia también aumente. Además, la mejora en metodologías de diseño no ha sido acorde como para poder utilizar toda la capacidad de cómputo disponible proporcionada por los núcleos. Por todo ello, no se están satisfaciendo adecuadamente las demandas de cómputo que imponen las nuevas aplicaciones. La solución tradicional para mejorar la proporción rendimiento/potencia ha sido el cambio a unas especificaciones hardware, principalmente usando ASICs. Sin embargo, los costes de un ASIC son altamente prohibitivos excepto en algunos casos de producción en masa y además la naturaleza estática de su estructura complica la solución a las necesidades de adaptación. Los avances en tecnologías de fabricación han hecho que la FPGA, una vez lenta y pequeña, usada como glue logic en sistemas mayores, haya crecido hasta convertirse en un dispositivo de cómputo reconfigurable de gran potencia, con una cantidad enorme de recursos lógicos computacionales y cores hardware empotrados de procesamiento de señal y de propósito general. Sus capacidades de reconfiguración han permitido combinar la flexibilidad propia del software con el rendimiento del procesamiento en hardware, lo que tiene la potencialidad de provocar un cambio de paradigma en arquitectura de computadores, pues el hardware no puede ya ser considerado más como estático. El motivo es que como en el caso de las FPGAs basadas en tecnología SRAM, la reconfiguración parcial dinámica (DPR, Dynamic Partial Reconfiguration) es posible. Esto significa que se puede modificar (reconfigurar) un subconjunto de los recursos computacionales en tiempo de ejecución mientras el resto permanecen activos. Además, este proceso de reconfiguración puede ser ejecutado internamente por el propio dispositivo. El avance tecnológico en dispositivos hardware reconfigurables se encuentra recogido bajo el campo conocido como Computación Reconfigurable (RC, Reconfigurable Computing). Uno de los campos de aplicación más exóticos y menos convencionales que ha posibilitado la computación reconfigurable es el conocido como Hardware Evolutivo (EHW, Evolvable Hardware), en el cual se encuentra enmarcada esta tesis. La idea principal del concepto consiste en convertir hardware que es adaptable a través de reconfiguración en una entidad evolutiva sujeta a las fuerzas de un proceso evolutivo inspirado en el de las especies biológicas naturales, que guía la dirección del cambio. Es una aplicación más del campo de la Computación Evolutiva (EC, Evolutionary Computation), que comprende una serie de algoritmos de optimización global conocidos como Algoritmos Evolutivos (EA, Evolutionary Algorithms), y que son considerados como algoritmos universales de resolución de problemas. En analogía al proceso biológico de la evolución, en el hardware evolutivo el sujeto de la evolución es una población de circuitos que intenta adaptarse a su entorno mediante una adecuación progresiva generación tras generación. Los individuos pasan a ser configuraciones de circuitos en forma de bitstreams caracterizados por descripciones de circuitos reconfigurables. Seleccionando aquellos que se comportan mejor, es decir, que tienen una mejor adecuación (o fitness) después de ser evaluados, y usándolos como padres de la siguiente generación, el algoritmo evolutivo crea una nueva población hija usando operadores genéticos como la mutación y la recombinación. Según se van sucediendo generaciones, se espera que la población en conjunto se aproxime a la solución óptima al problema de encontrar una configuración del circuito adecuada que satisfaga las especificaciones. El estado de la tecnología de reconfiguración después de que la familia de FPGAs XC6200 de Xilinx fuera retirada y reemplazada por las familias Virtex a finales de los 90, supuso un gran obstáculo para el avance en hardware evolutivo; formatos de bitstream cerrados (no conocidos públicamente); dependencia de herramientas del fabricante con soporte limitado de DPR; una velocidad de reconfiguración lenta; y el hecho de que modificaciones aleatorias del bitstream pudieran resultar peligrosas para la integridad del dispositivo, son algunas de estas razones. Sin embargo, una propuesta a principios de los años 2000 permitió mantener la investigación en el campo mientras la tecnología de DPR continuaba madurando, el Circuito Virtual Reconfigurable (VRC, Virtual Reconfigurable Circuit). En esencia, un VRC en una FPGA es una capa virtual que actúa como un circuito reconfigurable de aplicación específica sobre la estructura nativa de la FPGA que reduce la complejidad del proceso reconfiguración y aumenta su velocidad (comparada con la reconfiguración nativa). Es un array de nodos computacionales especificados usando descripciones HDL estándar que define recursos reconfigurables ad-hoc: multiplexores de rutado y un conjunto de elementos de procesamiento configurables, cada uno de los cuales tiene implementadas todas las funciones requeridas, que pueden seleccionarse a través de multiplexores tal y como ocurre en una ALU de un microprocesador. Un registro grande actúa como memoria de configuración, por lo que la reconfiguración del VRC es muy rápida ya que tan sólo implica la escritura de este registro, el cual controla las señales de selección del conjunto de multiplexores. Sin embargo, esta capa virtual provoca: un incremento de área debido a la implementación simultánea de cada función en cada nodo del array más los multiplexores y un aumento del retardo debido a los multiplexores, reduciendo la frecuencia de funcionamiento máxima. La naturaleza del hardware evolutivo, capaz de optimizar su propio comportamiento computacional, le convierten en un buen candidato para avanzar en la investigación sobre sistemas auto-adaptativos. Combinar un sustrato de cómputo auto-reconfigurable capaz de ser modificado dinámicamente en tiempo de ejecución con un algoritmo empotrado que proporcione una dirección de cambio, puede ayudar a satisfacer los requisitos de adaptación autónoma de sistemas empotrados basados en FPGA. La propuesta principal de esta tesis está por tanto dirigida a contribuir a la auto-adaptación del hardware de procesamiento de sistemas empotrados basados en FPGA mediante hardware evolutivo. Esto se ha abordado considerando que el comportamiento computacional de un sistema puede ser modificado cambiando cualquiera de sus dos partes constitutivas: una estructura hard subyacente y un conjunto de parámetros soft. De esta distinción, se derivan dos lineas de trabajo. Por un lado, auto-adaptación paramétrica, y por otro auto-adaptación estructural. El objetivo perseguido en el caso de la auto-adaptación paramétrica es la implementación de técnicas de optimización evolutiva complejas en sistemas empotrados con recursos limitados para la adaptación paramétrica online de circuitos de procesamiento de señal. La aplicación seleccionada como prueba de concepto es la optimización para tipos muy específicos de imágenes de los coeficientes de los filtros de transformadas wavelet discretas (DWT, DiscreteWavelet Transform), orientada a la compresión de imágenes. Por tanto, el objetivo requerido de la evolución es una compresión adaptativa y más eficiente comparada con los procedimientos estándar. El principal reto radica en reducir la necesidad de recursos de supercomputación para el proceso de optimización propuesto en trabajos previos, de modo que se adecúe para la ejecución en sistemas empotrados. En cuanto a la auto-adaptación estructural, el objetivo de la tesis es la implementación de circuitos auto-adaptativos en sistemas evolutivos basados en FPGA mediante un uso eficiente de sus capacidades de reconfiguración nativas. En este caso, la prueba de concepto es la evolución de tareas de procesamiento de imagen tales como el filtrado de tipos desconocidos y cambiantes de ruido y la detección de bordes en la imagen. En general, el objetivo es la evolución en tiempo de ejecución de tareas de procesamiento de imagen desconocidas en tiempo de diseño (dentro de un cierto grado de complejidad). En este caso, el objetivo de la propuesta es la incorporación de DPR en EHW para evolucionar la arquitectura de un array sistólico adaptable mediante reconfiguración cuya capacidad de evolución no había sido estudiada previamente. Para conseguir los dos objetivos mencionados, esta tesis propone originalmente una plataforma evolutiva que integra un motor de adaptación (AE, Adaptation Engine), un motor de reconfiguración (RE, Reconfiguration Engine) y un motor computacional (CE, Computing Engine) adaptable. El el caso de adaptación paramétrica, la plataforma propuesta está caracterizada por: • un CE caracterizado por un núcleo de procesamiento hardware de DWT adaptable mediante registros reconfigurables que contienen los coeficientes de los filtros wavelet • un algoritmo evolutivo como AE que busca filtros wavelet candidatos a través de un proceso de optimización paramétrica desarrollado específicamente para sistemas caracterizados por recursos de procesamiento limitados • un nuevo operador de mutación simplificado para el algoritmo evolutivo utilizado, que junto con un mecanismo de evaluación rápida de filtros wavelet candidatos derivado de la literatura actual, asegura la viabilidad de la búsqueda evolutiva asociada a la adaptación de wavelets. En el caso de adaptación estructural, la plataforma propuesta toma la forma de: • un CE basado en una plantilla de array sistólico reconfigurable de 2 dimensiones compuesto de nodos de procesamiento reconfigurables • un algoritmo evolutivo como AE que busca configuraciones candidatas del array usando un conjunto de funcionalidades de procesamiento para los nodos disponible en una biblioteca accesible en tiempo de ejecución • un RE hardware que explota la capacidad de reconfiguración nativa de las FPGAs haciendo un uso eficiente de los recursos reconfigurables del dispositivo para cambiar el comportamiento del CE en tiempo de ejecución • una biblioteca de elementos de procesamiento reconfigurables caracterizada por bitstreams parciales independientes de la posición, usados como el conjunto de configuraciones disponibles para los nodos de procesamiento del array Las contribuciones principales de esta tesis se pueden resumir en la siguiente lista: • Una plataforma evolutiva basada en FPGA para la auto-adaptación paramétrica y estructural de sistemas empotrados compuesta por un motor computacional (CE), un motor de adaptación (AE) evolutivo y un motor de reconfiguración (RE). Esta plataforma se ha desarrollado y particularizado para los casos de auto-adaptación paramétrica y estructural. • En cuanto a la auto-adaptación paramétrica, las contribuciones principales son: – Un motor computacional adaptable mediante registros que permite la adaptación paramétrica de los coeficientes de una implementación hardware adaptativa de un núcleo de DWT. – Un motor de adaptación basado en un algoritmo evolutivo desarrollado específicamente para optimización numérica, aplicada a los coeficientes de filtros wavelet en sistemas empotrados con recursos limitados. – Un núcleo IP de DWT auto-adaptativo en tiempo de ejecución para sistemas empotrados que permite la optimización online del rendimiento de la transformada para compresión de imágenes en entornos específicos de despliegue, caracterizados por tipos diferentes de señal de entrada. – Un modelo software y una implementación hardware de una herramienta para la construcción evolutiva automática de transformadas wavelet específicas. • Por último, en cuanto a la auto-adaptación estructural, las contribuciones principales son: – Un motor computacional adaptable mediante reconfiguración nativa de FPGAs caracterizado por una plantilla de array sistólico en dos dimensiones de nodos de procesamiento reconfigurables. Es posible mapear diferentes tareas de cómputo en el array usando una biblioteca de elementos sencillos de procesamiento reconfigurables. – Definición de una biblioteca de elementos de procesamiento apropiada para la síntesis autónoma en tiempo de ejecución de diferentes tareas de procesamiento de imagen. – Incorporación eficiente de la reconfiguración parcial dinámica (DPR) en sistemas de hardware evolutivo, superando los principales inconvenientes de propuestas previas como los circuitos reconfigurables virtuales (VRCs). En este trabajo también se comparan originalmente los detalles de implementación de ambas propuestas. – Una plataforma tolerante a fallos, auto-curativa, que permite la recuperación funcional online en entornos peligrosos. La plataforma ha sido caracterizada desde una perspectiva de tolerancia a fallos: se proponen modelos de fallo a nivel de CLB y de elemento de procesamiento, y usando el motor de reconfiguración, se hace un análisis sistemático de fallos para un fallo en cada elemento de procesamiento y para dos fallos acumulados. – Una plataforma con calidad de filtrado dinámica que permite la adaptación online a tipos de ruido diferentes y diferentes comportamientos computacionales teniendo en cuenta los recursos de procesamiento disponibles. Por un lado, se evolucionan filtros con comportamientos no destructivos, que permiten esquemas de filtrado en cascada escalables; y por otro, también se evolucionan filtros escalables teniendo en cuenta requisitos computacionales de filtrado cambiantes dinámicamente. Este documento está organizado en cuatro partes y nueve capítulos. La primera parte contiene el capítulo 1, una introducción y motivación sobre este trabajo de tesis. A continuación, el marco de referencia en el que se enmarca esta tesis se analiza en la segunda parte: el capítulo 2 contiene una introducción a los conceptos de auto-adaptación y computación autonómica (autonomic computing) como un campo de investigación más general que el muy específico de este trabajo; el capítulo 3 introduce la computación evolutiva como la técnica para dirigir la adaptación; el capítulo 4 analiza las plataformas de computación reconfigurables como la tecnología para albergar hardware auto-adaptativo; y finalmente, el capítulo 5 define, clasifica y hace un sondeo del campo del hardware evolutivo. Seguidamente, la tercera parte de este trabajo contiene la propuesta, desarrollo y resultados obtenidos: mientras que el capítulo 6 contiene una declaración de los objetivos de la tesis y la descripción de la propuesta en su conjunto, los capítulos 7 y 8 abordan la auto-adaptación paramétrica y estructural, respectivamente. Finalmente, el capítulo 9 de la parte 4 concluye el trabajo y describe caminos de investigación futuros. ABSTRACT Embedded systems have traditionally been conceived to be specific-purpose computers with one, fixed computational task for their whole lifetime. Stringent requirements in terms of cost, size and weight forced designers to highly optimise their operation for very specific conditions. However, demands for versatility, more intelligent behaviour and, in summary, an increased computing capability began to clash with these limitations, intensified by the uncertainty associated to the more dynamic operating environments where they were progressively being deployed. This brought as a result an increasing need for systems to respond by themselves to unexpected events at design time, such as: changes in input data characteristics and system environment in general; changes in the computing platform itself, e.g., due to faults and fabrication defects; and changes in functional specifications caused by dynamically changing system objectives. As a consequence, systems complexity is increasing, but in turn, autonomous lifetime adaptation without human intervention is being progressively enabled, allowing them to take their own decisions at run-time. This type of systems is known, in general, as selfadaptive, and are able, among others, of self-configuration, self-optimisation and self-repair. Traditionally, the soft part of a system has mostly been so far the only place to provide systems with some degree of adaptation capabilities. However, the performance to power ratios of software driven devices like microprocessors are not adequate for embedded systems in many situations. In this scenario, the resulting rise in applications complexity is being partly addressed by rising devices complexity in the form of multi and many core devices; but sadly, this keeps on increasing power consumption. Besides, design methodologies have not been improved accordingly to completely leverage the available computational power from all these cores. Altogether, these factors make that the computing demands new applications pose are not being wholly satisfied. The traditional solution to improve performance to power ratios has been the switch to hardware driven specifications, mainly using ASICs. However, their costs are highly prohibitive except for some mass production cases and besidesthe static nature of its structure complicates the solution to the adaptation needs. The advancements in fabrication technologies have made that the once slow, small FPGA used as glue logic in bigger systems, had grown to be a very powerful, reconfigurable computing device with a vast amount of computational logic resources and embedded, hardened signal and general purpose processing cores. Its reconfiguration capabilities have enabled software-like flexibility to be combined with hardware-like computing performance, which has the potential to cause a paradigm shift in computer architecture since hardware cannot be considered as static anymore. This is so, since, as is the case with SRAMbased FPGAs, Dynamic Partial Reconfiguration (DPR) is possible. This means that subsets of the FPGA computational resources can now be changed (reconfigured) at run-time while the rest remains active. Besides, this reconfiguration process can be triggered internally by the device itself. This technological boost in reconfigurable hardware devices is actually covered under the field known as Reconfigurable Computing. One of the most exotic fields of application that Reconfigurable Computing has enabled is the known as Evolvable Hardware (EHW), in which this dissertation is framed. The main idea behind the concept is turning hardware that is adaptable through reconfiguration into an evolvable entity subject to the forces of an evolutionary process, inspired by that of natural, biological species, that guides the direction of change. It is yet another application of the field of Evolutionary Computation (EC), which comprises a set of global optimisation algorithms known as Evolutionary Algorithms (EAs), considered as universal problem solvers. In analogy to the biological process of evolution, in EHW the subject of evolution is a population of circuits that tries to get adapted to its surrounding environment by progressively getting better fitted to it generation after generation. Individuals become circuit configurations representing bitstreams that feature reconfigurable circuit descriptions. By selecting those that behave better, i.e., with a higher fitness value after being evaluated, and using them as parents of the following generation, the EA creates a new offspring population by using so called genetic operators like mutation and recombination. As generations succeed one another, the whole population is expected to approach to the optimum solution to the problem of finding an adequate circuit configuration that fulfils system objectives. The state of reconfiguration technology after Xilinx XC6200 FPGA family was discontinued and replaced by Virtex families in the late 90s, was a major obstacle for advancements in EHW; closed (non publicly known) bitstream formats; dependence on manufacturer tools with highly limiting support of DPR; slow speed of reconfiguration; and random bitstream modifications being potentially hazardous for device integrity, are some of these reasons. However, a proposal in the first 2000s allowed to keep investigating in this field while DPR technology kept maturing, the Virtual Reconfigurable Circuit (VRC). In essence, a VRC in an FPGA is a virtual layer acting as an application specific reconfigurable circuit on top of an FPGA fabric that reduces the complexity of the reconfiguration process and increases its speed (compared to native reconfiguration). It is an array of computational nodes specified using standard HDL descriptions that define ad-hoc reconfigurable resources; routing multiplexers and a set of configurable processing elements, each one containing all the required functions, which are selectable through functionality multiplexers as in microprocessor ALUs. A large register acts as configuration memory, so VRC reconfiguration is very fast given it only involves writing this register, which drives the selection signals of the set of multiplexers. However, large overheads are introduced by this virtual layer; an area overhead due to the simultaneous implementation of every function in every node of the array plus the multiplexers, and a delay overhead due to the multiplexers, which also reduces maximum frequency of operation. The very nature of Evolvable Hardware, able to optimise its own computational behaviour, makes it a good candidate to advance research in self-adaptive systems. Combining a selfreconfigurable computing substrate able to be dynamically changed at run-time with an embedded algorithm that provides a direction for change, can help fulfilling requirements for autonomous lifetime adaptation of FPGA-based embedded systems. The main proposal of this thesis is hence directed to contribute to autonomous self-adaptation of the underlying computational hardware of FPGA-based embedded systems by means of Evolvable Hardware. This is tackled by considering that the computational behaviour of a system can be modified by changing any of its two constituent parts: an underlying hard structure and a set of soft parameters. Two main lines of work derive from this distinction. On one side, parametric self-adaptation and, on the other side, structural self-adaptation. The goal pursued in the case of parametric self-adaptation is the implementation of complex evolutionary optimisation techniques in resource constrained embedded systems for online parameter adaptation of signal processing circuits. The application selected as proof of concept is the optimisation of Discrete Wavelet Transforms (DWT) filters coefficients for very specific types of images, oriented to image compression. Hence, adaptive and improved compression efficiency, as compared to standard techniques, is the required goal of evolution. The main quest lies in reducing the supercomputing resources reported in previous works for the optimisation process in order to make it suitable for embedded systems. Regarding structural self-adaptation, the thesis goal is the implementation of self-adaptive circuits in FPGA-based evolvable systems through an efficient use of native reconfiguration capabilities. In this case, evolution of image processing tasks such as filtering of unknown and changing types of noise and edge detection are the selected proofs of concept. In general, evolving unknown image processing behaviours (within a certain complexity range) at design time is the required goal. In this case, the mission of the proposal is the incorporation of DPR in EHW to evolve a systolic array architecture adaptable through reconfiguration whose evolvability had not been previously checked. In order to achieve the two stated goals, this thesis originally proposes an evolvable platform that integrates an Adaptation Engine (AE), a Reconfiguration Engine (RE) and an adaptable Computing Engine (CE). In the case of parametric adaptation, the proposed platform is characterised by: • a CE featuring a DWT hardware processing core adaptable through reconfigurable registers that holds wavelet filters coefficients • an evolutionary algorithm as AE that searches for candidate wavelet filters through a parametric optimisation process specifically developed for systems featured by scarce computing resources • a new, simplified mutation operator for the selected EA, that together with a fast evaluation mechanism of candidate wavelet filters derived from existing literature, assures the feasibility of the evolutionary search involved in wavelets adaptation In the case of structural adaptation, the platform proposal takes the form of: • a CE based on a reconfigurable 2D systolic array template composed of reconfigurable processing nodes • an evolutionary algorithm as AE that searches for candidate configurations of the array using a set of computational functionalities for the nodes available in a run time accessible library • a hardware RE that exploits native DPR capabilities of FPGAs and makes an efficient use of the available reconfigurable resources of the device to change the behaviour of the CE at run time • a library of reconfigurable processing elements featured by position-independent partial bitstreams used as the set of available configurations for the processing nodes of the array Main contributions of this thesis can be summarised in the following list. • An FPGA-based evolvable platform for parametric and structural self-adaptation of embedded systems composed of a Computing Engine, an evolutionary Adaptation Engine and a Reconfiguration Engine. This platform is further developed and tailored for both parametric and structural self-adaptation. • Regarding parametric self-adaptation, main contributions are: – A CE adaptable through reconfigurable registers that enables parametric adaptation of the coefficients of an adaptive hardware implementation of a DWT core. – An AE based on an Evolutionary Algorithm specifically developed for numerical optimisation applied to wavelet filter coefficients in resource constrained embedded systems. – A run-time self-adaptive DWT IP core for embedded systems that allows for online optimisation of transform performance for image compression for specific deployment environments characterised by different types of input signals. – A software model and hardware implementation of a tool for the automatic, evolutionary construction of custom wavelet transforms. • Lastly, regarding structural self-adaptation, main contributions are: – A CE adaptable through native FPGA fabric reconfiguration featured by a two dimensional systolic array template of reconfigurable processing nodes. Different processing behaviours can be automatically mapped in the array by using a library of simple reconfigurable processing elements. – Definition of a library of such processing elements suited for autonomous runtime synthesis of different image processing tasks. – Efficient incorporation of DPR in EHW systems, overcoming main drawbacks from the previous approach of virtual reconfigurable circuits. Implementation details for both approaches are also originally compared in this work. – A fault tolerant, self-healing platform that enables online functional recovery in hazardous environments. The platform has been characterised from a fault tolerance perspective: fault models at FPGA CLB level and processing elements level are proposed, and using the RE, a systematic fault analysis for one fault in every processing element and for two accumulated faults is done. – A dynamic filtering quality platform that permits on-line adaptation to different types of noise and different computing behaviours considering the available computing resources. On one side, non-destructive filters are evolved, enabling scalable cascaded filtering schemes; and on the other, size-scalable filters are also evolved considering dynamically changing computational filtering requirements. This dissertation is organized in four parts and nine chapters. First part contains chapter 1, the introduction to and motivation of this PhD work. Following, the reference framework in which this dissertation is framed is analysed in the second part: chapter 2 features an introduction to the notions of self-adaptation and autonomic computing as a more general research field to the very specific one of this work; chapter 3 introduces evolutionary computation as the technique to drive adaptation; chapter 4 analyses platforms for reconfigurable computing as the technology to hold self-adaptive hardware; and finally chapter 5 defines, classifies and surveys the field of Evolvable Hardware. Third part of the work follows, which contains the proposal, development and results obtained: while chapter 6 contains an statement of the thesis goals and the description of the proposal as a whole, chapters 7 and 8 address parametric and structural self-adaptation, respectively. Finally, chapter 9 in part 4 concludes the work and describes future research paths.
Resumo:
El capítulo 1 de esta tesis doctoral describe conceptos relativos a la ontología y a la arquitectura como, por ejemplo, la cuestión de “El lugar” o “Basho” o el espacio visto desde un punto de vista filosófico. En este capítulo se examinan las diferencias y similitudes entre la ideología oriental y la filosofía de occidente a lo largo de la historia y se esbozan los puntos comunes entre ambas en cuestiones que atañen al habitar. En el capítulo 2, estos conceptos se enumeran y ordenan y se extraen diferentes conclusiones en cuanto a la percepción de valores como el espacio o el vacío, fundamentales para entender la arquitectura y el paisaje en las culturas de Oriente y Occidente. El capítulo 3 describe el paisaje oriental y el jardín chino a modo de prólogo del de Japón. Este capítulo introduce al lector en la historia del jardín y explica las transformaciones que éste ha sufrido a lo largo de la historia de China. El capítulo 4 es una asimilación de los conceptos examinados en los capítulos 1,2 y 3 y en él se analizan los aspectos compositivos fundamentales del jardín chino y sus elementos como, por ejemplo, el centro, el límite, el agua o la montaña. El capítulo 5 consiste en una introducción al paisaje japonés que comienza con el estudio de su geografía, su lengua, su literatura y sus períodos históricos más importantes previos a la era moderna: la era primitiva “Jomon”, la era “Yayoi”, los tres Shogunatos y la Revolución Meiji. La segunda parte del capítulo 5 describe los jardines japoneses a lo largo de la historia tales como el jardín Karesansui, los jardines de Kioto o el arte del jardín Tatebana, entre otros. El capítulo 6 comienza con una copia del texto medieval japonés, “HOJOKI”. Al igual que en los capítulos 2 y 4, en el capítulo 6 se extraen los valores del capítulo anterior, esta vez, mediante un comentario de texto. En esencia, este libro demuestra la importancia de la “cabaña en la naturaleza” para la cultura japonesa, así como la relación del espacio doméstico y el jardín a lo largo de su historia. El capítulo 7 describe la evolución del paisaje de la ciudad china en paralelo a la evolución del paisaje urbano japonés que se desarrolla en el capítulo 9. El capítulo 8 es un nexo de unión entre los capítulos 7 y 9 puesto que explica las influencias paisajísticas y urbanas mutuas entre las culturas china y japonesa a lo largo de la historia como es el caso del trazado de las antiguas ciudades capitales chinas y japonesas o el de los paisajes y urbes proyectados sobre la topografía de Manchuria durante la ocupación japonesa de China. El capítulo 9 describe el paisaje japonés moderno, sus ciudades y sus paisajes interurbanos como, por ejemplo, el Tokai-do. A continuación describe la evolución de la arquitectura y el jardín japonés a lo largo del siglo XX, los principales movimientos de vanguardia, las circunstancias económicas que llevaron al país a la crisis de los 90 y la lenta recuperación económica posterior. Por último, este capítulo explica la destrucción del paisaje del norte tras El Gran Terremoto del Este del 2011 y su recuperación a corto plazo. El capítulo 10 se compone de tres entrevistas a tres figuras relevantes del mundo académico y de la arquitectura japonesa. Algunos de los temas que exponen son la arquitectura doméstica japonesa, el jardín y la naturaleza de esta cultura, la situación de la ciudad de Tokio o el rol del arquitecto en la sociedad contemporánea, entre otros. Además de estas cuestiones, se debate acerca de los recursos y la recuperación del país tras El Gran Terremoto del Este de Japón. Finalmente, el capítulo 11 consiste en un estudio en profundidad acerca del paisaje de la ciudad de Tokio y el espacio doméstico y el jardín en base a los conceptos estudiados en los capítulos 1 y 2 y en relación a los valores paisajísticos vistos en los capítulos 3,4,5 y 6, además de los temas urbanos y topográficos estudiados en los capítulos 7,8,9 y 10. En este capítulo se estudia la figura del sujeto individual y colectivo, el refugio, el jardín, las acciones urbanas del Machizukuri, el parque y la morfología y evolución de los barrios centrales de Tokio y sus espacios domésticos y parques y jardines vistos a través de los datos estadísticos proporcionados por el gobierno. Además, el texto estudia un total de 21 casos seleccionados y analizados a través de la comparación de cerca de 800 viviendas domésticas publicadas entre 1991 y 2011 en las revistas de gran prestigio nacional e internacional, Shinkenchiku Jutakutokushu y GA Houses. Tras el análisis de los casos de estudio, se extraen una serie de conclusiones y clasificaciones del jardín en el espacio doméstico del centro de Tokio en dicho periodo. Los últimos tres capítulos de la tesis doctoral se dividen en: una traducción al inglés del resumen y las conclusiones más importantes del capítulo 11 (capítulo 12) una conclusión y resumen homólogos en japonés (capítulo 13) y un cuaderno de dibujos a mano realizado por la autora sobre especies botánicas naturalizadas domésticas de la ciudad de Tokio (capítulo 14) ABSTRACT Chapter 1 of this Ph.D. thesis describes concepts related to ontology and architecture like the issue of “The place” in Japan, or “The space” as seen from a philosophic point of view. In this chapter, the differences between the essential ancient Asian ideology and the philosophical contemporary thought of the East are discussed, and at the same time the transcendental thought coming from the West is analysed and compared to both of them. In Chapter 2 these concepts are analysed specifically in the field of “inhabiting the domestic space” and the text fathoms the common points between Eastern and Western thought relating to the house and the garden. Chapter 3 describes the oriental landscape and garden of China as a prologue to that of Japan. This chapter starts with a brief description of the history of the garden in the East and the West and introduces the reader into the geography and changes that have taken place in China since the birth of its culture. Chapter 4 entails a brief assimilation of what has been deduced from chapters 1, 2 and 3. In this chapter the compositive and design aspects of the Chinese garden are described, aspects such as centre, limit, the element of the mountain, emptiness, water, and vision or the theatre. Chapter 5 is an introduction to the history of landscape and architecture in Japan that starts with a geographical insight into the country and with a short summary about the language, the primitive “Jomon” culture, the “Yayoi” era , the three Shogunates.and the Meiji Revolution. In the second part of chapter 5, the text describes Japanese gardens throughout history, for example the Karesansui garden, the history of Kyoto and its gardens, the garden in relationship with art and with Japanese literature or the art of Tatebana. Chapter 6 starts with a copy of the medieval text “HOJOKI” and discusses issues such as the meaning of “the hut in the nature” for Japanese culture and its relationship with the domestic space and the garden. Chapter 7 discusses the development of cities in the landscape in Chinese culture in parallel with an observation of the evolution of cities in Japanese culture and landscape. Chapter 8 is the crux of the Ph.D. research as it explains the mutual influences of landscape, urban planning, construction and architecture between Japan in China. Chapter 9 describes the Japanese urban planning since the very first urban developments and develops a study on the evolution of the Japanese cities and roads (like the Tokai-do) in the landscape. Also, it describes the reconstruction of the cities of Japan after the Second World War, the cultural vanguard movements, the economical circumstances that led to the Japan´ s economic crisis of the 90´s and the slow recovery of its economy. Also, at the end of this chapter, the text analyses the event of the Great East Japan Earthquake of 211. Chapter 10 of this Ph.D. research is composed of a number of interviews with architects and professors about architecture, nature in the domestic space, the role of the architect nowadays in addition to facts about energy and about the Great East Japan Earthquake . Finally, chapter 11 consists of a deep study concerning the current situation in the city of Tokyo and the relationship between its domestic spaces (dwellings) and gardens based on the philosophical values studied in chapters 1 and 2, aswell as the landscape values of the garden studied in chapters 3,4,5, and 6 plus the information about the cities in the landscape studied in chapters 7,8, 9 and 10. In this chapter the main goal is to study the human being, the refuge, the garden, the urban planning actions of Machizukuri, the park and the morphology and evolution of the central quarters of Tokyo and of its domestic spaces and parks seen through the statistical data provided by the Japanese government in the last decades. Also, the text provides a study on 21 cases selected and analysed through the comparison of around 800 domestic spaces designed in between 1991 and 2011 and published in “Shinkenchiku Jutakutokushu” and “GA Houses” magazines. After these study cases, a number of conclusions are developed and also a classification of the domestic garden in the center of Tokyo. The last three chapters of this Ph.D. work are divided in: the translation to English of the summary and main conclusions of chapter 11 of the research in Chapter 12, the translation to Japanese of the summary and main conclusions of chapter 11 of the research in Chapter 13, and a collection of hand-drawings done by the author about the botanical species found in the gardens of the domestic realms of Tokyo in Chapter 14.
Resumo:
EL AUTOR Y EL INTÉRPRETE. LE CORBUSIER Y AMANCIO WILLIAMS EN LA CASA CURUTCHET Esta Tesis Doctoral estudia las relaciones que se establecen entre el autor y el intérprete de una obra de arquitectura, en particular entre Charles Edouard Jeanneret “Le Corbusier” y Amancio Williams, como proyectista y director de obra respectivamente de la Casa Curutchet en La Plata, Argentina, entre los años 1948 y 1951. La hipótesis de trabajo formula que la actuación de los intérpretes adquiere tanta trascendencia como la de los autores a la hora de otorgar sentido a las obras de arquitectura y que la rigurosa interpretación de Amancio Williams en la Casa Curutchet ha resultado fundamental, no solamente para la realización de esta importante obra sino como testimonio de un preciso método de trabajo como intérprete del Movimiento Moderno. Se analizan los conceptos arquitectónicos desarrollados por el autor, su concepción del espacio en el mundo doméstico de la modernidad, para confrontarlos con la interpretación personal que realiza Amancio Williams, en el contexto de la época, que culmina con su representación en la obra construida. La Casa Curutchet en La Plata (Argentina) es la única vivienda proyectada por Le Corbusier construida en América, uno de sus más bellos y poéticos trabajos, y conjuntamente con el Carpenter Center de Cambridge en EEUU, una de las dos únicas obras proyectadas exclusivamente por el famoso arquitecto suizo que llegaron a materializarse en América. La complejidad del programa, resuelta por Le Corbusier en un periodo muy corto de tiempo con extraordinaria inteligencia y plasticidad, llegará a conformar uno de sus proyectos para vivienda más interesantes. Por sugerencia del propio Le Corbusier, Amancio Williams, uno de los más capaces e importantes exponentes de la arquitectura moderna en Latinoamérica, se hizo cargo de la responsabilidad de materializar la obra. En su estudio de Buenos Aires, realizó una cuidadosa comprensión de la documentación recibida, estudió la estructura y desarrolló modificaciones importantes, proyectó y desarrolló varias versiones de carpinterías y sus detalles, estudió la cocina, el vestíbulo, las instalaciones, iluminaciones naturales y artificiales, diseñó el equipamiento interior y decidió los acabados. Durante casi un año con un grupo de colaboradores, desarrolló una extensa documentación en croquis, esquemas y cuidadosos detalles a escala de construcción, constituida por más de 200 planos de gran formato hasta el momento inéditos, que se encuentran en su Archivo y que esta investigación saca a la luz.