41 resultados para Territorial Intelligence Community System
Resumo:
Large-scale transport infrastructure projects such as high-speed rail (HSR) produce significant effects on the spatial distribution of accessibility. These effects, commonly known as territorial cohesion effects, are receiving increasing attention in the research literature. However, there is little empirical research into the sensitivity of these cohesion results to methodological issues such as the definition of the limits of the study area or the zoning system. In a previous paper (Ortega et al., 2012), we investigated the influence of scale issues, comparing the cohesion results obtained at four different planning levels. This paper makes an additional contribution to our research with the investigation of the influence of zoning issues. We analyze the extent to which changes in the size of the units of analysis influence the measurement of spatial inequalities. The methodology is tested by application to the Galician (north-western) HSR corridor, with a length of nearly 670 km, included in the Spanish PEIT (Strategic Transport and Infrastructure Plan) 2005-2020. We calculated the accessibility indicators for the Galician HSR corridor and assessed their corresponding territorial distribution. We used five alternative zoning systems depending on the method of data representation used (vector or raster), and the level of detail (cartographic accuracy or cell size). Our results suggest that the choice between a vector-based and raster-based system has important implications. The vector system produces a higher mean accessibility value and a more polarized accessibility distribution than raster systems. The increased pixel size of raster-based systems tends to give rise to higher mean accessibility values and a more balanced accessibility distribution. Our findings strongly encourage spatial analysts to acknowledge that the results of their analyses may vary widely according to the definition of the units of analysis.
Resumo:
The concept of smartness of energy efficient products and systems from a business perspective has been investigated by several authors. The problem of understanding, designing, engineering and governing these technologies requires new concepts. The emergence of these modern technologies causes a myriad of interconnected systems, which are working together to satisfy the necessities of modern life. The problem of understanding, designing, engineering, and governing these technologies requires new concepts. Development of System of System Engineering (SoSE) is an attempt by the systems engineering and science community to fulfill this requirement.
Resumo:
Predicting failures in a distributed system based on previous events through logistic regression is a standard approach in literature. This technique is not reliable, though, in two situations: in the prediction of rare events, which do not appear in enough proportion for the algorithm to capture, and in environments where there are too many variables, as logistic regression tends to overfit on this situations; while manually selecting a subset of variables to create the model is error- prone. On this paper, we solve an industrial research case that presented this situation with a combination of elastic net logistic regression, a method that allows us to automatically select useful variables, a process of cross-validation on top of it and the application of a rare events prediction technique to reduce computation time. This process provides two layers of cross- validation that automatically obtain the optimal model complexity and the optimal mode l parameters values, while ensuring even rare events will be correctly predicted with a low amount of training instances. We tested this method against real industrial data, obtaining a total of 60 out of 80 possible models with a 90% average model accuracy.
Resumo:
Singular-value decomposition (SVD)-based multiple-input multiple output (MIMO) systems, where the whole MIMO channel is decomposed into a number of unequally weighted single-input single-output (SISO) channels, have attracted a lot of attention in the wireless community. The unequal weighting of the SISO channels has led to intensive research on bit- and power allocation even in MIMO channel situation with poor scattering conditions identified as the antennas correlation effect. In this situation, the unequal weighting of the SISO channels becomes even much stronger. In comparison to the SVD-assisted MIMO transmission, geometric mean decomposition (GMD)-based MIMO systems are able to compensate the drawback of weighted SISO channels when using SVD, where the decomposition result is nearly independent of the antennas correlation effect. The remaining interferences after the GMD-based signal processing can be easily removed by using dirty paper precoding as demonstrated in this work. Our results show that GMD-based MIMO transmission has the potential to significantly simplify the bit and power loading processes and outperforms the SVD-based MIMO transmission as long as the same QAM-constellation size is used on all equally-weighted SISO channels.
Resumo:
Acoplamiento del sistema informático de control de piso de producción (SFS) con el conjunto de equipos de fabricación (SPE) es una tarea compleja. Tal acoplamiento involucra estándares abiertos y propietarios, tecnologías de información y comunicación, entre otras herramientas y técnicas. Debido a la turbulencia de mercados, ya sea soluciones personalizadas o soluciones basadas en estándares eventualmente requieren un esfuerzo considerable de adaptación. El concepto de acoplamiento débil ha sido identificado en la comunidad de diseño organizacional como soporte para la sobrevivencia de la organización. Su presencia reduce la resistencia de la organización a cambios en el ambiente. En este artículo los resultados obtenidos por la comunidad de diseño organizacional son identificados, traducidos y organizados para apoyar en la solución del problema de integración SFS-SPE. Un modelo clásico de acoplamiento débil, desarrollado por la comunidad de estudios de diseño organizacional, es resumido y trasladado al área de interés. Los aspectos claves son identificados para utilizarse como promotores del acoplamiento débil entre SFS-SPE, y presentados en forma de esquema de referencia. Así mismo, este esquema de referencia es presentado como base para el diseño e implementación de una solución genérica de acoplamiento o marco de trabajo (framework) de acoplamiento, a incluir como etapa de acoplamiento débil entre SFS y SPE. Un ejemplo de validación con varios conjuntos de equipos de fabricación, usando diferentes medios físicos de comunicación, comandos de controlador, lenguajes de programación de equipos y protocolos de comunicación es presentado, mostrando un nivel aceptable de autonomía del SFS. = Coupling shop floor software system (SFS) with the set of production equipment (SPE) becomes a complex task. It involves open and proprietary standards, information and communication technologies among other tools and techniques. Due to market turbulence, either custom solutions or standards based solutions eventually require a considerable effort of adaptation. Loose coupling concept has been identified in the organizational design community as a compensator for organization survival. Its presence reduces organization reaction to environment changes. In this paper the results obtained by the organizational de sign community are identified, translated and organized to support the SFS-SPE integration problem solution. A classical loose coupling model developed by organizational studies community is abstracted and translated to the area of interest. Key aspects are identified to be used as promoters of SFS-SPE loose coupling and presented in a form of a reference scheme. Furthermore, this reference scheme is proposed here as a basis for the design and implementation of a generic coupling solution or coupling framework, that is included as a loose coupling stage between SFS and SPE. A validation example with various sets of manufacturing equipment, using different physical communication media, controller commands, programming languages and wire protocols is presented, showing an acceptable level of autonomy gained by the SFS.
Resumo:
Una de las características definitorias del sistema urbano contemporáneo es su desterritorialización, es decir, su adopción de un modelo de desarrollo que se da al margen del territorio concreto que lo sustenta y de los recursos biofísicos y culturales existentes en él. Dicha desterritorialización es posible gracias al uso intensivo de energía que ha permitido ampliar hasta la escala global los flujos del metabolismo urbano. De este modo se han roto las relaciones de proximidad urbano-rurales, y se ha aumentado la dependencia de recursos externos. Entre las diferentes manifestaciones de esta desterritorialización se encuentra la organización del sistema alimentario, que en la actualidad responde a un modelo globalizado, en el que la distancia entre producción y consumo ha aumentado a costa de incrementar el gasto energético en transporte y conservación de alimentos. Este distanciamento físico va acompañado también de un distanciamiento social e identario, con la hegemonía de un modelo agroindustrial que no respeta los paisajes, las prácticas agrícolas, los conocimientos tradicionales ni las variedades genéticas locales. Tanto el modelo territorial como el alimentario son altamente vulnerables ante crisis externas que pueden alterar su funcionamiento. El enfoque (bio)regionalista desde el mismo inicio de la ciudad industrial hasta nuestros días ha propuesto un modelo de ordenación territorial alternativo, adaptado a las condiciones locales y basado en la proximidad, que dotaría al sistema territorial de mayor resiliencia y sostenibilidad. Para confirmar este presupuesto y evaluar la capacidad de reterritorialización alimentaria se ha desarrollado una metodología que aborda el estudio del sistema territorial como socioecosistema complejo, en el que se distinguen componentes de tipo social, construido y biofísico, que se encuentran interrelacionados. La historia de cambios en la organización del sistema, su estado actual y su capacidad de reorganizarse en estados alternativos son las bases de dicha evaluación. Esta metodología se aplica a la Comunidad de Madrid con el fin de describir su sistema territorial desde el punto de vista del abastecimiento alimentario y evaluar su capacidad de reterritorialización. ABSTRACT Deterritorialization is one of the defining characteristics of the contemporary urban system. This means that its development model is designed ignoring the attributes of the specific region in which is located, and the biophysical and cultural resources therein. Such territorialization is possible due to the intensive energy consumption that allows expanding to a global scale the flows of urban metabolism. This way, urban-rural linkages have been broken, increasing dependency on external resources. The modern food system is among the clearest expressions of a deterritorialized model. In a globalized food system, increasing distances between production and consumption spaces are possible through energy-intensive transport and preservation activities. Physical distanciation goes hand in hand with social disconnection and loss of identity, due to a hegemonic agro-industrial model that does not respect local landscapes, agricultural practices, traditional knowledge or genetic varieties. Both the regional and the food systems are highly vulnerable to external shocks that may affect their functions. The bioregionalist approach has proposed, since the industrial city until today, an alternative model, adapted to local conditions and rooted on proximity, which provides a sustainable and resilient regional planning and management. To confirm this assumption and assess the food reterritorialisation capacity, a methodology has been developed that address the regional system as a complex social-ecosystem, in which interrelated social, built and biophysical subsystems are included. Assessment is based in the analysis of regimes shifts in the history of the system, and in the description of its current and alternative states. This methodology is applied to the administrative region of Madrid in order to describe its regional food system and assess its reterritorialization capacity.
Resumo:
El entorno alpino de los Grisones ha sido un laboratorio donde experimentar un método arquitectónico procedente de diversas fuentes durante los años 70 en la ETHZ. Este método ha producido durante las últimas tres décadas un discurso teórico propiamente suizo alemán. La tradición continúa siendo un valor cultural para la comunidad alpina de los Grisones, que apuesta por seguir relacionando la arquitectura con su historia y su paisaje. La especificidad de cada entorno suizo alemán es un hecho obvio pero, por encima de sus rasgos característicos, hay un denominador común que les da unidad en silencio: se trata de una idea de la construcción. El fenómeno de los Grisones es territorial en su localización concreta, pero comparte el trasfondo teórico del resto de la arquitectura suizo alemana reciente. La tesis recorre transversalmente las condiciones que han dado lugar a esa trayectoria común hasta la actualidad, en que la arquitectura suizo alemana se halla precisamente en un momento de cambio generacional. La obra de Peter Märkli constituye en esta tesis un paradigma de la voluntad suizo alemana por formar parte de la continuidad cultural de la arquitectura, como una actitud de resistencia compartida frente al mundo globalizado. La tesis se articula a partir de ocho proyectos recientes, realizados por arquitectos suizo alemanes en el entorno del territorio alpino de los Grisones. Estos proyectos condensan la trayectoria arquitectónica suizo alemana durante el siglo XX, así como el fenómeno arquitectónico que ha tenido lugar en el entorno de los Grisones durante las últimas tres décadas. La tesis analiza a través de cada pareja de proyectos los episodios teóricos, artísticos y filosóficos más relevantes que se sintetizan en estas obras, así como sus referentes arquitectónicos y la dimensión trascendente de los materiales en los que la cultura suiza hunde sus raíces: la madera, la piedra y el hormigón. Las vanguardias pictóricas, el Movimiento Moderno y las corrientes humanistas y regionalistas que se fueron sucediendo durante el pasado siglo, configuran el escenario en el que tomó cuerpo la sensibilidad arquitectónica suizo alemana reciente, que emerge a través de la compleja red de relaciones establecidas entre el panorama suizo y el internacional. El mismo bagaje teórico subyace al territorio suizo alemán a nivel general, por lo que asociarlo a través de esta tesis a proyectos realizados en un entorno característico, permite acceder a una realización concreta de ese debate en un entorno tan particular como son los Grisones. La aproximación a los proyectos es de carácter fenomenológico: la experiencia directa de los mismos ha sido el sustrato fundamental del enfoque de la tesis. El trabajo de campo no se limitó a visitar los proyectos que vertebran la tesis, sino que trató de abarcar las obras más relevantes de la producción suizo alemana reciente en los Grisones, con el fin de adquirir cierto grado de sensibilidad perceptiva hacia la singularidad de su identidad territorial. La tesis hace especial hincapié en las obras de Peter Märkli y Peter Zumthor, representantes de los dos extremos del discurso suizo alemán reciente, respecto a la materialidad y al carácter de la secuencia espacial, sistemático o fluido respectivamente, pero que asimismo comparten el clasicismo formalista que subyace al fenómeno suizo alemán. Los dos proyectos que establecen el periodo 1992-2004 explorado por esta investigación constituyen dos hitos fundamentales. El Museo de La Congiunta en Giornico de Peter Märkli se construyó en 1992 y se erige a partir de entonces como un icono arquitectónico de la condensación típicamente suizo alemana de base reductiva. Este paradigma de síntesis conceptual y constructiva comenzó a forjarse en la década de 1930 de la mano del Konkrete Kunst formulado por Max Bill, que es la única manifestación artística genuinamente suiza del siglo XX y que desarrolló pictóricamente los valores de precisión, rigor, racionalismo y abstracción afines a la sensibilidad suizo alemana. En segundo lugar, el proyecto para la rehabilitación de la Villa Garbald y la construcción de la Torre Roccolo en Castasegna llevado a cabo por Miller & Maranta en 2004, supuso la consumación de la Analoge Architektur, que fue la primera corriente arquitectónica propiamente suiza, desarrollada durante la década de 1980 por Miroslav Sik. La Deutscher Tendenza es un periodo de la trayectoria suizo alemana reciente poco conocido, representado por una figura tan relevante como es Peter Zumthor. Las obras que proyectó Zumthor entre 1979 y 1985 forman parte de un periodo en que el arquitecto se encontraba profundamente influido por el neorracionalismo italiano, como ilustra la escuela de Churwalden de 1983. La arquitectura suizo alemana reciente exploró sistemáticamente los sistemas compositivos de las vanguardias pictóricas y del Movimiento Moderno, por encima de su formalismo concreto. La segunda fase de la obra de Zumthor entre 1985 y 1996 se caracteriza por la transfiguración del plano libre del sistema compositivo neoplasticista desarrollado por De Stijl, plano que adquirió grosor hasta convertirse en la caja articuladora de la fluidez de la secuencia espacial. El formalismo de Zumthor en esta fase implica la prioridad del esquema compositivo, compuesto por un perímetro regular en el que se reúnen las cajas que, como las superficies de color de las composiciones de Mondrian, articulan el espacio a su alrededor. La Residencia de Masans de Zumthor de 1993 es un proyecto canónico de este sistema compositivo, que culmina en el esquema radial de las Termas de Vals de 1996. La imagen poética se convirtió en el lenguaje propio del pensamiento de la arquitectura suizo alemana, que permitía una reflexión no verbal, a partir de unos pocos arquetipos fundamentales. Los arquitectos del Ticino buscaron en la Tendenza italiana durante la década de 1970 una alternativa al insostenible modelo territorial que estaba destruyendo su paisaje cultural. Algunos de estos arquitectos comenzaron a dar clase durante esa década en la ETHZ, por lo que transmitieron sus inquietudes al alumnado e introdujeron a Aldo Rossi en la facultad, que era uno de los máximos representantes de la Tendenza. El método analógico de Rossi, basado en la psicología analítica de Carl Jung, fue una influencia fundamental en la ETHZ durante los años 70. Rossi partía de una teoría afín al colectivo intelectual suizo que los arquitectos de la ETHZ pronto comprendieron que debían independizar del contexto italiano, desarrollando su propio método a partir de 1985 con la Analoge Architektur. El valor de la preexistencia de acuerdo a este método incipiente se hallaba en su papel articulador de la continuidad cultural de una comunidad, que Miroslav Sik definió a partir de su concepto de Altneue (literalmente, lo Nuevo-Viejo). La fusión entre lo nuevo y lo viejo era la base de la espontaneidad con la que habían crecido los asentamientos históricamente. Sik consideraba que la continuidad dependía de la comprensión de los patrones preexistentes, con el objeto de mantener su vigencia mediante la incorporación de estrategias contemporáneas, que renovarían su significado sin perder su esencia. La Casa Gugalun en Versam de Zumthor de 1994 supone una aproximación a escala doméstica a este planteamiento. La arquitectura suizo alemana reciente a menudo busca en sus referentes plásticos una manera de explorar ámbitos poco accesibles para la disciplina arquitectónica. El pensamiento arquitectónico basado en la imagen poética se implementa a partir de la tectónica de la construcción, que es el medio para comunicar una idea vertebradora del proyecto de principio a fin. La construcción como medio introduce el concepto clave de la apariencia de la arquitectura, estrechamente relacionado con la filosofía idealista de Friedrich Schiller. La apariencia debe expresar el sentido conceptual de la obra, que los arquitectos suizo alemanes denominan idea, por lo que la construcción no tiene un valor por sí misma, sino en cuanto a la apariencia. La Capilla de Oberrealta de Christian Kerez de 1993 puede ser considerada una obra escultórica en el paisaje, más próxima a las artes plásticas que a la arquitectura. La tensión que surge entre la figura ideal y la pieza sometida a una sutil deformación confiere un carácter dinámico a la composición, que intensifica el efecto perceptivo, de acuerdo a la teoría del pensamiento visual de Rudolph Arnheim. La deformación al servicio de la psicología de la percepción es un fenómeno que caracteriza la arquitectura suizo alemana reciente. El concepto de Forme Forte (forma fuerte) fue introducido por Martin Steinmann para caracterizar el objeto arquitectónico denominado internacionalmente Swiss Box. Este concepto se caracteriza por una predilección por lo monolítico, lo unitario y lo arquetípico. La condición más sustancial de una Forme Forte es, sin embargo, la de configurar un elemento estructurador del entorno. Tanto la base morfológica de una Forme Forte, como su capacidad para estructurar el lugar, se corresponden con los conceptos de arquetipo y monumento de la teoría de Rossi. La tesis explora el sentido de la deformación en la producción suizo alemana reciente, a partir de la Escuela de Paspels de Valerio Olgiati de 1998 y la Torre Roccolo de Villa Garbald de Miller&Maranta de 1998. La teoría tectónica de Gottfried Semper y la razón de la forma de Adolf Loos constituyen el sustrato teórico, que relaciona la actividad existencial de habitar con la materialidad de la arquitectura suizo alemana reciente. La teoría tectónica de Semper fundamenta las revisiones posteriores de los sistemas constructivos tradicionales suizo alemanes. Esta influencia sirvió como base a la vanguardia suiza de la Neues Bauen, que desarrolló un racionalismo funcionalista durante las décadas de 1920 y 1930, que constituye una gramática de base no simbólica. Esta gramática constituye el fundamento de la transición del orden clásico a la materialidad como instrumento compositivo durante la segunda mitad del siglo XX, consolidando el concepto de la base material de la forma. La revisión de la tradición regionalista y racionalista llevada a cabo por la generación de arquitectos suizo alemanes de la década de 1950 y 1960, constituyó una investigación lingüística sustancial. Rudolph Olgiati es la figura determinante de este periodo. La revisión de esta investigación se codificó en clave estructuralista durante los años 70 en la ETHZ, influenciada por la presencia de Roland Barthes como profesor invitado. Esta revisión constituyó la base de la articulación tectónica propiamente suizo alemana todavía vigente, como ilustra expresamente la obra de Burkhalter&Sumi en esta tesis. La obra de Gion Caminada en Vrin entre 1995 y 2002 aporta una intensa investigación sobre el Strickbau, que implementa una y otra vez variaciones sobre un sistema tradicional, ilustrando las infinitas posibilidades que ofrece un lenguaje, paradójicamente limitado por los medios disponibles en un entorno alpino aislado. Para terminar Jürg Conzett es el ingeniero con el que han desarrollado sus proyectos la mayoría de los arquitectos en el entorno de los Grisones, formado durante 8 años con Zumthor y colaborador habitual de Caminada entre otros. Conzett es el referente que relaciona la ingeniería con la arquitectura en el ámbito de esta tesis, imprescindible en el contexto de esta investigación. ABSTRACT The Alpine setting of Grisons has been a laboratory for architectural experimentation with an approach forged in the 1970s from various sources in the Swiss Federal Institute of Technology in Zurich (ETHZ). This method has produced a uniquely German-Swiss theoretical discourse over the past three decades. Tradition continues to be a cultural value for Grisons, a region committed to continue linking its architecture with the region’s history and landscape. The specificity of the German-Swiss environment is obvious, but beyond its characteristic features, there is a common denominator that gives these settings a silent unity: it is an idea of building. The phenomenon of Grisons is geographic in its specific location, but it shares the theoretical basis of the rest of the new German-Swiss architecture. This thesis transversely delves into the conditions that have shaped this common path up to the present, just as German-Swiss architecture is going through a time of generational change. In this thesis, Märkli Peter's work constitutes a paradigm of the German-Swiss will to uphold the cultural and architectural continuity of the region, exemplifying an attitude of shared resistance to the globalized world. The thesis is structured around eight recent projects carried out by German-Swiss architects in the Alpine region of Grisons. These projects represent the trajectory of twentieth century German-Swiss architectural history, as well as the architectural phenomenon that has taken place in the environs of Grisons over the past three decades. Through these projects the thesis analyzes the most relevant theoretical, artistic and philosophical references that are synthesized in the works, as well as their architectural references and the transcendental dimension of the materials in which Swiss culture is rooted: wood, stone and concrete. The artistic avant-garde, together with Modernism and the humanistic and regional movements that occurred during the last century, set the stage for present-day German-Swiss architectural sensitivity, which emerges from a complex web of relationships established between the Swiss and international panorama. This same theoretical background and experience underlies all of the German-Swiss territory in general, so associating it through this thesis to a particular context allows the description of a specific embodiment of this debate, within the unique environment of Grisons. The methodological approach to analyzing the projects was phenomenological: direct experience is the main substrate underpinning the focus of the thesis. Field work was not limited to visiting the projects featured in the thesis, but rather encompassed the most important works of recent German-Swiss construction in the Grisons in order to gain some degree of perceptual sensitivity to the uniqueness of its territorial identity. The present paper puts special emphasis on the works of Peter Märkli and Peter Zumthor, who share the formal classicist perspective of the German-Swiss context but stand on opposite sides of the philosophical spectrum with regard to the notion of materiality and the nature of space, which they conceive as systematic or fluid, respectively. The two projects that establish the boundaries of the time period 1992–2004 explored by this research represent two key milestones. The Museum La Congiunta in Giornico, by Peter Märkli, was built in 1992 and quickly established itself as an architectural icon of German-Swiss reductionism. This paradigm of conceptual and constructive synthesis began to take shape in the 1930s under the banner of Konkrete Kunst (Concrete Art), led by Max Bill. The only genuinely Swiss artistic movement of the twentieth century, Konkrete Kunst was characterized by the artistic values of precision, rigor, rationalism and abstraction, sentiments that were very close to the German-Swiss tradition. Secondly, the project for the rehabilitation of Villa Garbald and the construction of the Roccolo Tower in Castasegna, conducted by Miller&Maranta in 2004, represented the consummation of the Analoge Architektur, which was the first truly Swiss architectural movement, spearheaded in the 1980s by Miroslav Sik. The Deutscher Tendenza is a little-known period of recent German-Swiss history, represented by the important figure of Peter Zumthor. The projects that Zumthor led between 1979 and 1985 are part of a period when Italian Neo-Rationalism exercised a profound influence on the architect, as illustrated by the Churwalden School, circa 1983. Recent German-Swiss architecture systematically explored the compositional systems of the artistic avant-garde and Modernism, beyond its specific formal aspects. The second phase of Zumthor's work, between 1985 and 1996, is characterized by the transfiguration of the free plane, neoplastic compositional system developed by De Stijl, a plane that thickened until it became the box articulating fluidity from the spatial sequence. Zumthor's formalism in this phase prioritizes the compositional scheme, consisting of a regular perimeter in which the boxes that -like Mondrian’s colored surfaces- arrange the space around it. Zumthor’s Masans Residence, circa 1993, is a canonical project of this compositional system, which culminates in the radial pattern of the Therme Vals, circa 1996. The poetic image became the appropriate language of thought for German-Swiss architecture, which invited a nonverbal reflection inspired by a few fundamental archetypes. The architects of Ticino sought, through the Italian Tendenza of the 1970s, an alternative to the unsustainable territorial model that was destroying their cultural landscape. Some of these architects began to teach during that decade at ETHZ, and naturally they transmitted their unease to their students. These architects also introduced Aldo Rossi, one of the leading representatives of the Tendenza, to the school. Rossi’s analogue method, based on the analytical psychology of Carl Jung, was a major influence on the ETHZ during the 1970s. Rossi’s theoretical grounding was very much in tune with Swiss intellectualism, and it did not take long for architects from ETHZ to realize that they should break away from the Italian context, developing their own method from 1985 on with the Analoge Architektur. The value of the pre-existing conformity of this emerging method, stemmed from its role in facilitating the cultural continuity of a community, which Miroslav Sik defined in his concept of Altneue (literally, Old-new). This fusion of old and new was the basis for the spontaneity with which settlements had historically grown. Sik considered that continuity depended on understanding the existing patterns and sustaining their relevance through the incorporation of contemporary strategies, which would renew their meaning without losing their essence. Zumthor’s Gugalun House in Versam, circa 1994, is a domestic-scale approach to this philosophy. Modern German-Swiss architecture often looks to its references in visual art for a way to explore areas that are normally inaccessible to the architectural discipline. Architectural thinking based on the poetic image is achieved through a building’s tectonics, which communicate the core idea of a project from start to finish. The understanding of construction as a medium introduces the key concept of the appearance in architecture, closely related to the idealistic philosophy of Friedrich Schiller. The appearance should express the conceptual meaning of the work, which German-Swiss architects call the idea, so that the building does not have value in and of itself, but only in terms of its appearance. The Oberrealta Chapel by Christian Kerez, circa 1993, can be considered a sculpture in the landscape, closer to the visual arts than to architecture. The tension that arises between the ideal figure and the piece subjected to a subtle deformation confers a dynamic character onto the composition, intensifying the perceptual effect, according to Rudolf Arnheim’s theory of visual thought. The deformation in the service of the psychology of perception is a phenomenon that characterizes recent German-Swiss architecture. Martin Steinmann introduced the Forme Forte (Strong Form) concept to describe the architectural object known internationally as the Swiss Box. This concept is characterized by a predilection for all things monolithic, unitary and archetypal. The most substantial condition of a Forme Forte, however, is the configuration of a structuring element in the environment. Both the morphological basis of a Forme Forte and its ability to frame the place, correspond to the concepts of archetype and monument put forward by Rossi’s theory. The present thesis explores the sense of deformation in recent German-Swiss production, based on the School of Paspels by Valerio Olgiati, circa 1998 and the Roccolo Tower in Villa Garbald, by Miller&Maranta, circa 1998. Gottfried Semper’s tectonic theory and Adolf Loos’s reason for form constitute the theoretical foundation that links the existential activity of dwelling to the materiality of recent German-Swiss architecture. Semper’s tectonic theory laid the foundation for subsequent revisions of the German-Swiss traditional building systems. This influence was the basis for the Swiss avant-garde of Neues Bauen, which developed a functional rationalism during the 1920s and 30s that served as a non-symbolic grammatical foundation for the transition from classical order to materiality as a compositional tool. During the second half of the twentieth century, this architectural grammar helped consolidate the concept of the material base of the form. The revision of the regionalist and rationalist tradition, carried out by the generation of German-Swiss architects of the 1950s and 60s, constituted a substantial linguistic investigation. Rudolph Olgiati is the key figure of this period. The research was codified in terms of structuralism in the 1970s in ETHZ and influenced by the presence of Roland Barthes as a visiting professor. This revision was the basis of the uniquely German-Swiss tectonic design still in use today, as specifically illustrated by the work of Burkhalter & Sumi in this thesis. Gion Caminada's work in Vrin between 1995 and 2002 offers an extensive study on the Strickbau, which implements variations on a traditional system again and again, illustrating the endless possibilities of a language that paradoxically seems limited by the available resources in a remote Alpine setting. Finally, Jürg Conzett is the engineer with whom most architects in the Grisons region have developed their projects. Trained under Zumthor for 8 years, and a regular collaborator of Caminada, among others, Conzett is the reference point linking engineering with architecture in this thesis, essential in the context of this research.
Resumo:
Entendemos por inteligencia colectiva una forma de inteligencia que surge de la colaboración y la participación de varios individuos o, siendo más estrictos, varias entidades. En base a esta sencilla definición podemos observar que este concepto es campo de estudio de las más diversas disciplinas como pueden ser la sociología, las tecnologías de la información o la biología, atendiendo cada una de ellas a un tipo de entidades diferentes: seres humanos, elementos de computación o animales. Como elemento común podríamos indicar que la inteligencia colectiva ha tenido como objetivo el ser capaz de fomentar una inteligencia de grupo que supere a la inteligencia individual de las entidades que lo forman a través de mecanismos de coordinación, cooperación, competencia, integración, diferenciación, etc. Sin embargo, aunque históricamente la inteligencia colectiva se ha podido desarrollar de forma paralela e independiente en las distintas disciplinas que la tratan, en la actualidad, los avances en las tecnologías de la información han provocado que esto ya no sea suficiente. Hoy en día seres humanos y máquinas a través de todo tipo de redes de comunicación e interfaces, conviven en un entorno en el que la inteligencia colectiva ha cobrado una nueva dimensión: ya no sólo puede intentar obtener un comportamiento superior al de sus entidades constituyentes sino que ahora, además, estas inteligencias individuales son completamente diferentes unas de otras y aparece por lo tanto el doble reto de ser capaces de gestionar esta gran heterogeneidad y al mismo tiempo ser capaces de obtener comportamientos aún más inteligentes gracias a las sinergias que los distintos tipos de inteligencias pueden generar. Dentro de las áreas de trabajo de la inteligencia colectiva existen varios campos abiertos en los que siempre se intenta obtener unas prestaciones superiores a las de los individuos. Por ejemplo: consciencia colectiva, memoria colectiva o sabiduría colectiva. Entre todos estos campos nosotros nos centraremos en uno que tiene presencia en la práctica totalidad de posibles comportamientos inteligentes: la toma de decisiones. El campo de estudio de la toma de decisiones es realmente amplio y dentro del mismo la evolución ha sido completamente paralela a la que citábamos anteriormente en referencia a la inteligencia colectiva. En primer lugar se centró en el individuo como entidad decisoria para posteriormente desarrollarse desde un punto de vista social, institucional, etc. La primera fase dentro del estudio de la toma de decisiones se basó en la utilización de paradigmas muy sencillos: análisis de ventajas e inconvenientes, priorización basada en la maximización de algún parámetro del resultado, capacidad para satisfacer los requisitos de forma mínima por parte de las alternativas, consultas a expertos o entidades autorizadas o incluso el azar. Sin embargo, al igual que el paso del estudio del individuo al grupo supone una nueva dimensión dentro la inteligencia colectiva la toma de decisiones colectiva supone un nuevo reto en todas las disciplinas relacionadas. Además, dentro de la decisión colectiva aparecen dos nuevos frentes: los sistemas de decisión centralizados y descentralizados. En el presente proyecto de tesis nos centraremos en este segundo, que es el que supone una mayor atractivo tanto por las posibilidades de generar nuevo conocimiento y trabajar con problemas abiertos actualmente así como en lo que respecta a la aplicabilidad de los resultados que puedan obtenerse. Ya por último, dentro del campo de los sistemas de decisión descentralizados existen varios mecanismos fundamentales que dan lugar a distintas aproximaciones a la problemática propia de este campo. Por ejemplo el liderazgo, la imitación, la prescripción o el miedo. Nosotros nos centraremos en uno de los más multidisciplinares y con mayor capacidad de aplicación en todo tipo de disciplinas y que, históricamente, ha demostrado que puede dar lugar a prestaciones muy superiores a otros tipos de mecanismos de decisión descentralizados: la confianza y la reputación. Resumidamente podríamos indicar que confianza es la creencia por parte de una entidad que otra va a realizar una determinada actividad de una forma concreta. En principio es algo subjetivo, ya que la confianza de dos entidades diferentes sobre una tercera no tiene porqué ser la misma. Por otro lado, la reputación es la idea colectiva (o evaluación social) que distintas entidades de un sistema tiene sobre otra entidad del mismo en lo que respecta a un determinado criterio. Es por tanto una información de carácter colectivo pero única dentro de un sistema, no asociada a cada una de las entidades del sistema sino por igual a todas ellas. En estas dos sencillas definiciones se basan la inmensa mayoría de sistemas colectivos. De hecho muchas disertaciones indican que ningún tipo de organización podría ser viable de no ser por la existencia y la utilización de los conceptos de confianza y reputación. A partir de ahora, a todo sistema que utilice de una u otra forma estos conceptos lo denominaremos como sistema de confianza y reputación (o TRS, Trust and Reputation System). Sin embargo, aunque los TRS son uno de los aspectos de nuestras vidas más cotidianos y con un mayor campo de aplicación, el conocimiento que existe actualmente sobre ellos no podría ser más disperso. Existen un gran número de trabajos científicos en todo tipo de áreas de conocimiento: filosofía, psicología, sociología, economía, política, tecnologías de la información, etc. Pero el principal problema es que no existe una visión completa de la confianza y reputación en su sentido más amplio. Cada disciplina focaliza sus estudios en unos aspectos u otros dentro de los TRS, pero ninguna de ellas trata de explotar el conocimiento generado en el resto para mejorar sus prestaciones en su campo de aplicación concreto. Aspectos muy detallados en algunas áreas de conocimiento son completamente obviados por otras, o incluso aspectos tratados por distintas disciplinas, al ser estudiados desde distintos puntos de vista arrojan resultados complementarios que, sin embargo, no son aprovechados fuera de dichas áreas de conocimiento. Esto nos lleva a una dispersión de conocimiento muy elevada y a una falta de reutilización de metodologías, políticas de actuación y técnicas de una disciplina a otra. Debido su vital importancia, esta alta dispersión de conocimiento se trata de uno de los principales problemas que se pretenden resolver con el presente trabajo de tesis. Por otro lado, cuando se trabaja con TRS, todos los aspectos relacionados con la seguridad están muy presentes ya que muy este es un tema vital dentro del campo de la toma de decisiones. Además también es habitual que los TRS se utilicen para desempeñar responsabilidades que aportan algún tipo de funcionalidad relacionada con el mundo de la seguridad. Por último no podemos olvidar que el acto de confiar está indefectiblemente unido al de delegar una determinada responsabilidad, y que al tratar estos conceptos siempre aparece la idea de riesgo, riesgo de que las expectativas generadas por el acto de la delegación no se cumplan o se cumplan de forma diferente. Podemos ver por lo tanto que cualquier sistema que utiliza la confianza para mejorar o posibilitar su funcionamiento, por su propia naturaleza, es especialmente vulnerable si las premisas en las que se basa son atacadas. En este sentido podemos comprobar (tal y como analizaremos en más detalle a lo largo del presente documento) que las aproximaciones que realizan las distintas disciplinas que tratan la violación de los sistemas de confianza es de lo más variado. únicamente dentro del área de las tecnologías de la información se ha intentado utilizar alguno de los enfoques de otras disciplinas de cara a afrontar problemas relacionados con la seguridad de TRS. Sin embargo se trata de una aproximación incompleta y, normalmente, realizada para cumplir requisitos de aplicaciones concretas y no con la idea de afianzar una base de conocimiento más general y reutilizable en otros entornos. Con todo esto en cuenta, podemos resumir contribuciones del presente trabajo de tesis en las siguientes. • La realización de un completo análisis del estado del arte dentro del mundo de la confianza y la reputación que nos permite comparar las ventajas e inconvenientes de las diferentes aproximación que se realizan a estos conceptos en distintas áreas de conocimiento. • La definición de una arquitectura de referencia para TRS que contempla todas las entidades y procesos que intervienen en este tipo de sistemas. • La definición de un marco de referencia para analizar la seguridad de TRS. Esto implica tanto identificar los principales activos de un TRS en lo que respecta a la seguridad, así como el crear una tipología de posibles ataques y contramedidas en base a dichos activos. • La propuesta de una metodología para el análisis, el diseño, el aseguramiento y el despliegue de un TRS en entornos reales. Adicionalmente se exponen los principales tipos de aplicaciones que pueden obtenerse de los TRS y los medios para maximizar sus prestaciones en cada una de ellas. • La generación de un software que permite simular cualquier tipo de TRS en base a la arquitectura propuesta previamente. Esto permite evaluar las prestaciones de un TRS bajo una determinada configuración en un entorno controlado previamente a su despliegue en un entorno real. Igualmente es de gran utilidad para evaluar la resistencia a distintos tipos de ataques o mal-funcionamientos del sistema. Además de las contribuciones realizadas directamente en el campo de los TRS, hemos realizado aportaciones originales a distintas áreas de conocimiento gracias a la aplicación de las metodologías de análisis y diseño citadas con anterioridad. • Detección de anomalías térmicas en Data Centers. Hemos implementado con éxito un sistema de deteción de anomalías térmicas basado en un TRS. Comparamos la detección de prestaciones de algoritmos de tipo Self-Organized Maps (SOM) y Growing Neural Gas (GNG). Mostramos como SOM ofrece mejores resultados para anomalías en los sistemas de refrigeración de la sala mientras que GNG es una opción más adecuada debido a sus tasas de detección y aislamiento para casos de anomalías provocadas por una carga de trabajo excesiva. • Mejora de las prestaciones de recolección de un sistema basado en swarm computing y odometría social. Gracias a la implementación de un TRS conseguimos mejorar las capacidades de coordinación de una red de robots autónomos distribuidos. La principal contribución reside en el análisis y la validación de las mejoras increméntales que pueden conseguirse con la utilización apropiada de la información existente en el sistema y que puede ser relevante desde el punto de vista de un TRS, y con la implementación de algoritmos de cálculo de confianza basados en dicha información. • Mejora de la seguridad de Wireless Mesh Networks contra ataques contra la integridad, la confidencialidad o la disponibilidad de los datos y / o comunicaciones soportadas por dichas redes. • Mejora de la seguridad de Wireless Sensor Networks contra ataques avanzamos, como insider attacks, ataques desconocidos, etc. Gracias a las metodologías presentadas implementamos contramedidas contra este tipo de ataques en entornos complejos. En base a los experimentos realizados, hemos demostrado que nuestra aproximación es capaz de detectar y confinar varios tipos de ataques que afectan a los protocoles esenciales de la red. La propuesta ofrece unas velocidades de detección muy altas así como demuestra que la inclusión de estos mecanismos de actuación temprana incrementa significativamente el esfuerzo que un atacante tiene que introducir para comprometer la red. Finalmente podríamos concluir que el presente trabajo de tesis supone la generación de un conocimiento útil y aplicable a entornos reales, que nos permite la maximización de las prestaciones resultantes de la utilización de TRS en cualquier tipo de campo de aplicación. De esta forma cubrimos la principal carencia existente actualmente en este campo, que es la falta de una base de conocimiento común y agregada y la inexistencia de una metodología para el desarrollo de TRS que nos permita analizar, diseñar, asegurar y desplegar TRS de una forma sistemática y no artesanal y ad-hoc como se hace en la actualidad. ABSTRACT By collective intelligence we understand a form of intelligence that emerges from the collaboration and competition of many individuals, or strictly speaking, many entities. Based on this simple definition, we can see how this concept is the field of study of a wide range of disciplines, such as sociology, information science or biology, each of them focused in different kinds of entities: human beings, computational resources, or animals. As a common factor, we can point that collective intelligence has always had the goal of being able of promoting a group intelligence that overcomes the individual intelligence of the basic entities that constitute it. This can be accomplished through different mechanisms such as coordination, cooperation, competence, integration, differentiation, etc. Collective intelligence has historically been developed in a parallel and independent way among the different disciplines that deal with it. However, this is not enough anymore due to the advances in information technologies. Nowadays, human beings and machines coexist in environments where collective intelligence has taken a new dimension: we yet have to achieve a better collective behavior than the individual one, but now we also have to deal with completely different kinds of individual intelligences. Therefore, we have a double goal: being able to deal with this heterogeneity and being able to get even more intelligent behaviors thanks to the synergies that the different kinds of intelligence can generate. Within the areas of collective intelligence there are several open topics where they always try to get better performances from groups than from the individuals. For example: collective consciousness, collective memory, or collective wisdom. Among all these topics we will focus on collective decision making, that has influence in most of the collective intelligent behaviors. The field of study of decision making is really wide, and its evolution has been completely parallel to the aforementioned collective intelligence. Firstly, it was focused on the individual as the main decision-making entity, but later it became involved in studying social and institutional groups as basic decision-making entities. The first studies within the decision-making discipline were based on simple paradigms, such as pros and cons analysis, criteria prioritization, fulfillment, following orders, or even chance. However, in the same way that studying the community instead of the individual meant a paradigm shift within collective intelligence, collective decision-making means a new challenge for all the related disciplines. Besides, two new main topics come up when dealing with collective decision-making: centralized and decentralized decision-making systems. In this thesis project we focus in the second one, because it is the most interesting based on the opportunities to generate new knowledge and deal with open issues in this area, as well as these results can be put into practice in a wider set of real-life environments. Finally, within the decentralized collective decision-making systems discipline, there are several basic mechanisms that lead to different approaches to the specific problems of this field, for example: leadership, imitation, prescription, or fear. We will focus on trust and reputation. They are one of the most multidisciplinary concepts and with more potential for applying them in every kind of environments. Besides, they have historically shown that they can generate better performance than other decentralized decision-making mechanisms. Shortly, we say trust is the belief of one entity that the outcome of other entities’ actions is going to be in a specific way. It is a subjective concept because the trust of two different entities in another one does not have to be the same. Reputation is the collective idea (or social evaluation) that a group of entities within a system have about another entity based on a specific criterion. Thus, it is a collective concept in its origin. It is important to say that the behavior of most of the collective systems are based on these two simple definitions. In fact, a lot of articles and essays describe how any organization would not be viable if the ideas of trust and reputation did not exist. From now on, we call Trust an Reputation System (TRS) to any kind of system that uses these concepts. Even though TRSs are one of the most common everyday aspects in our lives, the existing knowledge about them could not be more dispersed. There are thousands of scientific works in every field of study related to trust and reputation: philosophy, psychology, sociology, economics, politics, information sciences, etc. But the main issue is that a comprehensive vision of trust and reputation for all these disciplines does not exist. Every discipline focuses its studies on a specific set of topics but none of them tries to take advantage of the knowledge generated in the other disciplines to improve its behavior or performance. Detailed topics in some fields are completely obviated in others, and even though the study of some topics within several disciplines produces complementary results, these results are not used outside the discipline where they were generated. This leads us to a very high knowledge dispersion and to a lack in the reuse of methodologies, policies and techniques among disciplines. Due to its great importance, this high dispersion of trust and reputation knowledge is one of the main problems this thesis contributes to solve. When we work with TRSs, all the aspects related to security are a constant since it is a vital aspect within the decision-making systems. Besides, TRS are often used to perform some responsibilities related to security. Finally, we cannot forget that the act of trusting is invariably attached to the act of delegating a specific responsibility and, when we deal with these concepts, the idea of risk is always present. This refers to the risk of generated expectations not being accomplished or being accomplished in a different way we anticipated. Thus, we can see that any system using trust to improve or enable its behavior, because of its own nature, is especially vulnerable if the premises it is based on are attacked. Related to this topic, we can see that the approaches of the different disciplines that study attacks of trust and reputation are very diverse. Some attempts of using approaches of other disciplines have been made within the information science area of knowledge, but these approaches are usually incomplete, not systematic and oriented to achieve specific requirements of specific applications. They never try to consolidate a common base of knowledge that could be reusable in other context. Based on all these ideas, this work makes the following direct contributions to the field of TRS: • The compilation of the most relevant existing knowledge related to trust and reputation management systems focusing on their advantages and disadvantages. • We define a generic architecture for TRS, identifying the main entities and processes involved. • We define a generic security framework for TRS. We identify the main security assets and propose a complete taxonomy of attacks for TRS. • We propose and validate a methodology to analyze, design, secure and deploy TRS in real-life environments. Additionally we identify the principal kind of applications we can implement with TRS and how TRS can provide a specific functionality. • We develop a software component to validate and optimize the behavior of a TRS in order to achieve a specific functionality or performance. In addition to the contributions made directly to the field of the TRS, we have made original contributions to different areas of knowledge thanks to the application of the analysis, design and security methodologies previously presented: • Detection of thermal anomalies in Data Centers. Thanks to the application of the TRS analysis and design methodologies, we successfully implemented a thermal anomaly detection system based on a TRS.We compare the detection performance of Self-Organized- Maps and Growing Neural Gas algorithms. We show how SOM provides better results for Computer Room Air Conditioning anomaly detection, yielding detection rates of 100%, in training data with malfunctioning sensors. We also show that GNG yields better detection and isolation rates for workload anomaly detection, reducing the false positive rate when compared to SOM. • Improving the performance of a harvesting system based on swarm computing and social odometry. Through the implementation of a TRS, we achieved to improve the ability of coordinating a distributed network of autonomous robots. The main contribution lies in the analysis and validation of the incremental improvements that can be achieved with proper use information that exist in the system and that are relevant for the TRS, and the implementation of the appropriated trust algorithms based on such information. • Improving Wireless Mesh Networks security against attacks against the integrity, confidentiality or availability of data and communications supported by these networks. Thanks to the implementation of a TRS we improved the detection time rate against these kind of attacks and we limited their potential impact over the system. • We improved the security of Wireless Sensor Networks against advanced attacks, such as insider attacks, unknown attacks, etc. Thanks to the TRS analysis and design methodologies previously described, we implemented countermeasures against such attacks in a complex environment. In our experiments we have demonstrated that our system is capable of detecting and confining various attacks that affect the core network protocols. We have also demonstrated that our approach is capable of rapid attack detection. Also, it has been proven that the inclusion of the proposed detection mechanisms significantly increases the effort the attacker has to introduce in order to compromise the network. Finally we can conclude that, to all intents and purposes, this thesis offers a useful and applicable knowledge in real-life environments that allows us to maximize the performance of any system based on a TRS. Thus, we deal with the main deficiency of this discipline: the lack of a common and complete base of knowledge and the lack of a methodology for the development of TRS that allow us to analyze, design, secure and deploy TRS in a systematic way.
Resumo:
La construcción en la actualidad de nuevas fuentes para el uso de haces de neutrones así como los programas de renovación en curso en algunas de las instalaciones experimentales existentes han evidenciado la necesidad urgente de desarrollar la tecnología empleada para la construcción de guías de neutrones con objeto de hacerlas mas eficientes y duraderas. Esto viene motivado por el hecho de que varias instalaciones de experimentación con haces de neutrones han reportado un número de incidentes mecánicos con tales guías, lo que hace urgente el progresar en nuestro conocimiento de los susbtratos vítreos sobre los cuales se depositan los espejos que permiten la reflexión total de los neutrones y como aquellos se degradan con la radiación. La presente tesis se inscribe en un acuerdo de colaboración establecido entre el Institut Max von Laue - Paul Langevin (ILL) de Grenoble y el Consorcio ESS-Bilbao con objeto de mejorar el rendimiento y sostenibilidad de los sistemas futuros de guiado de neutrones. El caso de la Fuente Europea de Espalación en construcción en Lund sirve como ejemplo ya que se contempla la instalación de guías de neutrones de más de 100 metros en algunos de los instrumentos. Por otro lado, instalaciones como el ILL prevén también dentro del programa Endurance de rejuvenecimiento la reconstrucción de varias líneas de transporte de haz. Para el presente estudio se seleccionaron cuatro tipos de vidrios borosilicatados que fueron el Borofloat, N-ZK7, N-BK7 y SBSL7. Los tres primeros son bien conocidos por los especialistas en instrumentación neutrónica ya que se han empleado en la construcción de varias instalaciones mientras que el último es un candidato potencial en la fabricación de substratos para espejos neutrónicos en un futuro. Los cuatro vidrios tiene un contenido en óxido de Boro muy similar, approximadamente un 10 mol.%. Tal hecho que obedece a las regulaciones para la fabricación de estos dispositivos hace que tales substratos operen como protección radiológica absorbiendo los neutrones transmitidos a través del espejo de neutrones. Como contrapartida a tal beneficio, la reacción de captura 10B(n,_)7Li puede degradar el substrato vítreo debido a los 2.5 MeV de energía cinética depositados por la partícula _ y los núcleos en retroceso y de hecho la fragilidad de tales vidrios bajo radiación ha sido atribuida desde hace ya tiempo a los efectos de esta reacción. La metodología empleada en esta tesis se ha centrado en el estudio de la estructura de estos vidrios borosilicatados y como esta se comporta bajo condiciones de radiación. Los materiales en cuestión presentan estructuras que dependen de su composición química y en particular del ratio entre formadores y modificadores de la red iono-covalente. Para ello se han empleado un conjunto de técnicas de caracterización tanto macro- como microscópicas tales como estudios de dureza, TEM, Raman, SANS etc. que se han empleado también para determinar el comportamiento de estos materiales bajo radiación. En particular, algunas propiedades macroscópicas relacionadas con la resistencia de estos vidrios como elementos estructurales de las guías de neutrones han sido estudiadas así como también los cambios en la estructura vítrea consecuencia de la radiación. Para este propósito se ha diseñado y fabricado por el ILL un aparato para irradiación de muestras con neutrones térmicos en el reactor del ILL que permite controlar la temperatura alcanzada por la muestra a menos de 100 °C. Tal equipo en comparación con otros ya existences permite en cuestión de dias acumular las dosis recibidas por una guía en operación a lo largo de varios años. El uso conjunto de varias técnicas de caracterización ha llevado a revelar que los vidrios aqui estudiados son significativamente diferentes en cuanto a su estructura y que tales diferencias afectan a sus propiedades macroscópicas asi como a su comportamiento bajo radiación. Tal resultado ha sido sorprendente ya que, como se ha mencionado antes, algunos de estos vidrios eran bien conocidos por los fabricantes de guías de neutrones y hasta el momento eran considerados prácticamente similares debido a su contenido comparable en óxido de Boro. Sin embargo, los materiales N-BK7 and S-BSL7 muetran gran homogeneidad a todas las escalas de longitud, y más específicamente, a escalas nanométricas las subredes de Sílice y óxido de Boro se mezclan dando logar a estructuras locales que recuerdan a la del cristal de Reedmergnerita. Por el contrario, N-ZK7 y Borofloat muestran dominios separados ricos en Sílice o Boro. Como era de esperar, las importantes diferencias arriba mencionadas se traducen en comportamientos dispares de estos materiales bajo un haz de neutrones térmicos. Los resultados muestran que el N-BK7 y el S-BSL7 son los más estables bajo radiación, lo que macroscópicamente hace que estos materiales muestren un comportamiento similar expandiéndose lentamente en función de la dosis recibida. Por el contario, los otros dos materiales muestran un comportamiento mucho más reactivo, que hace que inicialmente se compacten con la dosis recibida lo que hace que las redes de Silicio y Boro se mezclen resultando en un incremento en densidad hasta alcanzar un valor límite, seguido por un proceso de expansión lenta que resulta comparable al observado para N-BK7 y SBSL7. Estos resultados nos han permitido explicar el origen de las notorias diferencias observadas en cuanto a las dosis límite a partir de las cuales estos materiales desarrollan procesos de fragmentación en superficie. ABSTRACT The building of new experimental neutron beam facilities as well as the renewal programmes under development at some of the already existing installations have pinpointed the urgent need to develop the neutron guide technology in order to make such neutron transport devices more efficient and durable. In fact, a number of mechanical failures of neutron guides have been reported by several research centres. It is therefore important to understand the behaviour of the glass substrates on top of which the neutron optics mirrors are deposited and how these materials degrade under radiation conditions. The case of the European Spallation Source (ESS) at present under construction at Lund is a good example. It previews the deployment of neutron guides having more than 100 metres of length for most of the instruments. Also, the future renovation programme of the ILL, called Endurance, foresees the refurbishment of several beam lines. This Ph.D. thesis was the result of a collaboration agreement between the ILL and ESS-Bilbao aiming to improve the performance and sustainability of future neutron delivery systems. Four different industrially produced alkali-borosilicate glasses were selected for this study: Borofloat, N-ZK7, N-BK7 and SBSL7. The first three are well known within the neutron instrumentation community as they have already been used in several installations whereas the last one is at present considered as a candidate for making future mirror substrates. All four glasses have a comparable content of boron oxide of about 10 mol.%. The presence of such a strong neutron absorption element is in fact a mandatory component for the manufacturing of neutron guides because it provides a radiological shielding for the environment. This benefit is however somewhat counterbalanced since the resulting 10B(n,_)7Li reactions degrade the glass due to the deposited energy of 2.5 MeV by the _ particle and the recoil nuclei. In fact, the brittleness of some of these materials has been ascribed to this reaction. The methodology employed by this study consisted in understanding the general structure of borosilicates and how they behave under irradiation. Such materials have a microscopic structure strongly dependent upon their chemical content and particularly on the ratios between network formers and modifiers. The materials have been characterized by a suite of macroscopic and structural techniques such as hardness, TEM, Raman, SANS, etc. and their behaviour under irradiation was analysed. Some macroscopic properties related to their resistance when used as guide structural elements were monitored. Also, changes in the vitreous structure due to radiation were observed by means of several experimental tools. For such a purpose, an irradiation apparatus has been designed and manufactured to enable irradiation with thermal neutrons within the ILL reactor while keeping the samples below 100 °C. The main advantage of this equipment if compared to others previously available was that it allowed to reach in just some days an equivalent neutron dose to that accumulated by guides after several years of use. The concurrent use of complementary characterization techniques lead to the discovery that the studied glasses were deeply different in terms of their glass network. This had a strong impact on their macroscopic properties and their behaviour under irradiation. This result was a surprise since, as stated above, some of these materials were well known by the neutron guide manufacturers, and were considered to be almost equivalent because of their similar boron oxide content. The N-BK7 and S-BSL7 materials appear to be fairly homogeneous glasses at different length scales. More specifically, at nanometre scales, silicon and boron oxide units seem to mix and generate larger structures somewhat resembling crystalline Reedmergnerite. In contrast, N-ZK7 and Borofloat are characterized by either silicon or boron rich domains. As one could expect, these drastic differences lead to their behaviour under thermal neutron flux. The results show that N-BK7 and S-BSL7 are structurally the most stable under radiation. Macroscopically, such stability results in the fact that these two materials show very slow swelling as a function or radiation dose. In contrast, the two other glasses are much more reactive. The whole glass structure compacts upon radiation. Specifically, the silica network, and the boron units tend to blend leading to an increase in density up to some saturation, followed by a very slow expansion which comes to be of the same order than that shown by N-BK7 and S-BSL7. Such findings allowed us to explain the drastic differences in the radiation limits for macroscopic surface splintering for these materials when they are used in neutron guides.
Resumo:
Una Red de Procesadores Evolutivos o NEP (por sus siglas en ingles), es un modelo computacional inspirado por el modelo evolutivo de las celulas, específicamente por las reglas de multiplicación de las mismas. Esta inspiración hace que el modelo sea una abstracción sintactica de la manipulation de information de las celulas. En particu¬lar, una NEP define una maquina de cómputo teorica capaz de resolver problemas NP completos de manera eficiente en tóerminos de tiempo. En la praóctica, se espera que las NEP simuladas en móaquinas computacionales convencionales puedan resolver prob¬lemas reales complejos (que requieran ser altamente escalables) a cambio de una alta complejidad espacial. En el modelo NEP, las cóelulas estóan representadas por palabras que codifican sus secuencias de ADN. Informalmente, en cualquier momento de cómputo del sistema, su estado evolutivo se describe como un coleccion de palabras, donde cada una de ellas representa una celula. Estos momentos fijos de evolucion se denominan configuraciones. De manera similar al modelo biologico, las palabras (celulas) mutan y se dividen en base a bio-operaciones sencillas, pero solo aquellas palabras aptas (como ocurre de forma parecida en proceso de selection natural) seran conservadas para la siguiente configuracióon. Una NEP como herramienta de computation, define una arquitectura paralela y distribuida de procesamiento simbolico, en otras palabras, una red de procesadores de lenguajes. Desde el momento en que el modelo fue propuesto a la comunidad científica en el año 2001, múltiples variantes se han desarrollado y sus propiedades respecto a la completitud computacional, eficiencia y universalidad han sido ampliamente estudiadas y demostradas. En la actualidad, por tanto, podemos considerar que el modelo teórico NEP se encuentra en el estadio de la madurez. La motivación principal de este Proyecto de Fin de Grado, es proponer una aproxi-mación práctica que permita dar un salto del modelo teórico NEP a una implantación real que permita su ejecucion en plataformas computacionales de alto rendimiento, con el fin de solucionar problemas complejos que demanda la sociedad actual. Hasta el momento, las herramientas desarrolladas para la simulation del modelo NEP, si bien correctas y con resultados satisfactorios, normalmente estón atadas a su entorno de ejecucion, ya sea el uso de hardware específico o implementaciones particulares de un problema. En este contexto, el propósito fundamental de este trabajo es el desarrollo de Nepfix, una herramienta generica y extensible para la ejecucion de cualquier algo¬ritmo de un modelo NEP (o alguna de sus variantes), ya sea de forma local, como una aplicación tradicional, o distribuida utilizando los servicios de la nube. Nepfix es una aplicacion software desarrollada durante 7 meses y que actualmente se encuentra en su segunda iteration, una vez abandonada la fase de prototipo. Nepfix ha sido disenada como una aplicacion modular escrita en Java 8 y autocontenida, es decir, no requiere de un entorno de ejecucion específico (cualquier maquina virtual de Java es un contenedor vólido). Nepfix contiene dos componentes o móodulos. El primer móodulo corresponde a la ejecución de una NEP y es por lo tanto, el simulador. Para su desarrollo, se ha tenido en cuenta el estado actual del modelo, es decir, las definiciones de los procesadores y filtros mas comunes que conforman la familia del modelo NEP. Adicionalmente, este componente ofrece flexibilidad en la ejecucion, pudiendo ampliar las capacidades del simulador sin modificar Nepfix, usando para ello un lenguaje de scripting. Dentro del desarrollo de este componente, tambióen se ha definido un estóandar de representacióon del modelo NEP basado en el formato JSON y se propone una forma de representation y codificación de las palabras, necesaria para la comunicación entre servidores. Adicional-mente, una característica importante de este componente, es que se puede considerar una aplicacion aislada y por tanto, la estrategia de distribution y ejecución son total-mente independientes. El segundo moódulo, corresponde a la distribucióon de Nepfix en la nube. Este de-sarrollo es el resultado de un proceso de i+D, que tiene una componente científica considerable. Vale la pena resaltar el desarrollo de este modulo no solo por los resul-tados prócticos esperados, sino por el proceso de investigation que se se debe abordar con esta nueva perspectiva para la ejecución de sistemas de computación natural. La principal característica de las aplicaciones que se ejecutan en la nube es que son gestionadas por la plataforma y normalmente se encapsulan en un contenedor. En el caso de Nepfix, este contenedor es una aplicacion Spring que utiliza el protocolo HTTP o AMQP para comunicarse con el resto de instancias. Como valor añadido, Nepfix aborda dos perspectivas de implementation distintas (que han sido desarrolladas en dos iteraciones diferentes) del modelo de distribution y ejecucion, que tienen un impacto muy significativo en las capacidades y restricciones del simulador. En concreto, la primera iteration utiliza un modelo de ejecucion asincrono. En esta perspectiva asincrona, los componentes de la red NEP (procesadores y filtros) son considerados como elementos reactivos a la necesidad de procesar una palabra. Esta implementation es una optimization de una topologia comun en el modelo NEP que permite utilizar herramientas de la nube para lograr un escalado transparente (en lo ref¬erente al balance de carga entre procesadores) pero produce efectos no deseados como indeterminacion en el orden de los resultados o imposibilidad de distribuir eficiente-mente redes fuertemente interconectadas. Por otro lado, la segunda iteration corresponde al modelo de ejecucion sincrono. Los elementos de una red NEP siguen un ciclo inicio-computo-sincronizacion hasta que el problema se ha resuelto. Esta perspectiva sincrona representa fielmente al modelo teórico NEP pero el proceso de sincronizacion es costoso y requiere de infraestructura adicional. En concreto, se requiere un servidor de colas de mensajes RabbitMQ. Sin embargo, en esta perspectiva los beneficios para problemas suficientemente grandes superan a los inconvenientes, ya que la distribuciín es inmediata (no hay restricciones), aunque el proceso de escalado no es trivial. En definitiva, el concepto de Nepfix como marco computacional se puede considerar satisfactorio: la tecnología es viable y los primeros resultados confirman que las carac-terísticas que se buscaban originalmente se han conseguido. Muchos frentes quedan abiertos para futuras investigaciones. En este documento se proponen algunas aproxi-maciones a la solucion de los problemas identificados como la recuperacion de errores y la division dinamica de una NEP en diferentes subdominios. Por otra parte, otros prob-lemas, lejos del alcance de este proyecto, quedan abiertos a un futuro desarrollo como por ejemplo, la estandarización de la representación de las palabras y optimizaciones en la ejecucion del modelo síncrono. Finalmente, algunos resultados preliminares de este Proyecto de Fin de Grado han sido presentados recientemente en formato de artículo científico en la "International Work-Conference on Artificial Neural Networks (IWANN)-2015" y publicados en "Ad-vances in Computational Intelligence" volumen 9094 de "Lecture Notes in Computer Science" de Springer International Publishing. Lo anterior, es una confirmation de que este trabajo mas que un Proyecto de Fin de Grado, es solo el inicio de un trabajo que puede tener mayor repercusion en la comunidad científica. Abstract Network of Evolutionary Processors -NEP is a computational model inspired by the evolution of cell populations, which might model some properties of evolving cell communities at the syntactical level. NEP defines theoretical computing devices able to solve NP complete problems in an efficient manner. In this model, cells are represented by words which encode their DNA sequences. Informally, at any moment of time, the evolutionary system is described by a collection of words, where each word represents one cell. Cells belong to species and their community evolves according to mutations and division which are defined by operations on words. Only those cells are accepted as surviving (correct) ones which are represented by a word in a given set of words, called the genotype space of the species. This feature is analogous with the natural process of evolution. Formally, NEP is based on an architecture for parallel and distributed processing, in other words, a network of language processors. Since the date when NEP was pro¬posed, several extensions and variants have appeared engendering a new set of models named Networks of Bio-inspired Processors (NBP). During this time, several works have proved the computational power of NBP. Specifically, their efficiency, universality, and computational completeness have been thoroughly investigated. Therefore, we can say that the NEP model has reached its maturity. The main motivation for this End of Grade project (EOG project in short) is to propose a practical approximation that allows to close the gap between theoretical NEP model and a practical implementation in high performing computational platforms in order to solve some of high the high complexity problems society requires today. Up until now tools developed to simulate NEPs, while correct and successful, are usu¬ally tightly coupled to the execution environment, using specific software frameworks (Hadoop) or direct hardware usage (GPUs). Within this context the main purpose of this work is the development of Nepfix, a generic and extensible tool that aims to execute algorithms based on NEP model and compatible variants in a local way, similar to a traditional application or in a distributed cloud environment. Nepfix as an application was developed during a 7 month cycle and is undergoing its second iteration once the prototype period was abandoned. Nepfix is designed as a modular self-contained application written in Java 8, that is, no additional external dependencies are required and it does not rely on an specific execution environment, any JVM is a valid container. Nepfix is made of two components or modules. The first module corresponds to the NEP execution and therefore simulation. During the development the current state of the theoretical model was used as a reference including most common filters and processors. Additionally extensibility is provided by the use of Python as a scripting language to run custom logic. Along with the simulation a definition language for NEP has been defined based on JSON as well as a mechanisms to represent words and their possible manipulations. NEP simulator is isolated from distribution and as mentioned before different applications that include it as a dependency are possible, the distribution of NEPs is an example of this. The second module corresponds to executing Nepfix in the cloud. The development carried a heavy R&D process since this front was not explored by other research groups until now. It's important to point out that the development of this module is not focused on results at this point in time, instead we focus on feasibility and discovery of this new perspective to execute natural computing systems and NEPs specifically. The main properties of cloud applications is that they are managed by the platform and are encapsulated in a container. For Nepfix a Spring application becomes the container and the HTTP or AMQP protocols are used for communication with the rest of the instances. Different execution perspectives were studied, namely asynchronous and synchronous models were developed for solving different kind of problems using NEPs. Different limitations and restrictions manifest in both models and are explored in detail in the respective chapters. In conclusion we can consider that Nepfix as a computational framework is suc-cessful: Cloud technology is ready for the challenge and the first results reassure that the properties Nepfix project pursued were met. Many investigation branches are left open for future investigations. In this EOG implementation guidelines are proposed for some of them like error recovery or dynamic NEP splitting. On the other hand other interesting problems that were not in the scope of this project were identified during development like word representation standardization or NEP model optimizations. As a confirmation that the results of this work can be useful to the scientific com-munity a preliminary version of this project was published in The International Work- Conference on Artificial Neural Networks (IWANN) in May 2015. Development has not stopped since that point and while Nepfix in it's current state can not be consid¬ered a final product the most relevant ideas, possible problems and solutions that were produced during the seven months development cycle are worthy to be gathered and presented giving a meaning to this EOG work.
Resumo:
Nagele es un asentamiento urbano situado en el Noordoostpolder, territorio neerlandés ganado al mar. Fue diseñado por arquitectos de los grupos De 8 en Opbouw entre los que destacaron Rietveld, Van Eesteren, Van Eyck, Bakema, Stam y Ruys. El proyecto se desarrolló entre 1947 y 1956, un periodo de tiempo con formas de proyectar muy ricas en interpretaciones. Los arquitectos pusieron en crisis los planteamientos historicistas de las nuevas poblaciones de los pólderes. Propusieron un nuevo prototipo, una morfología compacta y concéntrica que transmitiría igualdad a una comunidad agrícola, entendida como una sociedad urbana del siglo XX. La administración apoyó la propuesta que convertiría el proyecto en un arriesgado reto por su falta de antecedentes. La vigencia de las formulaciones permanece hoy en día en la ciudad construida, aunque con alteraciones. En los dibujos del proceso se encuentran los principales enunciados teóricos que este trabajo pretende descubrir. El trabajo aborda aspectos no suficientemente explorados, como su relación con el pólder, la evolución de las estrategias proyectivas, la ordenación paisajista y los elementos urbanos. El Noordoostpolder es la culminación de una serie de experiencias multidisciplinares en el reclamo de tierras a gran escala. Se estudia su estructura urbana policéntrica, la parcelación agrícola que origina el proyecto urbano y la vinculación de la vegetación con la infraestructura, proporcionando orientación, protección climática y escala humana, conceptos que impregnan las estrategias del proyecto urbano. La primera fase de la ordenación configuró áreas monofuncionales que respondían a cada una de las cuatro necesidades básicas del método científico de la ciudad higienista. El acontecimiento que marcó el final de la primera fase fue su presentación en el séptimo CIAM de 1949, cuyo título fue Aplicación de la Carta de Atenas. El programa residencial se dividió en clusters organizados en torno a una pradera vecinal central, vinculándose el orden vecinal, urbano y territorial. La segunda fase fue un catalizador de nuevos planteamientos. El proyecto se transformó en un In-between Realm, un escenario teórico donde coexisten fenómenos tradicionalmente antagónicos que Van Eyck denominó Twin Phenomena, convirtiéndose la ciudad en una réplica formal de la ambivalencia de la mente humana. La indefinición espacial no programada en la propuesta anterior se transformó en un conjunto de espacios urbanos, con límites y dimensiones adaptados a la escala humana. El proyecto es anterior a la obra escrita de Van Eyck por lo que estimuló sus enunciados teóricos. Unas ideas también reconocidas en los tres CIAM posteriores en los que también se expuso el proyecto. El diseño paisajista se integra en el proyecto urbano desde sus orígenes. El límite se compone de una barrera boscosa que protege climáticamente, proporciona escala humana y control visual frente a las llanuras infinitas del pólder. Van Eyck sintetizó el proyecto como una habitación verde sin techo, afirmación que dilucida su equivalencia con el de un interior doméstico. Exteriormente la ciudad se convierte en una unidad autónoma del territorio. Interiormente, un sistema jerarquizado de vegetación vinculado a la arquitectura y la infraestructura constituye espacios urbanos de diferentes escalas. La propuesta fue transformada por Boer y Ruys en un nuevo espacio urbano único, no asimilando los conceptos anteriores. El proyecto y construcción de los primeros elementos urbanos consistió en un reparto de tareas a De 8 en Opbouw, hecho que estimula estudiar su relación con el proyecto urbano. La estructura policéntrica organiza las aulas de las escuelas de Van Eyck, las diferentes áreas confesionales del cementerio de Ruys y las unidades residenciales, diseñadas por Stam, Rietveld y Stam-Besse. Los Twin Phenomena alcanzan un acuerdo en el corredor comercial, diseñado por Bakema y Van der Broek. La generación de espacios dentro de otros aparece también en el cementerio, a través de una nueva barrera boscosa y en el sistema de pliegues del muro que configura la iglesia de Bakema y Van der Broek. El proyecto se vincula a un planteamiento holístico, mediante el que el diseño de cada uno de sus elementos tiene en cuenta las estrategias proyectivas del todo del cual forma parte, convirtiéndose, al igual que las obras de De Stijl, en parte de una composición infinita que acerca arte y diseño en la vida cotidiana de la sociedad. La diversidad generacional e ideológica de estos arquitectos convirtió el proyecto en un tablero de juego sobre el que se aplicaron diferentes formas de proyectar la ciudad, ubicando a Nagele en un punto de inflexión del Movimiento Moderno. ABSTRACT The research focuses on the Nagele project, a Dutch urban settlement located in the Noordoostpolder, a territory which was entirely reclaimed from the IJsselmeer lake. It was designed by a group of architects from the De 8 and Opbouw teams, the leading protagonists being Rietveld, Van Eesteren, Van Eyck, Bakema, Stam y Ruys. It was designed from 1947 to 1956, a fruitful period in urban planning. These architects questioned the traditionalist urban design applied to the new populations in the IJsselmeer polders. Facing their principles, the work group proposed a new prototype; a compact and concentric urban pattern to foster equality in a new community of farm labourers, which was recognized by the architects as a twentieth century urban society. The government supported their new proposals. The lack of implementation of the innovatory conceptual statements subjected the project into a high-risk challenge. However, in spite of these difficulties, the basic concepts remain though partially transformed, in the actual city. The project drawings reflect the principle concepts that this work aims to discover. Some approaches that have not been sufficiently studied are tackled in this thesis. Firstly, the project´s relationship with the polder. Secondly, the evolution of projective strategies during the period of urban planning, the landscape design and the design of urban elements. The Noordoostpolder is the culmination of a series of multi-disciplinary experiences in large scale land reclamation, whose polycentric urban structure and agricultural subdivision provide the framework of Nagele. Linking the vegetation to infrastructure fostered orientation, climate protection and human scale; strategies which were repeated, though on a smaller scale, in the actual city. The first phase of the project was composed of mono-functional urban areas which responded to each of the four basic human needs indicated by the scientific method of the functional city. The presentation of the project at the seventh CIAM in 1949 was the event which marked the end of the first phase of the planning. This congress was entitled Implementation of the Athens Charter. The residential program was divided into housing clusters surrounding a central prairie, a pattern which was related to its urban and territorial whole. The second phase of the plan was subjected to a new theoretical approach. The urban planning became an In-between Realm, a theoretical scenario where traditionally antagonistic concepts coexist. Van Eyck named these concepts Twin Phenomena. The city thus conceived of as a counterform of the ambivalence of the human mind where spatial indefinition in the previous proposals was transformed into a Bunch of Places with defined boundaries and dimensions, all of which reflecting human scale. The landscape design was integrated into the urban project from its inception. The limits consist of a green wind-barrier which not only provides climate protection but also provides human scale and visual control towards the unlimited plains of the polder. Van Eyck summarised the project as a green room without a roof. This statement elucidates its equivalence to a domestic interior. Outwardly, the city becomes an autonomous unit on the territory. Inwardly a hierarchical vegetation system is linked to architecture and infrastructure. Together, they configure different scales of urban spaces. The proposal was transformed by Boer and Ruys into a unique urban space without assimilating Van Eyck´s concepts. The study of the Nagele landscape project of Nagele and the writings of Van Eyck verify the fact that many of his theoretical foundations (In-between Realm, Twin Phenomena, Bunch of Places, Right Scale) can be applied not only to architecture and city but also to landscape design. The application of these principles led the Nagele project to become a counterform of Van Eyck´s thinking. The design and construction of the first urban elements involved a distribution of tasks to De 8 en Opbouw, which stimulated their relationship with the urban project. The polycentric structure organised the school classrooms outlined by Van Eyck, the different areas of the cemetery planned by Ruys and the housing clusters designed by Stam, Rietveld and Stam-Besse. The Twin Phenomena concept can be applied in Van der Broek´s shopping corridor. The concept space within another space is also implemented in the cemetery surrounded by a new green barrier, and in the church built by Van der Broek and Bakema, whose spaces are configured by a folding wall. The project takes a holistic approach, which considers the design of each element within the strategies of the whole, where they become parts of an infinite composition, as in the art works of De Stijl fostering art and design to ordinary people´s daily lives. The generational and ideological diversity of these architects turned the project into a game board on which different ways of planning the city were played, obtaining Nagele the distinction of being a turning point of Modernism.