25 resultados para Opinion retrieval, mining and summarization framework
Resumo:
Embedded context management in resource-constrained devices (e.g. mobile phones, autonomous sensors or smart objects) imposes special requirements in terms of lightness for data modelling and reasoning. In this paper, we explore the state-of-the-art on data representation and reasoning tools for embedded mobile reasoning and propose a light inference system (LIS) aiming at simplifying embedded inference processes offering a set of functionalities to avoid redundancy in context management operations. The system is part of a service-oriented mobile software framework, conceived to facilitate the creation of context-aware applications?it decouples sensor data acquisition and context processing from the application logic. LIS, composed of several modules, encapsulates existing lightweight tools for ontology data management and rule-based reasoning, and it is ready to run on Java-enabled handheld devices. Data management and reasoning processes are designed to handle a general ontology that enables communication among framework components. Both the applications running on top of the framework and the framework components themselves can configure the rule and query sets in order to retrieve the information they need from LIS. In order to test LIS features in a real application scenario, an ?Activity Monitor? has been designed and implemented: a personal health-persuasive application that provides feedback on the user?s lifestyle, combining data from physical and virtual sensors. In this case of use, LIS is used to timely evaluate the user?s activity level, to decide on the convenience of triggering notifications and to determine the best interface or channel to deliver these context-aware alerts.
Resumo:
A theoretical and numerical framework to model the foundation of marine offshore structures is presented. The theoretical model is composed by a system of partial differential equations describing coupling between seabed solid skeleton and pore fluids (water, air, oil,…) combined with a system of ordinary differential equations describing the specific constitutive relation of the seabed soil skeleton. Once the theoretical model is described, the finite element numerical procedure to achieve an approximate solution of the governing equations is outlined. In order to validate the proposed theoretical and numerical framework the seaward tilt mechanism induced by the action of breaking waves over a vertical breakwater is numerically reproduced. The results numerically attained are in agreement with the main conclusions drawn from the literature associated with this failure mechanism
Resumo:
Los avances en el hardware permiten disponer de grandes volúmenes de datos, surgiendo aplicaciones que deben suministrar información en tiempo cuasi-real, la monitorización de pacientes, ej., el seguimiento sanitario de las conducciones de agua, etc. Las necesidades de estas aplicaciones hacen emerger el modelo de flujo de datos (data streaming) frente al modelo almacenar-para-despuésprocesar (store-then-process). Mientras que en el modelo store-then-process, los datos son almacenados para ser posteriormente consultados; en los sistemas de streaming, los datos son procesados a su llegada al sistema, produciendo respuestas continuas sin llegar a almacenarse. Esta nueva visión impone desafíos para el procesamiento de datos al vuelo: 1) las respuestas deben producirse de manera continua cada vez que nuevos datos llegan al sistema; 2) los datos son accedidos solo una vez y, generalmente, no son almacenados en su totalidad; y 3) el tiempo de procesamiento por dato para producir una respuesta debe ser bajo. Aunque existen dos modelos para el cómputo de respuestas continuas, el modelo evolutivo y el de ventana deslizante; éste segundo se ajusta mejor en ciertas aplicaciones al considerar únicamente los datos recibidos más recientemente, en lugar de todo el histórico de datos. En los últimos años, la minería de datos en streaming se ha centrado en el modelo evolutivo. Mientras que, en el modelo de ventana deslizante, el trabajo presentado es más reducido ya que estos algoritmos no sólo deben de ser incrementales si no que deben borrar la información que caduca por el deslizamiento de la ventana manteniendo los anteriores tres desafíos. Una de las tareas fundamentales en minería de datos es la búsqueda de agrupaciones donde, dado un conjunto de datos, el objetivo es encontrar grupos representativos, de manera que se tenga una descripción sintética del conjunto. Estas agrupaciones son fundamentales en aplicaciones como la detección de intrusos en la red o la segmentación de clientes en el marketing y la publicidad. Debido a las cantidades masivas de datos que deben procesarse en este tipo de aplicaciones (millones de eventos por segundo), las soluciones centralizadas puede ser incapaz de hacer frente a las restricciones de tiempo de procesamiento, por lo que deben recurrir a descartar datos durante los picos de carga. Para evitar esta perdida de datos, se impone el procesamiento distribuido de streams, en concreto, los algoritmos de agrupamiento deben ser adaptados para este tipo de entornos, en los que los datos están distribuidos. En streaming, la investigación no solo se centra en el diseño para tareas generales, como la agrupación, sino también en la búsqueda de nuevos enfoques que se adapten mejor a escenarios particulares. Como ejemplo, un mecanismo de agrupación ad-hoc resulta ser más adecuado para la defensa contra la denegación de servicio distribuida (Distributed Denial of Services, DDoS) que el problema tradicional de k-medias. En esta tesis se pretende contribuir en el problema agrupamiento en streaming tanto en entornos centralizados y distribuidos. Hemos diseñado un algoritmo centralizado de clustering mostrando las capacidades para descubrir agrupaciones de alta calidad en bajo tiempo frente a otras soluciones del estado del arte, en una amplia evaluación. Además, se ha trabajado sobre una estructura que reduce notablemente el espacio de memoria necesario, controlando, en todo momento, el error de los cómputos. Nuestro trabajo también proporciona dos protocolos de distribución del cómputo de agrupaciones. Se han analizado dos características fundamentales: el impacto sobre la calidad del clustering al realizar el cómputo distribuido y las condiciones necesarias para la reducción del tiempo de procesamiento frente a la solución centralizada. Finalmente, hemos desarrollado un entorno para la detección de ataques DDoS basado en agrupaciones. En este último caso, se ha caracterizado el tipo de ataques detectados y se ha desarrollado una evaluación sobre la eficiencia y eficacia de la mitigación del impacto del ataque. ABSTRACT Advances in hardware allow to collect huge volumes of data emerging applications that must provide information in near-real time, e.g., patient monitoring, health monitoring of water pipes, etc. The data streaming model emerges to comply with these applications overcoming the traditional store-then-process model. With the store-then-process model, data is stored before being consulted; while, in streaming, data are processed on the fly producing continuous responses. The challenges of streaming for processing data on the fly are the following: 1) responses must be produced continuously whenever new data arrives in the system; 2) data is accessed only once and is generally not maintained in its entirety, and 3) data processing time to produce a response should be low. Two models exist to compute continuous responses: the evolving model and the sliding window model; the latter fits best with applications must be computed over the most recently data rather than all the previous data. In recent years, research in the context of data stream mining has focused mainly on the evolving model. In the sliding window model, the work presented is smaller since these algorithms must be incremental and they must delete the information which expires when the window slides. Clustering is one of the fundamental techniques of data mining and is used to analyze data sets in order to find representative groups that provide a concise description of the data being processed. Clustering is critical in applications such as network intrusion detection or customer segmentation in marketing and advertising. Due to the huge amount of data that must be processed by such applications (up to millions of events per second), centralized solutions are usually unable to cope with timing restrictions and recur to shedding techniques where data is discarded during load peaks. To avoid discarding of data, processing of streams (such as clustering) must be distributed and adapted to environments where information is distributed. In streaming, research does not only focus on designing for general tasks, such as clustering, but also in finding new approaches that fit bests with particular scenarios. As an example, an ad-hoc grouping mechanism turns out to be more adequate than k-means for defense against Distributed Denial of Service (DDoS). This thesis contributes to the data stream mining clustering technique both for centralized and distributed environments. We present a centralized clustering algorithm showing capabilities to discover clusters of high quality in low time and we provide a comparison with existing state of the art solutions. We have worked on a data structure that significantly reduces memory requirements while controlling the error of the clusters statistics. We also provide two distributed clustering protocols. We focus on the analysis of two key features: the impact on the clustering quality when computation is distributed and the requirements for reducing the processing time compared to the centralized solution. Finally, with respect to ad-hoc grouping techniques, we have developed a DDoS detection framework based on clustering.We have characterized the attacks detected and we have evaluated the efficiency and effectiveness of mitigating the attack impact.
Resumo:
Los alimentos son sistemas complejos, formados por diversas estructuras a diferentes escalas: macroscópica y microscópica. Muchas propiedades de los alimentos, que son importantes para su procesamiento, calidad y tratamiento postcosecha, están relacionados con su microestructura. La presente tesis doctoral propone una metodología completa para la determinación de la estructura de alimentos desde un punto de vista multi-escala, basándose en métodos de Resonancia Magnética Nuclear (NMR). Las técnicas de NMR son no invasivas y no destructivas y permiten el estudio tanto de macro- como de microestructura. Se han utilizado distintos procedimientos de NMR dependiendo del nivel que se desea estudiar. Para el nivel macroestructural, la Imagen de Resonancia Magnética (MRI) ha resultado ser muy útil para la caracterización de alimentos. Para el estudio microestructural, la MRI requiere altos tiempos de adquisición, lo que hace muy difícil la transferencia de esta técnica a aplicaciones en industria. Por tanto, la optimización de procedimientos de NMR basados en secuencias relaxometría 2D T1/T2 ha resultado ser una estrategia primordial en esta tesis. Estos protocolos de NMR se han implementado satisfactoriamente por primera vez en alto campo magnético. Se ha caracterizado la microestructura de productos alimentarios enteros por primera vez utilizando este tipo de protocolos. Como muestras, se han utilizado dos tipos de productos: modelos de alimentos y alimentos reales (manzanas). Además, como primer paso para su posterior implementación en la industria agroalimentaria, se ha mejorado una línea transportadora, especialmente diseñada para trabajar bajo condiciones de NMR en trabajos anteriores del grupo LPF-TAGRALIA. Se han estudiado y seleccionado las secuencias más rápidas y óptimas para la detección de dos tipos de desórdenes internos en manzanas: vitrescencia y roturas internas. La corrección de las imágenes en movimiento se realiza en tiempo real. Asimismo, se han utilizado protocolos de visión artificial para la clasificación automática de manzanas potencialmente afectadas por vitrescencia. El presente documento está dividido en diferentes capítulos: el Capítulo 2 explica los antecedentes de la presente tesis y el marco del proyecto en el que se ha desarrollado. El Capítulo 3 recoge el estado del arte. El Capítulo 4 establece los objetivos de esta tesis doctoral. Los resultados se dividen en cinco sub-secciones (dentro del Capítulo 5) que corresponden con los trabajos publicados bien en revistas revisadas por pares, bien en congresos internacionales o bien como capítulos de libros revisados por pares. La Sección 5.1. es un estudio del desarrollo de la vitrescencia en manzanas mediante MRI y lo relaciona con la posición de la fruta dentro de la copa del árbol. La Sección 5.2 presenta un trabajo sobre macro- y microestructura en modelos de alimentos. La Sección 5.3 es un artículo en revisión en una revista revisada por pares, en el que se hace un estudio microestrcutural no destructivo mediante relaxometría 2D T1/T2. la Sección 5.4, hace una comparación entre manzanas afectadas por vitrescencia mediante dos técnicas: tomografía de rayos X e MRI, en manzana. Por último, en la Sección 5.5 se muestra un trabajo en el que se hace un estudio de secuencias de MRI en línea para la evaluación de calidad interna en manzanas. Los siguientes capítulos ofrecen una discusión y conclusiones (Capítulo 6 y 7 respectivamente) de todos los capítulos de esta tesis doctoral. Finalmente, se han añadido tres apéndices: el primero con una introducción de los principios básicos de resonancia magnética nuclear (NMR) y en los otros dos, se presentan sendos estudios sobre el efecto de las fibras en la rehidratación de cereales de desayuno extrusionados, mediante diversas técnicas. Ambos trabajos se presentaron en un congreso internacional. Los resultados más relevantes de la presente tesis doctoral, se pueden dividir en tres grandes bloques: resultados sobre macroestructura, resultados sobre microestructura y resultados sobre MRI en línea. Resultados sobre macroestructura: - La imagen de resonancia magnética (MRI) se aplicó satisfactoriamente para la caracterización de macroestructura. En particular, la reconstrucción 3D de imágenes de resonancia magnética permitió identificar y caracterizar dos tipos distintos de vitrescencia en manzanas: central y radial, que se caracterizan por el porcentaje de daño y la conectividad (número de Euler). - La MRI proveía un mejor contraste para manzanas afectadas por vitrescencia que las imágenes de tomografía de rayos X (X-Ray CT), como se pudo verificar en muestras idénticas de manzana. Además, el tiempo de adquisición de la tomografía de rayos X fue alrededor de 12 veces mayor (25 minutos) que la adquisición de las imágenes de resonancia magnética (2 minutos 2 segundos). Resultados sobre microestructura: - Para el estudio de microestructura (nivel subcelular) se utilizaron con éxito secuencias de relaxometría 2D T1/T2. Estas secuencias se usaron por primera vez en alto campo y sobre piezas de alimento completo, convirtiéndose en una forma no destructiva de llevar a cabo estudios de microestructura. - El uso de MRI junto con relaxometría 2D T1/T2 permite realizar estudios multiescala en alimentos de forma no destructiva. Resultados sobre MRI en línea: - El uso de imagen de resonancia magnética en línea fue factible para la identificación de dos tipos de desórdenes internos en manzanas: vitrescencia y podredumbre interna. Las secuencias de imagen tipo FLASH resultaron adecuadas para la identificación en línea de vitrescencia en manzanas. Se realizó sin selección de corte, debido a que la vitrescencia puede desarrollarse en cualquier punto del volumen de la manzana. Se consiguió reducir el tiempo de adquisición, de modo que se llegaron a adquirir 1.3 frutos por segundos (758 ms por fruto). Las secuencias de imagen tipo UFLARE fueron adecuadas para la detección en línea de la podredumbre interna en manzanas. En este caso, se utilizó selección de corte, ya que se trata de un desorden que se suele localizar en la parte central del volumen de la manzana. Se consiguió reducir el tiempo de adquisicón hasta 0.67 frutos por segundo (1475 ms por fruto). En ambos casos (FLASH y UFLARE) fueron necesarios algoritmos para la corrección del movimiento de las imágenes en tiempo real. ABSTRACT Food is a complex system formed by several structures at different scales: macroscopic and microscopic. Many properties of foods that are relevant to process engineering or quality and postharvest treatments are related to their microstructure. This Ph.D Thesis proposes a complete methodology for food structure determination, in a multiscale way, based on the Nuclear Magnetic Resonance (NMR) phenomenon since NMR techniques are non-invasive and non-destructive, and allow both, macro- and micro-structure study. Different NMR procedures are used depending on the structure level under study. For the macrostructure level, Magnetic Resonance Imaging (MRI) revealed its usefulness for food characterization. For microstructure insight, MRI required high acquisition times, which is a hindrance for transference to industry applications. Therefore, optimization of NMR procedures based on T1/T2 relaxometry sequences was a key strategy in this Thesis. These NMR relaxometry protocols, are successfully implemented in high magnetic field. Microstructure of entire food products have been characterized for the first time using these protocols. Two different types of food products have been studied: food models and actual food (apples). Furthermore, as a first step for the food industry implementation, a grading line system, specially designed for working under NMR conditions in previous works of the LPF-TAGRALIA group, is improved. The study and selection of the most suitable rapid sequence to detect two different types of disorders in apples (watercore and internal breakdown) is performed and the real time image motion correction is applied. In addition, artificial vision protocols for the automatic classification of apples potentially affected by watercore are applied. This document is divided into seven different chapters: Chapter 2 explains the thesis background and the framework of the project in which it has been worked. Chapter 3 comprises the state of the art. Chapter 4 establishes de objectives of this Ph.D thesis. The results are divided into five different sections (in Chapter 5) that correspond to published peered reviewed works. Section 5.1 assesses the watercore development in apples with MRI and studies the effect of fruit location in the canopy. Section 5.2 is an MRI and 2D relaxometry study for macro- and microstructure assessment in food models. Section 5.3 is a non-destructive microstructural study using 2D T1/T2 relaxometry on watercore affected apples. Section 5.4 makes a comparison of X-ray CT and MRI on watercore disorder of different apple cultivars. Section 5.5, that is a study of online MRI sequences for the evaluation of apple internal quality. The subsequent chapters offer a general discussion and conclusions (Chapter 6 and Chapter 7 respectively) of all the works performed in the frame of this Ph.D thesis (two peer reviewed journals, one book chapter and one international congress).Finally, three appendices are included in which an introduction to NMR principles is offered and two published proceedings regarding the effect of fiber on the rehydration of extruded breakfast cereal are displayed. The most relevant results can be summarized into three sections: results on macrostructure, results on microstructure and results on on-line MRI. Results on macrostructure: - MRI was successfully used for macrostructure characterization. Indeed, 3D reconstruction of MRI in apples allows to identify two different types of watercore (radial and block), which are characterized by the percentage of damage and the connectivity (Euler number). - MRI provides better contrast for watercore than X-Ray CT as verified on identical samples. Furthermore, X-Ray CT images acquisition time was around 12 times higher (25 minutes) than MRI acquisition time (2 minutes 2 seconds). Results on microstructure: - 2D T1/T2 relaxometry were successfully applied for microstructure (subcellular level) characterization. 2D T1/T2 relaxometry sequences have been applied for the first time on high field for entire food pieces, being a non-destructive way to achieve microstructure study. - The use of MRI together with 2D T1/T2 relaxometry sequences allows a non-destructive multiscale study of food. Results on on-line MRI: - The use of on-line MRI was successful for the identification of two different internal disorders in apples: watercore and internal breakdown. FLASH imaging was a suitable technique for the on-line detection of watercore disorder in apples, with no slice selection, since watercore is a physiological disorder that may be developed anywhere in the apple volume. 1.3 fruits were imaged per second (768 ms per fruit). UFLARE imaging is a suitable sequence for the on-line detection of internal breakdown disorder in apples. Slice selection was used, as internal breakdown is usually located in the central slice of the apple volume. 0.67 fruits were imaged per second (1475 ms per fruit). In both cases (FLASH and UFLARE) motion correction was performed in real time, during the acquisition of the images.
Resumo:
Dipoli es un edificio plurifuncional localizado en el campus de Otaniemi que acoge los servicios generales del alumnado. Tanto encargo como propiedad pertenecía, hasta 2013, a la Asociación de Estudiantes de Helsinki University of Technology TKK (actualmente conocida como Aalto University), cuando se vendió y traspasó a la propia universidad. La tesis estudia este proyecto (1961-66) como uno de los ejemplos más significativos de la obra de los arquitectos Reima (1923-93)y Raili Pietilä (1926-), quienes se unieron tanto personal como profesionalmente el mismo año de la convocatoria del concurso (1961). Debido a la dificultad del encargo por la dimensión y flexibilidad de los espacios requeridos, el primer premio quedó desierto puesto que ninguna propuesta cumplía con todos los requisitos establecidos. El jurado otorgó el segundo premio a su proyecto junto con Osmo Lappo y solicitó posteriormente a ambos un desarrollo más profundo del mismo. Finalmente optaron por construir el edificio planteado por los Pietilä. En él debía desarrollarse un amplio abanico de actividades sociales como reuniones, entretenimiento nocturno, actuaciones, proyecciones de películas, cenas y bailes, así como servir de comedor durante los meses de invierno y espacio destinado a congresos en la época estival. Además, en dicho edificio se pretendía acoger el Sindicato de Estudiantes de la Universidad Tecnológica de Helsinki y se localizaría en el nuevo campus de Otaniemi a escasos kilómetros de la capital, donde Alvar Aalto ya estaba diseñando varios equipamientos universitarios siguiendo el planeamiento general que proyectó en el concurso de 1949. El elemento más característico de este proyecto es la cubierta, una estructura continua formada a partir de un caparazón hueco de hormigón in situ capaz de absorber dos lenguajes diferentes y generar, bajo ella, un espacio singular con multitud de posibilidades funcionales. Su geometría permite dividir el programa en estancias de menor tamaño sin perder ni la identidad ni unidad formal. La manera en que se iluminan los espacios bajo ella se consigue de formas diferentes: si bien la volumetría de líneas cartesianas presenta un sistema de aperturas longitudinales por donde penetra la luz cenital, en la forma más libre aparecen un conjunto de lucernarios de diferente tamaños y posiciones aparentemente aleatorias que introducen la luz natural por el plano del techo de forma más controlada, apoyada por la disposición de las ventanas perimetrales. El juego de espesores de la cubierta ofrece un conjunto de matices que pretenden resolver los tres condicionantes principales del proyecto, la adecuación de los usos en su interior, la compatibilidad de circulaciones de los usuarios y la inserción en el lugar. La percepción de este plano horizontal atraviesa lecturas múltiples, desde su uso primario de cubrición y cuya distancia con el plano del suelo se comprime para tensionar la grieta de luz al tiempo que ofrece nuevas relaciones con el paisaje hasta convertirse en fachada al apoyarse en el suelo y crear un límite físico entre interior y exterior. El objetivo fundamental de la tesis es entender mejor la traza particular de Dipoli desde una visión rigurosa que amplíe el conocimiento del edificio y al mismo tiempo explique el espacio propuesto a través de las diferentes herramientas de proyecto. Para ello se ha elaborado una documentación de la obra que parte de recopilar, seleccionar y redibujar la información existente desde el estado previo a la construcción del objeto terminado. El sentido de volver al Centro de Estudiantes de Otaniemi, supone, además de ayudar a comprender el trabajo de sus autores, entender el proceso de la historia de la arquitectura finlandesa y detectar relaciones con otras obras más lejanas con las que pudiese compartir ciertos valores, facilitando un entendimiento más global de la historia. Esta investigación se inicia desde la hipótesis que la forma final del edificio y su relación con el lugar, para proponer un tipo de arquitectura que confía en la observación sensible del programa, del uso, de las escalas de los espacios, del movimiento de las personas y su relación y anclaje con el lugar. Y en este sentido, el trabajo se desarrolla guiado por estos aspectos que se manifiestan también desde la influencia y comprensión de otros trabajos propios y ajenos. Para detectar las claves de proyecto que les han permitido la construcción espacial y formal de su arquitectura, entendiendo éstas como el conjunto de herramientas y mecanismos que reflexionan sobre una particular composición volumétrica y espacios dinámicos que ofrecen un aspecto exterior expresivo, la tesis se articula sobre dos capítulos principales “Contextos” y “Proyecto y Construcción” donde se quiere estudiar el proyecto en su forma más completa. Esta pareja de apartados aborda la descripción del marco temporal, físico, cultural, personal y profesional de los arquitectos, el análisis y síntesis de la propuesta y, por último, la repercusión del proyecto. Contextos pretende ubicar la obra además de facilitar la comprensión del conjunto de aspectos y condicionantes que determinaron la materialización de Dipoli. Este capítulo se subdivide a su vez en cinco apartados: Contexto Histórico, Físico y Cultural, Personal, Profesional e Incidencia de Dipoli. El Contexto histórico se centra en la descripción pormenorizada del conjunto de situaciones que influyen en el arquitecto cuando se toman decisiones durante el proceso de proyectar. El objetivo es definir los condicionantes que pueden haber afectado directa o indirectamente la obra. El capítulo comienza subrayando los temas de interés comunes para el resto de sus homólogos finlandeses. Principalmente se centra en la década de 1950 como etapa previa a la gestación de Dipoli. También atiende el proceso de evolución de la arquitectura finlandesa desde finales del S.XIX unido a la crisis de identidad nacional que el maestro Alvar Aalto superará por sus obras pero también por su personalidad y supondrá una gran sombra al resto de sus compañeros en el marco nacional e internacional provocando una reacción contraria a sus proyectos y persona entre el resto de arquitectos. Por este motivo, al tiempo que se gestaba el proyecto de Dipoli emergieron un grupo de profesionales que defendían fuertemente las trazas cartesianas del racionalismo como Aulis Blomstedt o Juhani Pallasmaa y que consiguieron abrir una nueva perspectiva intelectual. Por tanto será inevitable que la presencia del maestro nórdico Alvar Aalto aparezca a lo largo de toda la tesis, permitiéndonos un mejor entendimiento de la carga orgánica y humana de sus trabajos desde la perspectiva de los Pietilä. Posteriormente este capítulo desgrana aquellos intereses que dominaban el marco arquitectónico internacional y que pudieron influir en las soluciones planteadas. Dipoli será puesto en relación a diversas arquitecturas contemporáneas que presentan un enfoque diferente al esbozado por el Movimiento Moderno y cuyo marco de referencias guarda algún tipo de relación con los mismos temas de proyecto. Es el caso del grupo Team 10 o determinados ejemplos de arquitectos alemanes como Hugo Häring y Hans Scharoun, incluso puntos en común con el sistema constructivista del vanguardismo soviético. Estas relaciones con otras arquitecturas matizan su carácter singular e incluso se revisa en qué medida esta propuesta amplifica los aspectos que comparten. En cuanto al Contexto físico y cultural, una primera aproximación al ámbito donde el edificio se sitúa nos revela las características generales de un lugar claramente diferente a la ubicación del resto de edificios del campus. A continuación se adentra en el origen del nuevo centro universitario desde el planeamiento urbanístico de Alvar Aalto y revela tanto la forma de disponer las construcciones como las propuestas que el maestro había desarrollado con anterioridad a la convocatoria del concurso. Además aquí se destacan aquellos aspectos que propiciaron la elección del solar. Prosigue adentrándose en el programa propuesto por el jurado –entre cuyos miembros se encontraba el propio Aalto- y el análisis de las propuestas presentadas por cada uno de los arquitectos que obtuvieron una mención. Por último, se estudian y definen las obras más relevantes localizadas en el entorno físico del proyecto y que existían con anterioridad, destacando principalmente el trabajo de los Siren (Heikki y Kaija) y Alvar Aalto por los motivos desarrollados en el punto anterior. Prosigue con el Contexto Personal donde se seleccionan de datos biográficos que expliquen, en parte, las circunstancias personales que perfilaron su manera de entender la arquitectura y que consecuentemente influyeron en su camino intelectual hasta llegar a Dipoli. A continuación se indaga en la relación profesional y personal con Raili Paatelainen para establecer en qué medida participaron ambos en la propuesta. Este apartado concluye con el estudio de la etapa docente que profundiza en los temas de proyecto que Pietilä presentaba a los alumnos en sus clases de proyectos. En el proceso de comprensión de la evolución teórica y proyectual de los arquitectos se considera imprescindible la revisión de otros edificios propios que se enmarcan en el Contexto profesional. Éstos forman parte de la etapa de mayor actividad del estudio como son el Pabellón de Finlandia para la Exposición de Bruselas (1956-58), la Iglesia de Kaleva en Tampere (1959-66) y el Pabellón Nórdico para la Bienal de Venecia de 1960. Se completa la visión de estos tres ejemplos previos a Dipoli desde las investigaciones teóricas que realizó de forma paralela y que se difundieron a través de varias exposiciones. Nos centraremos en aquellas tres que fueron más relevantes en la madurez del arquitecto (Morfología y Urbanismo, La Zona y Estudios Modulares) para establecer relaciones entre unos aspectos y otros. En esta sección no se pretende realizar un análisis en profundidad, ni tampoco recoger la mayor parte de la obra de los Pietilä, sino más bien revelar los rasgos más significativos que faciliten el entendimiento de los valores anteriormente mencionados. Por último, Incidencia de Dipoli se refiere a la repercusión del edificio durante su construcción y finalización. Desde esta premisa, recoge el conjunto de críticas publicadas en las revistas de mayor difusión internacional que decidieron mostrar la propuesta además desde el propio interés del proyecto, por tratarse de un arquitecto reconocido internacionalmente gracias a la repercusión que obtuvieron sus proyectos anteriores. Se analiza el contenido de los artículos para establecer diversos encuentros con el capítulo Contextos y con los propios escritos de Pietilä. También se recogen las opiniones de críticos relevantes como Kenneth Frampton, Bruno Zevi o Christian Norberg-Schulz, destacando aquellos aspectos por los que mostraron un interés mayor. También se recoge y valora la opinión de sus homólogos finlandeses y que contradictoriamente se sitúa en el polo opuesto a la del juicio internacional. Se adentra en las situaciones complejas que propició el rechazo del edificio al desvincularse por completo de la corriente racionalista que dominaba el pensamiento crítico finés unido a la búsqueda de nuevas alternativas proyectuales que les distanciase del éxito del maestro Alvar Aalto. Pretende esclarecer tanto la justificación de dichos comentarios negativos como los motivos por los cuales Reima y Raili no obtuvieron encargos durante casi diez años, tras la finalización de Dipoli. Nos referiremos también a la propia opinión de los arquitectos. Para ello, en el apartado Morfología Literal se recoge el texto que Reima Pietilä publicó en el número 9 de la revista Arkkitehti para contrarrestar las numerosas críticas recibidas. Se subraya aquellos aspectos de proyecto que inciden directamente en la percepción y razón de ser de la propuesta. Por último, se manifiesta la valoración crítica de dos personas muy próximas al entorno personal y profesional de los Pietilä: Roger Connah y Malcolm Quantrill. Ambas figuras son las que han adentrado en el trabajo de los arquitectos con mayor profundidad y aportado una visión más completa del contexto arquitectónico de Finlandia en el s.XX. Se han interesado principalmente por el conocimiento morfológico que les ha llevado a la observación de los fenómenos de la naturaleza. Se apunta también la falta de objetividad de sus opiniones originadas en parte por haber colaborado profesionalmente y ser amigo íntimo de la familia respectivamente. El valor de la documentación aportada por ambos reside principalmente en la fiel transmisión de las explicaciones del propio Pietilä. El último capítulo Proyecto y Construcción engloba tanto la descripción exhaustiva del proyecto como el análisis de la obra. Al tiempo que se explica la propuesta, se establecen continuamente relaciones y paralelismos con otras arquitecturas que ayudan a entenderla. Para ello, se establecen tres apartados elementales: “El lugar”, “Programa y geometrías” y “Presencia y materialidad física” y se pretende identificar aquellas herramientas de proyecto en las que confía para la materialización de la obra al tiempo que se profundiza en la evolución de la propuesta. En cuanto a El lugar, se describe de manera pormenorizada el recorrido hasta alcanzar el edificio y cómo la mirada atenta de la naturaleza que lo rodea está continuamente presente en todos los dibujos de la propuesta. Se realiza un estudio tanto de la multiplicidad de accesos como del vacío existente en planta baja que forma parte del espacio público y que atraviesa el edificio diagonalmente. Desde aquí se evaluará los espacios intermedios existentes que matizan los ámbitos donde se desarrolla cada una de las actividades. A continuación se enfoca el estudio de la ventana como elemento relevante en la transición de espacios interiores y exteriores para posteriormente adentrarnos en la importancia de los recorridos en la planta superior y cómo las salas polivalentes se acomodan a estos. Programas y geometrías explica la solución y desarrollo de la propuesta a través de los tanteos de la planta. Detecta simultáneamente aquellos aspectos que aparecen en otros proyectos y que pueden haber influido en el desarrollo de la obra. Una vez que han sido estudiados los dos niveles se introduce la sección para analizar las conexiones entre ambos planos, destacando los tipos de escaleras y accesos que propician la multiplicidad de recorridos y en consecuencia el movimiento de las personas. En el último apartado se identifica la geometría de la estructura a través de la descripción formal de la cubierta y sus apoyos en planta para conocer cómo responde el volumen definitivo a la adecuación de los usos. El carácter del edificio a través del empleo de los materiales y las técnicas de construcción utilizadas se indaga desde la Materialidad física. Este punto de vista esclarece temas de proyecto como la relación multisensorial de Dipoli y el concepto del tiempo relacionado con espacios de carácter dinámico o estático. Una vez se ha realizado un análisis de la obra construida a través de sus recorridos, se plantea un último regreso al exterior para observar la presencia del edificio a través de su tamaño, color y texturas. Este apartado nos mostrará la mirada atenta a la escala del proyecto como vector de dirección que pretende encontrar la inserción adecuada del edificio en el lugar, cerrando el proceso de proyecto. El motivo de desarrollar esta tesis en torno a Dipoli se apoya en su consideración como paradigma de una arquitectura que confía en la observación sensible del programa, uso, las escalas de los espacios, circulaciones y su relación y anclaje con el lugar como argumentos fundamentales de proyecto, cuya realidad concreta consigue situar la propuesta en el marco histórico de la arquitectura nórdica e internacional. Además la distancia histórica desde mundo actual respecto a la década de los años 60 del s.XX nos permite entender el contexto cultural donde se inserta Dipoli que continúa nuestra historia reciente de la arquitectura y concibe la obra construida como una extensión de nuestro mundo contemporáneo. Por ello se valora el proyecto desde la mirada hacia atrás que analiza las diferencias entre la realidad construida y las intenciones de partida. Esta revisión dotada de una distancia crítica nos permite adentrarnos en la investigación de manera objetiva. Igualmente presenta una distancia histórica (referida al tiempo transcurrido desde su construcción) y socio-cultural que favorece la atenuación de prejuicios y aspectos morales que puedan desviar una mirada analítica y se alejen de una valoración imparcial. Dipoli, enmarcada en dicho periodo, mantiene la capacidad crítica para ser analizada. ABSTRACT The dissertation defends Dipoli ( 1961-1966 ) as one of the most significant examples of the Reima ( 1923-1993 ) Raili Pietilä (1926 -), who joined both personally and professionally the same year of the project´s competition (1961). Due to the difficulty of the commission by the size and flexibility of the required areas, there was not first prize awarded because none of the submitted proposals met all the requirements. The jury awarded Dipoli with second prize together with a competing scheme by Osmo Lappo. The board subsequently asked for a further development of both proposals and finally selected the one by Pietilä. The completed project allows a wide range of social activities such as meetings, night entertainment, performances, film screenings, dinners and dance to take place while the facility can also serve as a dining hall during winter months and conference center in the summer when necessary. In addition, the building was intended to house the Helsinki University of Technology (now Aalto University) Student Union. The University, at the time being designed by Alvar Aalto following his successful entry to the master plan competition in 1949, was located a few kilometers from the capital on the new campus in Otaniemi. The most characteristic element of the project is its roof which can be described as a continuous form achieved an in-situ concrete cavity structure that can modulate two different geometric languages and generate a singular space under it. The building is, in general terms, an unique shell space with many functional possibilities. Its geometry allows the program to split its functions into smaller sizes without losing the identity or formal unity of the general object. The way in which the spaces are illuminated is solved in two different ways. First, while the Cartesian-line volume presents a series of longitudinal openings into which natural light penetrates, the free-form volume shows a set of skylights in apparently random positions that vary in size and that introduce natural light through the roof in a more controlled manner. In addition the perimeter openings are present that relate directly to the nature that surrounds the building. The adaptable thickness of the roof provides a set of solutions that resolve the three main issues of the project: the adequacy of the functions in the interior areas, the complex capability for user flows and circulation and the manner in which the building is inserted in its context. The perception of the roof´ horizontal plane offers multiple interpretations, from its primary use as a primitive cover whose distance from the ground compresses the void and creates a light tension, to the new relationships with the landscape where by the roof becomes a façade cladding and rests directly on the ground to create a physical boundary between interior and exterior. The main scope of this research is to better understand the particular trace of Dipoli from a rigorous architectural view to deep into the knowledge of the building and, at the same time, to explain the space through a series of project design tools that have been used. For this reason, an accurate documentation has arisen from collecting, selecting and redrawing the existing information from the sketching stage to the built object. A through reanalysis of the Otaniemi Student Center therefore provides not only a more complete understanding of the work of the architects, but also leads to a better comprehension of the history of Finnish architecture, which is related to other cultural relationships and which shares certain architectural values which a more comprehensive understanding of general architectural history. This research starts from the working hypothesis that the final shape of the building and its relationship to its place created a type of architecture that relies on a sensitive observation of the program, the use of varying scales of space, the movement and flow of people and finally the coexistence with the natural context. In this sense, the work is developed based on those aspects that are also reflected in the influence of others architects by understanding both their own and other architects´ work. In order to obtain a personal reading of the project facts that allowed the architects construct Dipoli (understanding the facts as a set of tools and project mechanisms that are able to generate a particular volumetric composition and dynamic spaces that at the same time provide an expressive exterior), the research hinges on two main sections, "Contexts" and "Design and Construction", that study the project from all perspectives. This two parts address the description of temporal , physical , cultural , personal and professional framework, analysis and synthesis of the proposal and finally, the national and international influences on the project. Contexts seek to place the work and to facilitate the understanding of all aspects and conditions that led to the creation of Dipoli. This chapter is subdivided into five sections: Historical Context, Cultural and Physical, Personal, Professional and Dipoli Influences. Historical Context focuses on a detailed description of a set of precedents that influenced the architect when making decisions during design process. The objective is to define the conditions that could directly or indirectly shape the work. This chapter begins by highlighting issues of common interest to the rest its Finnish counterparts. The text is mainly focused on the 1950s as a prelude to Dipoli´s conception. It will also address the process of Finnish architecture from the late nineteenth century as linked to the national identity crisis that the great master Alvar Aalto overcame with both his works and personality, being a great drain on the rest of his colleagues. This aspect caused a reaction against Aalto and his projects. For this reason, at the time that Dipoli came into being a number of professionals who strongly defended the traces of Cartesian Rationalism, including Juhani Pallasmaa and Aulis Blomstedt emerged and brought a new intellectual perspective to the Finnish architecture scene. It is thus inevitable that the presence of Alvar Aalto will be apparent throughout the dissertation to allow a better understanding of the organizational and human character of their work from the Pietiläs´ perspective. Later, this chapter identifies those interests that dominated the international architectural framework that could have influenced Dipoli. The project will be placed in relation to various contemporary architectural works that were created using a different approach to that outlined by the Modern Movement. This is present in the case of Team 10 group and with specific examples of German architects including Hans Scharoun and Hugo Häring, as well as some commonalities with Soviet Constructivism. These relationships with other architecture qualify its singular character and even extend how this proposal amplifies those shared aspects. Physical and Cultural Context involves the unique site where the building is located which includes different features from the location of other buildings on the campus. IT then progresses into the origin of the new campus from the urban planning of Alvar Aalto and reveals both the setting and proposed constructions that Aalto had developed. This section also highlights the aspects that led to the choice of the site. I go deep into the program proposed by the jury (of whom Aalto was a member) and the analysis of the alternative proposals that received a special commendation. Finally, I study and define the most relevant works located near Dipoli, emphasizing primarily the work of the Sirens (Heikki and Kaija) and Alvar Aalto for the reasons developed in the previous section. I then proceed with the Personal Context, where a series of biographical data are selected to begin to explain the personal circumstances that outlined the Pietilas´ architectural understanding and consequently could have influenced their intellectual approach to design Dipoli. Then the text explores their professional and personal relationship to establish what extent they participated in the proposal. This section concludes with the study of the Reima Pietilä´s teaching period at Oulu that explores the issues he presented to his students there. In the process of understanding the Pietiläs´ theoretical and design evolution, it must be considered essential to study other buildings that are part of their professional context. These projects belong to the most active stage of their office and include the Finnish Pavilion for the World´s Fair in Brussels (1956-1958), Kaleva Church in Tampere (1959-1966) and the Nordic Pavilion at the 1960 Venice Biennale. We will complete the view of Dipoli from previous theoretical investigations performed in parallel that were spread through several exhibitions. We will focus on the three that were most relevant to the evolution of the architect (Morphology and Urbanism, the Zone, and Stick Studies) to establish a series of useful relationships. This section is not intended to be an in-depth analysis nor to collect most of the work of the Pietiläs´; but rather to reveal the most significant features that facilitate an understanding of the above values. Finally, Dipoli´s Impact refers to the influence of the building from many points of view during its construction and after its completion. It collects the reviews published in the world's most relevant magazines which had decided to show the alternate proposals, generally conceived of by internationally-renowned architects. I analyze the content of the articles in order to establish a series of parallels with the chapter Contexts and own writings Pietilä to clarify if main design directions were clear at that time. The views of relevant critics, including Kenneth Frampton, Bruno Zevi and Christian Norberg -Schulz, are also collected here. This episode also collects and assesses the views of these critics´ Finnish counterparts that generally stood at the opposite side of the international debate. It delves into the complex situation that led to the rejection of the building by the rationalists that dominated the Finnish critical thinking while searching for new alternatives to distance themselves from the Alvar Aalto´s success. It aims to clarify both the justification for these negative comments and the reasons why Reima and Raili not obtain a single commission for nearly ten years after the completion of Dipoli. From the critics we will approach the opinion of Reima Pietilä himself. To do this, in the Literal Morphology section we will see how the architect tried to defend his position. Those design tool that directly affected the perception of the proposal are provided through the figures of Roger Connah and Malcolm Quantrill. Finally, a critical –personal and professional- review of these two very close figures will take place. Despite knowing that both delved into the work of architects with greater depth and provided a complete view of the Finnish architectural context in 20th century, they have focused mainly morphological knowledge which has led to the observation of natural phenomena. It also notes the lack of objectivity in their views caused in part by, in the case of Connah, collaborating professionally and in that of Quantrill being a close friend of the Pietilä family. The value of the documentation provided by both resides mainly in the faithful transmission of the Pietiläs´ own explanations. The final chapter covers both Design and Construction and provides a comprehensive project description in order tofaithfully analyse the work. As the proposal is being explained, relationships of its built form are continuously linked to other architectural projects to gain a better understanding of Dipoli itself. To do this we have set three basic sections: "The Place", "Geometries & Function" and "Presence and Materiality. Construction process" that intended to identify those project tools for the realization of the work while deepens the proposal´s evolution. The Place describes how to approach and reach the building in detail and how the view out towards the surrounding natural setting is continuously shown in the proposal´s drawings. We will study both the multiplicity of entrances as well as the corridor downstairs as part of the public space that diagonally goes through the building. Then, the existing voids in the concrete cave for public activities will be evaluated. Lastly, the study will focus on the openings as a significant element in the transition from interior and exterior areas to describe the importance of the circulation on the second floor and how function is able to accommodate through the areas of void. Geometries & Function explains the final solution and the development of the proposal through the floor plan. Simultaneously it detects those aspects that appear in other projects and that may have influenced the development of the work. Once we have analyzed both levels –ground and second floor- section drawings come into the topic to study the connections between the two levels and highlighting the types of hierarchy for the multiple paths to organize the flows of people inside the building. In the last section the structural geometry is identified through the description of the form and how it responds to the final volumetrical settings. The character of the building through the use of materials and construction techniques inquires from Presence and Materiality. This point of view clarifies multisensory project issues as Dipoli relationship to the dynamic or static character or different spaces inside the building. Once the analysis has been made we will step back to a final return to the building´s exterior to analyze the presence of the building through its scale, colour and textures. This section emphasizes the project´s scale and orientation to find the proper insertion of the building in place. In short, this dissertation has been done by the idea that Pietiläs´special abilities were allowed from a sensitive observation of the program, the creation of a variety of special scales, dynamic circulation and the relating relationship with the project´s location as fundamental design tools. From this aspect, Dipoli could be more usefully framed in the historical context of Nordic and international architecture. The dissertation allows us to better understand the cultural context of the 1960s, in which Dipoli was established since it continues our recent architectural history. The final built form is conceived as an extension of our contemporary world. Therefore the project is assessed through the comparison of the architects´ intentions and the final completed project.
Resumo:
We describe a domain ontology development approach that extracts domain terms from folksonomies and enrich them with data and vocabularies from the Linked Open Data cloud. As a result, we obtain lightweight domain ontologies that combine the emergent knowledge of social tagging systems with formal knowledge from Ontologies. In order to illustrate the feasibility of our approach, we have produced an ontology in the financial domain from tags available in Delicious, using DBpedia, OpenCyc and UMBEL as additional knowledge sources.
Resumo:
The Pridneprovsky Chemical Plant was a largest uranium processing enterprises, producing a huge amount of uranium residues. The Zapadnoe tailings site contains the majority of these residues. We propose a theoretical framework based on Multi-Criteria Decision Analysis and fuzzy logic to analyse different remediation alternatives for the Zapadnoe tailings, in which potentially conflicting economic, radiological, social and environmental objectives are simultaneously taken into account. An objective hierarchy is built that includes all the relevant aspects. Fuzzy rather than precise values are proposed for use to evaluate remediation alternatives against the different criteria and to quantify preferences, such as the weights representing the relative importance of criteria identified in the objective hierarchy. Finally, it is proposed that remediation alternatives should be evaluated by means of a fuzzy additive multi-attribute utility function and ranked on the basis of the respective trapezoidal fuzzy number representing their overall utility.
Resumo:
Among the different interchange design aspects, integrated land use and infrastructure planning is maybe one of the most problematic fields in practice, given that a joint transport and urban planning spills over the regular scope of action of interchange developers, whereas it involves the cooperation and agreement of various authorities. Not only this, but the very issue of land use-transport integration seems to be a long-standing mantra in planning and transport research, lacking scientific evidence. This paper is an output of an ongoing European research project called ?NODES - New tOols for Design and OpEration of Urban Transport InterchangeS?. Its aim is to start re-focusing the academic-scientific evidence on the question and to foresee a specific and practical framework to approach the problem. The underlying hypothesis is that the interchange could be a catalyst of life and security in the city.
Resumo:
La metodología Integrated Safety Analysis (ISA), desarrollada en el área de Modelación y Simulación (MOSI) del Consejo de Seguridad Nuclear (CSN), es un método de Análisis Integrado de Seguridad que está siendo evaluado y analizado mediante diversas aplicaciones impulsadas por el CSN; el análisis integrado de seguridad, combina las técnicas evolucionadas de los análisis de seguridad al uso: deterministas y probabilistas. Se considera adecuado para sustentar la Regulación Informada por el Riesgo (RIR), actual enfoque dado a la seguridad nuclear y que está siendo desarrollado y aplicado en todo el mundo. En este contexto se enmarcan, los proyectos Safety Margin Action Plan (SMAP) y Safety Margin Assessment Application (SM2A), impulsados por el Comité para la Seguridad de las Instalaciones Nucleares (CSNI) de la Agencia de la Energía Nuclear (NEA) de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) en el desarrollo del enfoque adecuado para el uso de las metodologías integradas en la evaluación del cambio en los márgenes de seguridad debidos a cambios en las condiciones de las centrales nucleares. El comité constituye un foro para el intercambio de información técnica y de colaboración entre las organizaciones miembro, que aportan sus propias ideas en investigación, desarrollo e ingeniería. La propuesta del CSN es la aplicación de la metodología ISA, especialmente adecuada para el análisis según el enfoque desarrollado en el proyecto SMAP que pretende obtener los valores best-estimate con incertidumbre de las variables de seguridad que son comparadas con los límites de seguridad, para obtener la frecuencia con la que éstos límites son superados. La ventaja que ofrece la ISA es que permite el análisis selectivo y discreto de los rangos de los parámetros inciertos que tienen mayor influencia en la superación de los límites de seguridad, o frecuencia de excedencia del límite, permitiendo así evaluar los cambios producidos por variaciones en el diseño u operación de la central que serían imperceptibles o complicados de cuantificar con otro tipo de metodologías. La ISA se engloba dentro de las metodologías de APS dinámico discreto que utilizan la generación de árboles de sucesos dinámicos (DET) y se basa en la Theory of Stimulated Dynamics (TSD), teoría de fiabilidad dinámica simplificada que permite la cuantificación del riesgo de cada una de las secuencias. Con la ISA se modelan y simulan todas las interacciones relevantes en una central: diseño, condiciones de operación, mantenimiento, actuaciones de los operadores, eventos estocásticos, etc. Por ello requiere la integración de códigos de: simulación termohidráulica y procedimientos de operación; delineación de árboles de sucesos; cuantificación de árboles de fallos y sucesos; tratamiento de incertidumbres e integración del riesgo. La tesis contiene la aplicación de la metodología ISA al análisis integrado del suceso iniciador de la pérdida del sistema de refrigeración de componentes (CCWS) que genera secuencias de pérdida de refrigerante del reactor a través de los sellos de las bombas principales del circuito de refrigerante del reactor (SLOCA). Se utiliza para probar el cambio en los márgenes, con respecto al límite de la máxima temperatura de pico de vaina (1477 K), que sería posible en virtud de un potencial aumento de potencia del 10 % en el reactor de agua a presión de la C.N. Zion. El trabajo realizado para la consecución de la tesis, fruto de la colaboración de la Escuela Técnica Superior de Ingenieros de Minas y Energía y la empresa de soluciones tecnológicas Ekergy Software S.L. (NFQ Solutions) con el área MOSI del CSN, ha sido la base para la contribución del CSN en el ejercicio SM2A. Este ejercicio ha sido utilizado como evaluación del desarrollo de algunas de las ideas, sugerencias, y los algoritmos detrás de la metodología ISA. Como resultado se ha obtenido un ligero aumento de la frecuencia de excedencia del daño (DEF) provocado por el aumento de potencia. Este resultado demuestra la viabilidad de la metodología ISA para obtener medidas de las variaciones en los márgenes de seguridad que han sido provocadas por modificaciones en la planta. También se ha mostrado que es especialmente adecuada en escenarios donde los eventos estocásticos o las actuaciones de recuperación o mitigación de los operadores pueden tener un papel relevante en el riesgo. Los resultados obtenidos no tienen validez más allá de la de mostrar la viabilidad de la metodología ISA. La central nuclear en la que se aplica el estudio está clausurada y la información relativa a sus análisis de seguridad es deficiente, por lo que han sido necesarias asunciones sin comprobación o aproximaciones basadas en estudios genéricos o de otras plantas. Se han establecido tres fases en el proceso de análisis: primero, obtención del árbol de sucesos dinámico de referencia; segundo, análisis de incertidumbres y obtención de los dominios de daño; y tercero, cuantificación del riesgo. Se han mostrado diversas aplicaciones de la metodología y ventajas que presenta frente al APS clásico. También se ha contribuido al desarrollo del prototipo de herramienta para la aplicación de la metodología ISA (SCAIS). ABSTRACT The Integrated Safety Analysis methodology (ISA), developed by the Consejo de Seguridad Nuclear (CSN), is being assessed in various applications encouraged by CSN. An Integrated Safety Analysis merges the evolved techniques of the usually applied safety analysis methodologies; deterministic and probabilistic. It is considered as a suitable tool for assessing risk in a Risk Informed Regulation framework, the approach under development that is being adopted on Nuclear Safety around the world. In this policy framework, the projects Safety Margin Action Plan (SMAP) and Safety Margin Assessment Application (SM2A), set up by the Committee on the Safety of Nuclear Installations (CSNI) of the Nuclear Energy Agency within the Organization for Economic Co-operation and Development (OECD), were aimed to obtain a methodology and its application for the integration of risk and safety margins in the assessment of the changes to the overall safety as a result of changes in the nuclear plant condition. The committee provides a forum for the exchange of technical information and cooperation among member organizations which contribute their respective approaches in research, development and engineering. The ISA methodology, proposed by CSN, specially fits with the SMAP approach that aims at obtaining Best Estimate Plus Uncertainty values of the safety variables to be compared with the safety limits. This makes it possible to obtain the exceedance frequencies of the safety limit. The ISA has the advantage over other methods of allowing the specific and discrete evaluation of the most influential uncertain parameters in the limit exceedance frequency. In this way the changes due to design or operation variation, imperceptibles or complicated to by quantified by other methods, are correctly evaluated. The ISA methodology is one of the discrete methodologies of the Dynamic PSA framework that uses the generation of dynamic event trees (DET). It is based on the Theory of Stimulated Dynamics (TSD), a simplified version of the theory of Probabilistic Dynamics that allows the risk quantification. The ISA models and simulates all the important interactions in a Nuclear Power Plant; design, operating conditions, maintenance, human actuations, stochastic events, etc. In order to that, it requires the integration of codes to obtain: Thermohydraulic and human actuations; Even trees delineation; Fault Trees and Event Trees quantification; Uncertainty analysis and risk assessment. This written dissertation narrates the application of the ISA methodology to the initiating event of the Loss of the Component Cooling System (CCWS) generating sequences of loss of reactor coolant through the seals of the reactor coolant pump (SLOCA). It is used to test the change in margins with respect to the maximum clad temperature limit (1477 K) that would be possible under a potential 10 % power up-rate effected in the pressurized water reactor of Zion NPP. The work done to achieve the thesis, fruit of the collaborative agreement of the School of Mining and Energy Engineering and the company of technological solutions Ekergy Software S.L. (NFQ Solutions) with de specialized modeling and simulation branch of the CSN, has been the basis for the contribution of the CSN in the exercise SM2A. This exercise has been used as an assessment of the development of some of the ideas, suggestions, and algorithms behind the ISA methodology. It has been obtained a slight increase in the Damage Exceedance Frequency (DEF) caused by the power up-rate. This result shows that ISA methodology allows quantifying the safety margin change when design modifications are performed in a NPP and is specially suitable for scenarios where stochastic events or human responses have an important role to prevent or mitigate the accidental consequences and the total risk. The results do not have any validity out of showing the viability of the methodology ISA. Zion NPP was retired and information of its safety analysis is scarce, so assumptions without verification or approximations based on generic studies have been required. Three phases are established in the analysis process: first, obtaining the reference dynamic event tree; second, uncertainty analysis and obtaining the damage domains; third, risk quantification. There have been shown various applications of the methodology and advantages over the classical PSA. It has also contributed to the development of the prototype tool for the implementation of the ISA methodology (SCAIS).
Resumo:
El uso de aritmética de punto fijo es una opción de diseño muy extendida en sistemas con fuertes restricciones de área, consumo o rendimiento. Para producir implementaciones donde los costes se minimicen sin impactar negativamente en la precisión de los resultados debemos llevar a cabo una asignación cuidadosa de anchuras de palabra. Encontrar la combinación óptima de anchuras de palabra en coma fija para un sistema dado es un problema combinatorio NP-hard al que los diseñadores dedican entre el 25 y el 50 % del ciclo de diseño. Las plataformas hardware reconfigurables, como son las FPGAs, también se benefician de las ventajas que ofrece la aritmética de coma fija, ya que éstas compensan las frecuencias de reloj más bajas y el uso más ineficiente del hardware que hacen estas plataformas respecto a los ASICs. A medida que las FPGAs se popularizan para su uso en computación científica los diseños aumentan de tamaño y complejidad hasta llegar al punto en que no pueden ser manejados eficientemente por las técnicas actuales de modelado de señal y ruido de cuantificación y de optimización de anchura de palabra. En esta Tesis Doctoral exploramos distintos aspectos del problema de la cuantificación y presentamos nuevas metodologías para cada uno de ellos: Las técnicas basadas en extensiones de intervalos han permitido obtener modelos de propagación de señal y ruido de cuantificación muy precisos en sistemas con operaciones no lineales. Nosotros llevamos esta aproximación un paso más allá introduciendo elementos de Multi-Element Generalized Polynomial Chaos (ME-gPC) y combinándolos con una técnica moderna basada en Modified Affine Arithmetic (MAA) estadístico para así modelar sistemas que contienen estructuras de control de flujo. Nuestra metodología genera los distintos caminos de ejecución automáticamente, determina las regiones del dominio de entrada que ejercitarán cada uno de ellos y extrae los momentos estadísticos del sistema a partir de dichas soluciones parciales. Utilizamos esta técnica para estimar tanto el rango dinámico como el ruido de redondeo en sistemas con las ya mencionadas estructuras de control de flujo y mostramos la precisión de nuestra aproximación, que en determinados casos de uso con operadores no lineales llega a tener tan solo una desviación del 0.04% con respecto a los valores de referencia obtenidos mediante simulación. Un inconveniente conocido de las técnicas basadas en extensiones de intervalos es la explosión combinacional de términos a medida que el tamaño de los sistemas a estudiar crece, lo cual conlleva problemas de escalabilidad. Para afrontar este problema presen tamos una técnica de inyección de ruidos agrupados que hace grupos con las señales del sistema, introduce las fuentes de ruido para cada uno de los grupos por separado y finalmente combina los resultados de cada uno de ellos. De esta forma, el número de fuentes de ruido queda controlado en cada momento y, debido a ello, la explosión combinatoria se minimiza. También presentamos un algoritmo de particionado multi-vía destinado a minimizar la desviación de los resultados a causa de la pérdida de correlación entre términos de ruido con el objetivo de mantener los resultados tan precisos como sea posible. La presente Tesis Doctoral también aborda el desarrollo de metodologías de optimización de anchura de palabra basadas en simulaciones de Monte-Cario que se ejecuten en tiempos razonables. Para ello presentamos dos nuevas técnicas que exploran la reducción del tiempo de ejecución desde distintos ángulos: En primer lugar, el método interpolativo aplica un interpolador sencillo pero preciso para estimar la sensibilidad de cada señal, y que es usado después durante la etapa de optimización. En segundo lugar, el método incremental gira en torno al hecho de que, aunque es estrictamente necesario mantener un intervalo de confianza dado para los resultados finales de nuestra búsqueda, podemos emplear niveles de confianza más relajados, lo cual deriva en un menor número de pruebas por simulación, en las etapas iniciales de la búsqueda, cuando todavía estamos lejos de las soluciones optimizadas. Mediante estas dos aproximaciones demostramos que podemos acelerar el tiempo de ejecución de los algoritmos clásicos de búsqueda voraz en factores de hasta x240 para problemas de tamaño pequeño/mediano. Finalmente, este libro presenta HOPLITE, una infraestructura de cuantificación automatizada, flexible y modular que incluye la implementación de las técnicas anteriores y se proporciona de forma pública. Su objetivo es ofrecer a desabolladores e investigadores un entorno común para prototipar y verificar nuevas metodologías de cuantificación de forma sencilla. Describimos el flujo de trabajo, justificamos las decisiones de diseño tomadas, explicamos su API pública y hacemos una demostración paso a paso de su funcionamiento. Además mostramos, a través de un ejemplo sencillo, la forma en que conectar nuevas extensiones a la herramienta con las interfaces ya existentes para poder así expandir y mejorar las capacidades de HOPLITE. ABSTRACT Using fixed-point arithmetic is one of the most common design choices for systems where area, power or throughput are heavily constrained. In order to produce implementations where the cost is minimized without negatively impacting the accuracy of the results, a careful assignment of word-lengths is required. The problem of finding the optimal combination of fixed-point word-lengths for a given system is a combinatorial NP-hard problem to which developers devote between 25 and 50% of the design-cycle time. Reconfigurable hardware platforms such as FPGAs also benefit of the advantages of fixed-point arithmetic, as it compensates for the slower clock frequencies and less efficient area utilization of the hardware platform with respect to ASICs. As FPGAs become commonly used for scientific computation, designs constantly grow larger and more complex, up to the point where they cannot be handled efficiently by current signal and quantization noise modelling and word-length optimization methodologies. In this Ph.D. Thesis we explore different aspects of the quantization problem and we present new methodologies for each of them: The techniques based on extensions of intervals have allowed to obtain accurate models of the signal and quantization noise propagation in systems with non-linear operations. We take this approach a step further by introducing elements of MultiElement Generalized Polynomial Chaos (ME-gPC) and combining them with an stateof- the-art Statistical Modified Affine Arithmetic (MAA) based methodology in order to model systems that contain control-flow structures. Our methodology produces the different execution paths automatically, determines the regions of the input domain that will exercise them, and extracts the system statistical moments from the partial results. We use this technique to estimate both the dynamic range and the round-off noise in systems with the aforementioned control-flow structures. We show the good accuracy of our approach, which in some case studies with non-linear operators shows a 0.04 % deviation respect to the simulation-based reference values. A known drawback of the techniques based on extensions of intervals is the combinatorial explosion of terms as the size of the targeted systems grows, which leads to scalability problems. To address this issue we present a clustered noise injection technique that groups the signals in the system, introduces the noise terms in each group independently and then combines the results at the end. In this way, the number of noise sources in the system at a given time is controlled and, because of this, the combinato rial explosion is minimized. We also present a multi-way partitioning algorithm aimed at minimizing the deviation of the results due to the loss of correlation between noise terms, in order to keep the results as accurate as possible. This Ph.D. Thesis also covers the development of methodologies for word-length optimization based on Monte-Carlo simulations in reasonable times. We do so by presenting two novel techniques that explore the reduction of the execution times approaching the problem in two different ways: First, the interpolative method applies a simple but precise interpolator to estimate the sensitivity of each signal, which is later used to guide the optimization effort. Second, the incremental method revolves on the fact that, although we strictly need to guarantee a certain confidence level in the simulations for the final results of the optimization process, we can do it with more relaxed levels, which in turn implies using a considerably smaller amount of samples, in the initial stages of the process, when we are still far from the optimized solution. Through these two approaches we demonstrate that the execution time of classical greedy techniques can be accelerated by factors of up to ×240 for small/medium sized problems. Finally, this book introduces HOPLITE, an automated, flexible and modular framework for quantization that includes the implementation of the previous techniques and is provided for public access. The aim is to offer a common ground for developers and researches for prototyping and verifying new techniques for system modelling and word-length optimization easily. We describe its work flow, justifying the taken design decisions, explain its public API and we do a step-by-step demonstration of its execution. We also show, through an example, the way new extensions to the flow should be connected to the existing interfaces in order to expand and improve the capabilities of HOPLITE.