7 resultados para setting aside default judgment
em Universidad Politécnica de Madrid
Resumo:
El Anillo Verde metropolitano, definido por el Plan General de Ordenación Urbana del Área Metropolitana de Madrid en 1963 siguiendo los modelos planteados por la cultura urbanística internacional, como armadura de la estructura urbana del AMM, espacio protagonista dentro del sistema de espacios libres, lugar de uso público destinado al recreo y contacto con la naturaleza de la población madrileña, se convierte en realidad en una reserva de suelo que va entrando en juego motivado por las alianzas entre el poder institucional y la clase social dominante actuando al margen del planeamiento, poniendo en evidencia la escasez de recursos legales y culturales disponibles para la salvaguarda de los intereses comunes y, donde los condicionantes geográficos y naturales del territorio madrileño han influido decisivamente en la especialización funcional y espacial del Área Metropolitana de Madrid. Así pues considerando esta idea como HIPÓTESIS, el objetivo de la TESIS sería demostrarla, para lo cual se hace necesario primero, acotar espacial y temporalmente el objeto de estudio, es decir, del Anillo Verde metropolitano1, segundo, contextualizar histórica y disciplinarmente los presupuestos teóricos que conformaban la idea del Anillo Verde, tercero, reconocer, localizar y documentar las piezas que han ido materializando la ocupación urbana del Anillo Verde, clasificándolas según parámetros temporales, funcionales, urbanísticos y, formales, lo que permite analizar la geografía, uso, instrumentación y forma de su transformación a escala general metropolitana y, cuarto, profundizar a modo de comprobación a escala municipal y urbana en dos escenarios representativos del conjunto metropolitano: el municipio de Pozuelo de Alarcón y el distrito de Hortaleza-Barajas. El contenido del documento se divide en tres bloques, el bloque I, se centra en las bases teóricas, el bloque II sitúa el hilo argumental de la tesis a escala metropolitana y el bloque III comprueba el fenómeno a escala municipal y urbana. De esta forma, se comienza por la comprensión del significado del concepto del Anillo Verde, que va más allá de la dimensión instrumental asignada de límite y contención urbana frente al crecimiento de la ciudad industrial de principios del siglo XX, basada en la descentralización de la ciudad tradicional, para adquirir un significado más complejo, como gran espacio de reserva y salvaguarda de valores naturales y culturales que se expresaban en su territorio y que permitirían alcanzar el equilibrio entre la ciudad y sus habitantes, es decir, entre el hombre y el espacio que habita. Se hace un recorrido por las principales corrientes urbanísticas que se van nutriendo de distintas disciplinas (economía, sociología, geografía, biología, ecología) para plantear teorías que permitieran materializar un nuevo orden urbano según principios de equidad social, económica y ambiental, en una secuencia donde Europa y Estados Unidos realizaban un constante intercambio -el movimiento de la Ciudad Jardín o el Regionalismo, que dieron paso a propuestas como el Greater London o el Gran Berlín, donde la figura del Anillo Verde tenía un papel protagonista, y del que también participaría nuestro país y la ciudad de Madrid, con modelos regionales como el Plan Besteiro y urbanos como el Plan Bidagor, antecedentes directos del Plan General de Ordenación Urbana del Área Metropolitana de Madrid de 1963 que pone en marcha la ordenación del crecimiento metropolitano de Madrid. El hilo argumental de la tesis se organiza en una doble aproximación: un acercamiento a escala metropolitana a partir del reconocimiento del modelo de ciudad definido en los distintos planes generales que acompañaron el desarrollo metropolitano (municipio de Madrid y de los siete términos municipales que rodeaban a este y que tenían suelo destinado a Anillo Verde), haciendo referencia además a las relaciones con el planeamiento regional, concretando en una escala de aproximación municipal que avanza hasta la interpretación urbana detallada. El primer acercamiento tiene lugar en el bloque II y se organiza en tres capítulos. El capítulo 4 se dedica al punto obligado de partida de la geografía local, describiendo las características biofísicas de los terrenos que formaban parte del Anillo Verde, que han marcado históricamente la forma de aprovechamiento del territorio, desde las extensiones de bosques mediterráneos al norte y al oeste continuación del Monte del Pardo, a los distintos tipos de cultivo que se adaptaban al sustrato geológico y la forma del terreno (de las suaves ondulaciones de sedimentos arcósicos al norte a las extensas plataformas arenosas y yesíferas del sur), además de las zonas de huertos aprovechando las depresiones y los cursos de agua (arroyo del Monte Carmelo, arroyo de Valdebebas, arroyo del Quinto, arroyo del Santo, arroyo Butarque, arroyo Meaques y arroyo Pozuelo). Una vez reconocida la realidad física, el capítulo 5, avanza en la descripción de los distintos modelos de ciudad propuestos desde el planeamiento urbanístico, en sus distintas escalas, la regional y la municipal, como respuesta a la coyuntura social, económica y política que ha caracterizado el proceso de ocupación del Anillo Verde al compás de la construcción del AMM. Se han reunido las propuestas de planeamiento municipal de los distintos municipios que disponían de terreno calificado como Anillo Verde: Madrid, Coslada, Getafe, Leganés, Alcorcón, Boadilla del Monte y Pozuelo de Alarcón. Además se han incorporado las distintas propuestas de ordenación territorial que han servido de referencia al planeamiento municipal, en todas sus versiones, desde las sectoriales, de mayor éxito y apoyo institucional, a los distintos intentos de ordenación integral, de mayor complejidad pero de menor calado, precisamente por la dificultad de consenso entre la ordenación física y el desarrollo económico, entre los intereses privados y el beneficio público. El primer horizonte, comienza con la formulación del Plan General de Ordenación Urbana del Área Metropolitana de Madrid de 1963, su desarrollo y la puesta en marcha de los primeros planes municipales en la década de los años setenta, donde se comprueba la necesidad de un marco regional que “ordene” el territorio de forma integral y sirva de referencia a las actuaciones sectoriales que habían marcado el primer desarrollo metropolitano. El segundo, se sitúa dos décadas más tarde con la aprobación del Plan General de Ordenación Urbana de Madrid de 1985 y el conjunto de planes municipales de los términos limítrofes, que siguen su filosofía de austeridad en cuanto a crecimiento territorial. El tercero se inicia en 1997 con la siguiente generación de planes de corte neoliberal que imponen un modelo territorial basado en las grandes operaciones metropolitanas de centralidad, infraestructuras y equipamiento, que consumen de forma indiscriminada la totalidad del territorio madrileño. Será en el último capítulo del segundo bloque (capítulo 6) donde se represente gráficamente a escala metropolitana y se analicen las 229 piezas que han ido colmatando el espacio destinado a Anillo Verde, según los parámetros de estudio, en base a las cuales se plantean las primeras conclusiones generales de la tesis, poniendo de manifiesto que las alianzas entre los agentes soberanos en la construcción de la ciudad y su entorno han trasgredido sucesivamente las determinaciones del Planeamiento en su definición de modelo de ciudad y territorio, acusando la carencia de recursos instrumentales y jurídicos que alentaron el proceso de su desmantelamiento, y revelando la influencia de los condicionantes geográficos y naturales en la especialización funcional y segregación social en el conjunto del Área Metropolitana de Madrid. Se remata el discurso metropolitano con una batería de conclusiones que interpretan el fenómeno de ocupación del anillo de verdor metropolitano confirmando las hipótesis iniciales, reconociendo los valores medioambientales y culturales trasgredidos, sus diversos actores, las numerosas operaciones urbanísticas desarrolladas con distintos usos y envergadura, así como los instrumentos de planeamiento utilizados, en base a las cuales se materializa la construcción del AMM según un modelo extendido (spread), dibujando una mancha de aceite (o grase-spots según Geddes) que precisamente había querido evitarse desde el planeamiento urbanístico con la definición de un Anillo Verde, espacio inmune a la edificación, que se aleja de su papel estructurante (equilibrador entre la ciudad y sus habitantes) para convertirse en armadura de la estructura comunicativa, que una vez consolidada se convierte en la mejor aliada de la máquina inmobiliaria. El último paso, se desarrolla en el bloque III que se divide en los capítulo 7,8 y 9 y supone la comprobación de lo descrito en el conjunto de escala metropolitana, en dos aspectos fundamentales, la falta de consideración por los valores culturales y medioambientales que han modelado el territorio, imprimiéndole un carácter singular y específico y, la estructura del dominio del suelo, donde se reconoce de forma precisa el grupo social y los agentes encargados en cada momento de comercializar los suelos del anillo, que bajo el paraguas de la urgencia social y el engañoso beneficio popular, obtienen importantes beneficios económicos. Con esa intención, se da un salto hacia la escala municipal y urbana, seleccionando dos escenarios de estudio, el municipio de Pozuelo de Alarcón, que representa la materialización del crecimiento suburbano de la élite madrileña ocupando las zonas de mayor valor ecológico del anillo, y el distrito de Hortaleza-Barajas que ofrece su territorio a las grandes operaciones metropolitanas, apoyándose en el eje de actividad marcado por la conexión Madrid-Barcelona y el sistema aeroportuario de escala global, ambos situados al norte de la línea de borde entre la Sierra y la Mancha, ocupando por tanto los lugares más valiosos de la geografía madrileña (estructura funcional anticipada por Bidagor en 1946 en su modelo de ciudad adaptada al territorio madrileño) Una vez descrito este proceso trasgresor de límites, de normas, de conductas, y desde una perspectiva del fenómeno suficientemente documentada, en el capítulo 10, se realiza una reflexión sobre la incidencia real de la propuesta urbanística del Anillo Verde en la construcción del AMM, de la misma forma que se sugieren nuevos roles al planeamiento en un formato intencionado de largo recorrido en oposición a lo inmediato y circunstancial, que permita hacer una nueva lectura de los presupuestos teóricos que conformaban la idea del Anillo Verde, espacio articulador (medioambiental, social y cultural) del territorio madrileño. ABSTRACT The Metropolitan Greenbelt was defined by the 1963 Master Plan for the Madrid Metropolitan Area (MMA), following established international models of urban development, as the structural framework of the MMA, the principal open space within its network of open spaces and a public area of recreation and contact with nature for the residents of Madrid. In reality, however, it ha become a reserve of land in which various alliances between the institutional authorities and the dominant social class have been operating on the margin of the original plan, exposing a scarcity of legal and cultural resources for the safeguarding of common interests, and in which the geographical and natural characteristics of the territory itself have come to play an influential role in the functional specialization and spatial segregation of the MMA. With that idea as its HYPOTHESIS, the aim of this THESIS is to demonstrate its reality. The first step in this is to delineate, temporally and spatially, the object of study; i.e. the Metropolitan Greenbelt2. The second is to contextualize historically and disciplinarily those theoretical ideas which conform to the greenbelt concept. The third is to acknowledge, locate and document the elements which have characterized the urban occupation of the Greenbelt and classify these according to the parameters of time, function, urban development and form, which in turn would enable the geography, use, instrumentation and form of its transformation to be analysed on a general metropolitan scale. The fourth step, as a method of verification, is an in-depth analysis of two representative settings within the metropolitan network: the municipality of Pozuelo de Alarcón and the Hortaleza-Barajas district. The content of the document is divided into three parts. Part I focuses on the study’s theoretical foundations, Part II establishes a line of argument at the metropolitan level and Part III examines the phenomenon from a municipal and urban perspective. The thesis, then, begins with a study of the greenbelt concept itself and its meaning, which is far more complex than the accepted instrumental dimension of limiting and containing urbanization in response to the growth of the industrial city of the early 20th century, and which is based on a decentralization of the traditional city. This wider purpose is the setting aside of a large reserved space to safeguard the natural and cultural values of the region and thereby achieve a balance between the city and its residents; that is to say, between man and the space he inhabits. The principal currents of thought in urban planning will then be examined. These have drawn upon a variety of disciplines (economics, sociology, geography, biology, ecology) to develop theories for establishing a new urban order according to the principles of social, economic and environmental equity, and have involved a constant interchange between Europe and the United States. Thus, the City Garden and Regionalist movements would clear the way for proposals such as Greater London and Great Berlin, Chicago and Washington, in which the greenbelt would play a fundamental role. The participation of our own country and the city of Madrid is also discussed, through regional models such as the Besteiro Plan and urban ones like the Bidagor Plan, direct forerunners of 1963’s General Organizational Plan for the Madrid Metropolitan Area, which would set into motion the organization of Madrid’s metropolitan growth. The line of argument followed in this thesis is two-fold: first, an examination of metropolitan development in keeping with the city model as defined in the various General Plans for the development of both the municipality of Madrid and the seven surrounding municipalities which have land designated for its Greenbelt; and second, an examination of this growth in relation to Regional Planning measures, is detailed on a smaller scale (municipal and district), where the conditioning factors affecting the land property structure and the network of biophysical units may be analysed in depth. The first of these is dealt with in Part II and organized into three chapters (4, 5 and 6). Chapter 4 is dedicated to the obligatory starting point of the geographical setting itself. The biophysical characteristics of the territories set aside for the Greenbelt, and which historically have played a role in the area’s exploitation, are described here. These range from expanses of Mediterranean woodland to the north and west of Monte del Pardo to the various types of farmland that have been adapted to the geological substratum and the contours of the terrain (gentle undulations of arkosic sediment in the north, and wide sandy and gypsiferous tableland in the south), as well as orchards planted in low valleys and along watercourses (the creeks of Monte Carmelo, Valdebebas, Quinto, Santo, Butarque, Meaques and Pozuelo). Once this physical reality ha been detailed, in Chapter 5 will examine the various city models proposed by urban planners, both regionally and municipally, in response to the confluence of social, economic and political interests that have characterized the process of occupation in the Greenbelt area during the construction of the MMA. Municipal planning proposals will be collected and examined for the various municipalities which have land designated for the Greenbelt: Madrid, Coslada, Getafe, Leganés, Alcorcón, Boadilla del Monte and Pozuelo de Alarcón. Furthermore, the various territorial organization proposals which have served as references for municipal planning will also be addressed here, in all of their versions –from the sectorial, which have met with more success and institutional approval, to the many attempts at integration, which have been more complex but less influential, precisely for the difficulty of reconciling physical organization with economic development, and private interest with public benefit. The first period in this process was the development of the General Plan of 1963, followed by the first municipal development plans of the 1970s, in which the need for a regional framework that “organized” the territory in an integral fashion was defined. This would serve as a reference for the sectorial actions that marked the metropolitan area’s initial development. The second came two decades later with the approval of the General Plan of 1985, and the network of municipal plans for the surrounding communities, which followed the same philosophy of austerity with regard to territorial growth. The third would begin to take form in 1997, as a new generation of neo-liberal development plans imposed a territorial model based on centralized large-scale metropolitan operations of infrastructure and equipment, which would indiscriminately consume the totality of Madrid’s land. At the end of the Part II, in Chapter 6, the metropolitan area will be represented graphically and the 229 pieces that have been gradually encroaching upon land designated for the Greenbelt will be analysed. This analysis will be carried out according to the parameters defined for the study, and the first general conclusions of the thesis will be based on its findings. It will show how alliances between the various governing authorities in the construction of the city and its environment have successively violated established plans with regard to the definitions of city and territory, how shortages of instrumental and judicial resources have accentuated the dismantling process, and how natural and geographical factors have influenced functional specialization and social segregation in the Madrid Metropolitan Area. The final step, detailed in Part III, will address two fundamental aspects of what has just been described: the lack of consideration for the cultural and environmental values which have shaped this territory and imprinted upon it a specific and unique character; and the structure of land domination, with a precise identification of the social group and agents responsible at each stage of the Greenbelt’s commercialization, who, under an umbrella of social urgency and deceptive public benefit, have used it to obtain substantial financial rewards. For this purpose, a closer look is taken at two specific areas: the municipality of Pozuelo de Alarcón, representative of the suburban growth of an elite population which has occupied the Greenbelt areas of the greatest ecological value; and the Hortaleza-Barajas district, which has offered its territory to large metropolitan business interests, based on activities centred on the connection between Madrid and Barcelona and the system of international air travel. Both of these settings are located to the north of the line which divides the Sierra from La Mancha, and thus occupy the most valuable land in the Madrid region (a functional structure anticipated by Bidagor in 1946, with his city model adapted to the territory of Madrid). Finally, an attempt will be made to interpret the phenomenon of metropolitan Greenbelt occupation, confirming initial hypotheses, specifying the environmental and cultural values that have been violated, and identifying the various players involved, as well as numerous urbanization operations of varying sizes and interests, and the instruments of planning they have used. It will be seen from this that the construction of the MMA has in fact followed a “spread” model, a “grease spot” (as Geddes calls it) which, from the outset of the planning process and according to the definition of a greenbelt as a construction-free zone, was precisely to be avoided. This structural role (to provide a balance between a city and its residents) has thus been abandoned and the Greenbelt converted instead into a communicative framework which, once consolidated, has become the greatest ally of the real estate machine. After this process of violating limits, norms and established behaviour has been described and solidly documented, a reflection will be made on the real influence of the Greenbelt proposal in the construction of the MMA. At the same time, new roles will be suggested for future planning, roles which are deliberate and long term, in opposition to the immediate and circumstantial. This will enable a new interpretation of the theoretical principles behind the greenbelt concept, a space designed to connect the territory of Madrid environmentally, socially and culturally.
Resumo:
Una bóveda no canónica es una bóveda que se adapta a una forma distinta de aquella para la que ha sido inicialmente concebida. Bóvedas raras, anormales, no convencionales, habitualmente consideradas excepciones o casos particulares, resultan ser más frecuentes de lo inicialmente esperado. El interés por este tipo de bóvedas surge a raíz de una investigación inicial sobre las bóvedas empleadas para cubrir espacios de planta anular, como en el caso de las girolas de las iglesias. Sin embargo, el problema de la bóveda anular no puede ser abordado directamente, sino como parte de una investigación más general sobre bóvedas que se deforman para adaptarse a una situación anómala. El análisis de las posibilidades que un determinado tipo de bóveda brinda para resolver el abovedamiento de espacios de planta irregular, trascendiendo el problema de la planta anular, es lo que da origen a esta investigación. La cuestión de las bóvedas deformadas forma parte de un contexto mayor, el de la deformación en arquitectura abovedada. Ante una contradicción, la deformación de la bóveda es sólo una de las posibles opciones que esta arquitectura ofrece para resolver un problema de deformación. La tesis se estructura en dos partes: en la primera parte se analizan los conceptos de forma y deformación en el contexto de la arquitectura abovedada con objeto de sentar las bases para una teoría de las bóvedas no canónicas. El objetivo es establecer un punto de partida para la investigación en un campo que todavía no había sido abordado. En la segunda parte se analizan tres tipos de bóveda desde la perspectiva de las bóvedas no canónicas, a partir de un estudio de casos de bóvedas en España entre los siglos XVI y XVIII. El estudio de la deformación en arquitectura abovedada se centra en el problema de la girola, por tratarse de un caso generalizado de deformación, directamente relacionado con el problema de las bóvedas irregulares y cuyo estudio, llamativamente, no había sido llevado a cabo hasta la fecha. Se propone una primera aproximación al problema de la girola, desde un punto de vista puramente morfológico, al margen de consideraciones históricas. En el caso de las bóvedas deformadas, el análisis se centra en tres tipos de bóveda: la bóveda de crucería, la bóveda de arista y la bóveda baída. Estos tres tipos de bóveda, aunque basadas en criterios formales distintos, están íntimamente relacionados entre sí. Por un lado permiten resolver el mismo problema –planta cuadrada delimitada por arcos–, por otro lado es posible establecer una relación formal entre la bóveda de arista y la bóveda baída a través de la bóveda de crucería. El estudio de casos recogido en la segunda parte de la tesis se fundamenta en dos líneas de investigación, la primera sobre soluciones teóricas de bóvedas no convencionales propuestas en los manuscritos y tratados de cantería, y la segunda sobre bóvedas efectivamente construidas, tratado de establecer una comparación entre teoría y práctica, confrontando el grado de relación entre ambas. Sin embargo este doble análisis sólo se ha podido llevar a cabo en contadas ocasiones. Constatamos que las bóvedas no canónicas reflejadas en los tratados son pocas y apenas se han llevado a la práctica, mientras que las soluciones construidas no responden a modelos teóricos propuestos, manifestando un divorcio entre teoría y práctica. El estudio de estas bóvedas permite poner en cuestión la definición tradicional que relaciona los conceptos de ‘bóveda’ y ‘superficie’. Al iniciar el trabajo nos encontramos con un modelo teórico extremadamente rígido que deja fuera un gran número de bóvedas, obligando a agruparlas bajo el término «no canónicas». El trabajo realizado pone en evidencia lo limitado del modelo. El problema no está en la presencia de bóvedas anómalas, que no se adaptan al modelo tradicionalmente propuesto, sino en la extrema rigidez del modelo. ABSTRACT A non canonical vault is a vault adapted to a different form from that for which was originally conceived. These rare, abnormal, unconventional vaults are usually considered as exceptions or special cases. However they prove to be more frequent than it was initially expected. Interest in this type of vaults arises from an initial research on the vaults used to roof annular spaces, such as ambulatories. Nevertheless, the annular vault question cannot be addressed directly, but as a part of a broader research on distorted vaults; a research on vaults deformed to conform an anomalous layout. The analysis of the possibilities that a particular type of vault provides to solve the vaulting of an irregular layout, beyond the problem of the annular plan is the origin of this research. The argument of deformed vaults is part of a greater context, the context of deformation in vaulted architecture. Facing a contradiction, deforming a vault is just one of the options that vaulted architecture offers to solve a problem of deformation. This dissertation is organised in two parts: in the first part we analyse the concepts of form and deformation in the context of vaulted architecture in order to lay the foundations for a non canonical vaults theory. The objective is to establish a starting point for future research in a field that has not been addressed yet. In the second part, we analyse three types of vault from the perspective of non canonical vaults, based on a case study of Spanish vaults between the 16th and 18th Centuries. The analysis of deformation in vaulted architecture focuses on the question of the ambulatory, because it is a generalized example of deformation, directly related to the problem of irregular vaults. Remarkably, the analysis of these spaces had not been conducted to date. We propose a first approach to the question of the ambulatory, from a purely morphological point of view, setting aside historical considerations. The analysis of deformed vaults focuses on three types of vault: the groin vault, the ribbed vault and the sail vault. These three types of vault, although based on different formal criteria, are closely related between them. On the one hand, they allow to solve the same problem –a square perimeter limited by arcs-; on the other hand, it is possible to establish a formal relationship between the groin vault and the sail vault through the ribbed vault. The case study presented in the second part of this dissertation is based on two research lines: theoretical non conventional vaults solutions proposed on stonecutting treatises; and currently built vaults. The aim of this double analysis was to establish a comparison between theory and practice, comparing the degree of relationship between them. Nevertheless, this double analysis has only been carried out on rare occasions. It is noted that non canonical vaults reflected in treaties are few and hardly been employed, while the built solutions do not meet proposed theoretical models, expressing a divorce between theory and practice. The analysis of these vaults allows us to question the traditional definition that connects the concepts of 'vault' and 'surface'. When we began this research, we found an extremely rigid theoretical model that leaved out many vaults, forcing to group them under the term of «non canonical vaults». This research evidences the limitations of the model. The problem is not the presence of abnormal vaults, which cannot adapt to the traditional model, but in the very high stiffness of the model.
Resumo:
Engastando una piedra preciosa
Resumo:
Desde la revolución ilustrada e industrial de finales del s. XVIII se ha venido desarrollando, con fuerza inigualada a lo largo de la historia, algo que es consustancial al hombre y que le ha permitido constituirse como tal frente al resto de animales: la técnica. Como sentencia Ortega, no hay hombre sin técnica. Pero, al mismo tiempo, va quedando cada vez más claro -como también nos señala Ortega- que el sentido y la causa de la técnica están fuera de ella, y que la técnica no es en rigor lo primero, sino que su finalidad le ha de ser prefijada por un deseo original pre-técnico. Si esto no fuera así el hombre perdería su propio sentido, pues el hombre es puro afán, un ente cuyo ser consiste no en lo que ya es, sino en la que aún no es. Sin embargo, el progresivo desencantamiento del mundo como consecuencia del desarrollo de la sociedad industrial vino a sustituir los viejos mitos por una interpretación racional y abstracta que renunciaba a cualquier búsqueda de sentido que trascendiese los hechos brutos. De este modo, la perdida de sentido del hombre frente a la técnica desarrollada por él mismo le dejaba desnortado y convertido en un sujeto pasivo en manos de un malentendido progreso. Frente a esta pérdida de sentido detectada ya a principios del siglo XX y denunciada con más fuerza a partir de la Segunda Guerra Mundial, el postmodernismo del último tramo del pasado siglo pudo no sólo oficializar su desaparición, sino consignar su deslegitimación. Ante a esto, sostenemos la necesaria existencia de sentido en cualquier arquitectura que se desarrolle plenamente y, especialmente, en la arquitectura de la modernidad -y aún de la modernidad tardía o postmodernidad- muchas de las veces no explicitado como tal frente al sobredimensionamiento técnico que ha venido marcando la pauta desde la revolución industrial. Al mismo tiempo, ya no se puede hablar de un único sentido, universalizable, sino de una pluralidad de sentidos que definirán distintas arquitecturas. Partiendo de la petitio principii de que el tema capital de la arquitectura en la modernidad ha sido la vivienda, el objeto arquitectónico que reúne las mejores características para desarrollar esta búsqueda de sentido lo hemos encontrado en la cabaña moderna, donde se cumple el aforismo corbusierano que señala que “quand l’économie est au maximum, l’intensité est au maximum”. Al mismo tiempo “al representar la plenitud a través de su misma negación”, la cabaña moderna se puede entender como una sublimación de la arquitectura a través de pequeños objetos donde han quedado destiladas las distintas esencias de la modernidad. Mediante el análisis de seis pequeñas construcciones situadas en archipiélagos arquitectónicos radicalmente distantes –el campamento de Ocatillo (F. Ll. Wright, 1929); la Caja (R. Erskine, 1942); el Cabanon (Le Corbusier, 1952); la casa cúpula en Carbondale (R. B. Fuller, 1960); el refugio en Oropesa (F. J. Sáenz de Oíza, c.1967-1977) y el pabellón de invitados en Kempsey (G. Murcutt, 1992)- la aparente aporía que supone la cabaña moderna, frente a la más lógica, en principio, cabaña primitiva, cobra sentido. Efectiva mente, el referente mítico de la cabaña primitiva, tal y como fue enunciado por Laugier, se correspondía con el estadio más primitivo de la modernidad, con sus orígenes, precisamente porque la crítica que se hacía en ella de la arquitectura se basaba en criterios exclusivamente técnicos que remitían a los orígenes constructivos de la arquitectura como fórmula para salir del entramado retórico en el que ésta se encontraba perdida. La cabaña moderna trasciende, sin embargo, aquella primitiva fase de la modernidad, de la que la cabaña de Laugier es paradigma, en la medida en que la crítica que se realiza ahora es doble, pues a la crítica de carácter técnico que encontramos en cada una de las cabañas se le añade una crítica de sentido que no se encuentra supeditada, en ninguno de los casos, a la componente técnica, tal y como sin embargo sucedía con Laugier, donde la pretendida regeneración moral de la arquitectura era consecuencia directa de su depuración técnica. En la cabaña moderna, al contrario, encontramos una pluralidad de sentidos que orientan y fuerzan el desarrollo de la techné en direcciones que llegan a ser radicalmente diferentes, construyendo unos relatos que habrán de ser, por tanto, necesariamente parciales, pero de los que la arquitectura, en cualquier caso no podrá prescindir si es que quiere seguir siendo fiel a sí misma, tal y como, efectivamente, lo comprendieron Wright, Erskine, Le Corbusier, Fuller, Sáenz de Oíza y Murcutt, cuando se esforzaron por que estas pequeñas arquitecturas que hemos visitado, tan sólo unas cabañas, fueran unas cabañas con sentido, unas cabañas modernas. ABSTRACT Since the illustrated and industrial revolution of the XVIII century it has been developing, with unequally strength through history, something that is inherent to man and that has allowed him to become himself against the rest of animals: technique. As Ortega says, there is no man without technique. But, at the same time, it is becoming increasingly clear –as Ortega also says- that the sense and the cause of the technique are beyond technique itself, and that technique is not actually the first thing, but that its purpose must be predefined by a pre-technique original desire. If it were not like this, man would lose his own sense, because man is pure desire, an entity whose being is not what already is, but what still doesn’t is. However, the progressive disenchantment of the world as the result of the development of the industrial society came to change the old myths by a rational and abstract interpretation that renounced to any search of meaning that transcended the brute facts. Thereby, the loss of sense of man against the technique developed by man himself let him aimless and converted in a passive object in the hands of a misunderstood progress. Against this loss of sense already detected at the beginning of the XX century and denounced in a stronger way since the Second World War, the postmodernism of the late decades of the last century could not only formalize its disappearance, but also consign its delegitimization. On the contrary, we maintain the necessary existence of sense in any architecture that is fully developed and, specially, in the modern architecture –and even in the late Modernism or Postmodernism- many times not made explicit as such against the technique oversizing that has been setting the pattern since the industrial revolution. At the same time, we can not talk about an only and universal sense, but about a plurality of senses that will define different architectures. On the basis of the petitio principii that dwelling has been the capital issue of modern architecture, the architectonic object that possesses the best features for developing this search of sense has been found in the modern hut, where is fulfil the Corbusieran aphorism that says that “quand l’économie est au maximum, l’intensité est au maximum”. At the same time, “representing plenitude through its own negation” the modern hut can be understood as a sublimation of architecture through small objects where the different essences of modernity have been distilled. Through the analysis of six small buildings located in radically distant architectonic archipelagos –the Ocatillo dessert camp (F. Ll. Wright, 1929); the Box (R. Erskine, 1942); the Cabanon (Le Corbusier, 1952); the dome-home in Carbondale (R. B. Fuller, 1960); the retreat in Oropesa (F. J. Sáenz de Oíza, c. 1967-1977) and the guest house in Kimpsey (G. Murcutt, 1992)- the apparent aporia that represents the modern hut, against the, initially, more logical primitive hut, makes sense. Indeed, the mythical reference of the primitive hut, as it was enunciated by Laugier, belonged to the most primitive state of modernity, with its origins, precisely because the criticism of the architecture that was made there was based in exclusively technique criteria, referring to the constructive origins of architecture as the formula to get out of the rhetoric labyrinth in which architecture was lost at the moment. However, the modern hut transcends that primitive phase of modernity, of which Laugier’s hut is paradigm, since the criticism that is made is double, because to the criticism on the technique that we find in every hut we must add a criticism on the sense that is never subordinated to the technique component, as it was the case in Laugier, where the intended architectonic moral regeneration was a direct consequence of its technical depuration. In the modern hut, on the contrary, we find a plurality of senses that guides and drives the development of techné in radically different directions, building narratives that must be, then, necessarilly partial, but of which architecture could never leave aside if it still wants to be faithful to itself, as Wright, Erskine, Le Corbusier, Fuller, Sáenz de Oíza and Murcutt seemed to understand when they tried hardly to make these small architectures that we have visited, these huts, huts full of sense, modern huts.
Resumo:
In this paper, a mathematical programming model and a heuristically derived solution is described to assist with the efficient planning of services for a set of auxiliary bus lines (a bus-bridging system) during disruptions of metro and rapid transit lines. The model can be considered static and takes into account the average flows of passengers over a given period of time (i.e., the peak morning traffic hour) Auxiliary bus services must accommodate very high demand levels, and the model presented is able to take into account the operation of a bus-bridging system under congested conditions. A general analysis of the congestion in public transportation lines is presented, and the results are applied to the design of a bus-bridging system. A nonlinear integer mathematical programming model and a suitable approximation of this model are then formulated. This approximated model can be solved by a heuristic procedure that has been shown to be computationally viable. The output of the model is as follows: (a) the number of bus units to assign to each of the candidate lines of the bus-bridging system; (b) the routes to be followed by users passengers of each of the origin–destination pairs; (c) the operational conditions of the components of the bus-bridging system, including the passenger load of each of the line segments, the degree of saturation of the bus stops relative to their bus input flows, the bus service times at bus stops and the passenger waiting times at bus stops. The model is able to take into account bounds with regard to the maximum number of passengers waiting at bus stops and the space available at bus stops for the queueing of bus units. This paper demonstrates the applicability of the model with two realistic test cases: a railway corridor in Madrid and a metro line in Barcelona Planificación de los servicios de lineas auxiliares de autobuses durante las incidencias de las redes de metro y cercanías. El modelo estudia el problema bajo condiciones de alta demanda y condiciones de congestión. El modelo no lineal resultante es resuelto mediante heurísticas que demuestran su utilidad. Se demuestran los resultados en dos corredores de las ciudades de Barcelona y Madrid.
Resumo:
Over the past years, several studies on Mild Cognitive Impairment (MCI) and Alzheimer's disease (AD) have reported Default Mode Network (DMN) deficits. This network is attracting increasing interest in the AD community, as it seems to play an important role in cognitive functioning and in beta amyloid deposition. Attention has been particularly drawn to how different DMN regions are connected using functional or structural connectivity. To this end, most studies have used functional Magnetic Resonance Imaging (fMRI), Positron Emission Tomography (PET) or Diffusion Tensor Imaging (DTI). In this study we evaluated (1) functional connectivity from resting state magnetoencephalography (MEG) and (2) structural connectivity from DTI in 26 MCI patients and 31 age-matched controls. Compared to controls, the DMN in the MCI group was functionally disrupted in the alpha band, while no differences were found for delta, theta, beta and gamma frequency bands. In addition, structural disconnection could be assessed through a decreased fractional anisotropy along tracts connecting different DMN regions. This suggests that the DMN functional and anatomical disconnection could represent a core feature of MCI.
Resumo:
El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.