19 resultados para Graduated licensing.


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La reutilización de efluentes depurados siempre ha sido una opción en lugares con déficit coyuntural o estructural de recursos hídricos, se haya o no procedido a la regulación y planificación de esta práctica. La necesidad se crea a partir de las demandas de una zona, normalmente riego agrícola, que ven un mejor desarrollo de su actividad por contar con este recurso. España es el país de la UE que más caudal reutiliza, y está dentro de los diez primeros a nivel mundial. La regulación de esta práctica por el RD 1620/2007, ayudó a incorporar la reutilización de efluentes depurados a la planificación hidrológica como parte de los programas de medidas, con objeto de mitigar presiones, como son las extracciones de agua superficial y subterránea, o mejoras medioambientales evitando un vertido. El objeto de este trabajo es conocer la situación de la reutilización de efluentes depurados en España, los diferentes escenarios y planteamientos de esta actividad, el desarrollo del marco normativo y su aplicabilidad, junto a los tratamientos que permiten alcanzar los límites de calidad establecidos en la normativa vigente, en función de los distintos usos. Además, se aporta un análisis de costes de las distintas unidades de tratamiento y tipologías de líneas de regeneración, tanto de las utilizadas después de un tratamiento secundario como de otras opciones de depuración, como son los biorreactores de membrana (MBRs). Para el desarrollo de estos objetivos, en primer lugar, se aborda el conocimiento de la situación de la reutilización en España a través de una base de datos diseñada para cubrir todos los aspectos de esta actividad: datos de la estación depuradora de aguas residuales (EDAR), de la estación regeneradora (ERA), caudales depurados, reutilizados, volúmenes utilizados y ubicación de los distintos usos, tipos de líneas de tratamiento, calidades del agua reutilizada, etc. Las principales fuentes de información son las Confederaciones Hidrográficas (CCHH) a través de las concesiones de uso del agua depurada, las entidades de saneamiento y depuración de las distintas comunidades autónomas (CCAA), ayuntamientos, Planes Hidrológicos de Cuenca (PHC) y visitas a las zonas más emblemáticas. Además, se revisan planes y programas con el fin de realizar una retrospectiva de cómo se ha ido consolidando y desarrollando esta práctica en las distintas zonas de la geografía española. Se han inventariado 322 sistemas de reutilización y 216 tratamientos de regeneración siendo el más extendido la filtración mediante filtro arena seguido de una desinfección mediante hipoclorito, aunque este tratamiento se ha ido sustituyendo por un físico-químico con decantación lamelar, filtro de arena y radiación ultravioleta, tratamiento de regeneración convencional (TRC), y otros tratamientos que pueden incluir membranas, tratamientos de regeneración avanzados (TRA), con dosificación de hipoclorito como desinfección residual, para adaptarse al actual marco normativo. El uso más extendido es el agrícola con el 70% del caudal total reutilizado, estimado en 408 hm3, aunque la capacidad de los tratamientos de regeneración esperada para 2015, tras el Plan Nacional de Reutilización de Aguas (PNRA), es tres veces superior. Respecto al desarrollo normativo, en las zonas donde la reutilización ha sido pionera, las administraciones competentes han ido desarrollando diferentes recomendaciones de calidad y manejo de este tipo de agua. El uso agrícola, y en zonas turísticas, el riego de campos de golf, fueron los dos primeros usos que tuvieron algún tipo de recomendación incluso reglamentación. Esta situación inicial, sin una normativa a nivel estatal ni recomendaciones europeas, creó cierta incertidumbre en el avance de la reutilización tanto a nivel de concesiones como de planificación. En la actualidad sigue sin existir una normativa internacional para la reutilización y regeneración de efluentes depurados. Las recomendaciones de referencia a nivel mundial, y en concreto para el uso agrícola, son las de la OMS (Organización Mundial de la Salud) publicadas 1989, con sus posteriores revisiones y ampliaciones (OMS, 2006). Esta norma combina tratamientos básicos de depuración y unas buenas prácticas basadas en diferentes niveles de protección para evitar problemas sanitarios. Otra normativa que ha sido referencia en el desarrollo del marco normativo en países donde se realiza esta práctica, son las recomendaciones dadas por la Agencia Medioambiente Estadunidense (USEPA, 2012) o las publicadas por el Estado de California (Título 22, 2001). Estas normas establecen unos indicadores y valores máximos dónde el tratamiento de regeneración es el responsable de la calidad final en función del uso. Durante 2015, la ISO trabajaba en un documento para el uso urbano donde se muestra tanto los posibles parámetros que habría que controlar como la manera de actuar para evitar posibles riesgos. Por otro lado, la Comisión Europea (CE) viene impulsando desde el 2014 la reutilización de aguas depuradas dentro del marco de la Estrategia Común de Implantación de la Directiva Marco del Agua, y fundamentalmente a través del grupo de trabajo de “Programas de medidas”. Para el desarrollo de esta iniciativa se está planteando sacar para 2016 una guía de recomendaciones que podría venir a completar el marco normativo de los distintos Estados Miembros (EM). El Real Decreto 1620/2007, donde se establece el marco jurídico de la reutilización de efluentes depurados, tiende más a la filosofía implantada por la USEPA, aunque la UE parece más partidaria de una gestión del riesgo, donde se establecen unos niveles de tolerancia y unos puntos de control en función de las condiciones socioeconómicas de los distintos Estados, sin entrar a concretar indicadores, valores máximos o tratamientos. Sin embargo, en la normativa estadounidense se indican una serie de tratamientos de regeneración, mientras que, en la española, se hacen recomendaciones a este respecto en una Guía sin validez legal. Por tanto, queda sin regular los procesos para alcanzar estos estándares de calidad, pudiendo ser éstos no apropiados para esta práctica. Es el caso de la desinfección donde el uso de hipoclorito puede generar subproductos indeseables. En la Guía de recomendaciones para la aplicación del RD, publicada por el Ministerio de Agricultura y Medioambiente (MAGRAMA) en 2010, se aclaran cuestiones frecuentes sobre la aplicación del RD, prescripciones técnicas básicas para los sistemas de reutilización, y buenas prácticas en función del uso. Aun así, el RD sigue teniendo deficiencias en su aplicación siendo necesaria una revisión de la misma, como en las frecuencias de muestreo incluso la omisión de algunos parámetros como huevos de nematodos que se ha demostrado ser inexistentes tras un tratamiento de regeneración convencional. En este sentido, existe una tendencia a nivel mundial a reutilizar las aguas con fines de abastecimiento, incluir indicadores de presencia de virus o protozoos, o incluir ciertas tecnologías como las membranas u oxidaciones avanzadas para afrontar temas como los contaminantes emergentes. Otro de los objetivos de este trabajo es el estudio de tipologías de tratamiento en función de los usos establecidos en el RD 1620/2007 y sus costes asociados, siendo base de lo establecido a este respecto en la Guía y PNRA anteriormente indicados. Las tipologías de tratamiento propuestas se dividen en líneas con capacidad de desalar y las que no cuentan con una unidad de desalación de aguas salobres de ósmosis inversa o electrodiálisis reversible. Se realiza esta división al tener actuaciones en zonas costeras donde el agua de mar entra en los colectores, adquiriendo el agua residual un contenido en sales que es limitante en algunos usos. Para desarrollar este objetivo se han estudiado las unidades de tratamiento más implantadas en ERAs españolas en cuanto a fiabilidad para conseguir determinada calidad y coste, tanto de implantación como de explotación. El TRC, tiene un coste de implantación de 28 a 48 €.m-3.d y de explotación de 0,06 a 0,09 €. m-3, mientras que, si se precisara desalar, este coste se multiplica por diez en la implantación y por cinco en la explotación. En caso de los usos que requieren de TRA, como los domiciliarios o algunos industriales, los costes serían de 185 a 398 €.m-3.d en implantación y de 0,14 a 0,20 €.m-3 en explotación. En la selección de tecnologías de regeneración, la capacidad del tratamiento en relación al coste es un indicador fundamental. Este trabajo aporta curvas de tendencia coste-capacidad que sirven de herramienta de selección frente a otros tratamientos de regeneración de reciente implantación como son los MBR, u otros como la desalación de agua de mar o los trasvases entre cuencas dentro de la planificación hidrológica. En España, el aumento de las necesidades de agua de alta calidad en zonas con recursos escasos, aumento de zonas sensibles como puntos de captación para potables, zonas de baño o zonas de producción piscícola, y en ocasiones, el escaso terreno disponible para la implantación de nuevas plantas depuradoras (EDARs), han convertido a los MBRs, en una opción dentro del marco de la reutilización de aguas depuradas. En este trabajo, se estudia esta tecnología frente a los TRC y TRA, aportando igualmente curvas de tendencia coste-capacidad, e identificando cuando esta opción tecnológica puede ser más competitiva frente a los otros tratamientos de regeneración. Un MBR es un tratamiento de depuración de fangos activos donde el decantador secundario es sustituido por un sistema de membranas de UF o MF. La calidad del efluente, por tanto, es la misma que el de una EDAR seguida de un TRA. Los MBRs aseguran una calidad del efluente para todos los usos establecidos en el RD, incluso dan un efluente que permite ser directamente tratado por las unidades de desalación de OI o EDR. La implantación de esta tecnología en España ha tenido un crecimiento exponencial, pasando de 13 instalaciones de menos de 5.000 m3. d-1 en el 2006, a más de 55 instalaciones en operación o construcción a finales del 2014, seis de ellas con capacidades por encima de los 15.000 m3. d-1. Los sistemas de filtración en los MBR son los que marcan la operación y diseño de este tipo de instalaciones. El sistema más implantado en España es de membrana de fibra hueca (MFH), sobre todo para instalaciones de gran capacidad, destacando Zenon que cuenta con el 57% de la capacidad total instalada. La segunda casa comercial con mayor número de plantas es Kubota, con membranas de configuración placa plana (MPP), que cuenta con el 30 % de la capacidad total instalada. Existen otras casas comerciales implantadas en MBR españoles como son Toray, Huber, Koch o Microdym. En este documento se realiza la descripción de los sistemas de filtración de todas estas casas comerciales, aportando información de sus características, parámetros de diseño y operación más relevantes. El estudio de 14 MBRs ha posibilitado realizar otro de los objetivos de este trabajo, la estimación de los costes de explotación e implantación de este tipo de sistemas frente a otras alternativas de tratamiento de regeneración. En este estudio han participado activamente ACA y ESAMUR, entidades públicas de saneamiento y depuración de Cataluña y Murcia respectivamente, que cuentan con una amplia experiencia en la explotación de este tipo de sistemas. Este documento expone los problemas de operación encontrados y sus posibles soluciones, tanto en la explotación como en los futuros diseños de este tipo de plantas. El trabajo concluye que los MBRs son una opción más para la reutilización de efluentes depurados, siendo ventajosos en costes, tanto de implantación como de explotación, respecto a EDARs seguidas de TRA en capacidades por encima de los 10.000 m3.d-1. ABSTRACT The reuse of treated effluent has always been an option in places where a situational or structural water deficit exists, whether regulatory and/or planning efforts are completed or not. The need arises from the demand of a sector, commonly agricultural irrigation, which benefits of this new resource. Within the EU, Spain is ahead in the annual volume of reclaimed water, and is among the top ten countries at a global scale. The regulation of this practice through the Royal Decree 1620/2007 has helped to incorporate the water reuse to the hydrological plans as a part of the programme of measures to mitigate pressures such as surface or ground water extraction, or environmental improvements preventing discharges. The object of this study is to gain an overview of the state of the water reuse in Spain, the different scenarios and approaches to this activity, the development of the legal framework and its enforceability, together with the treatments that achieve the quality levels according to the current law, broken down by applications. Additionally, a cost analysis of technologies and regeneration treatment lines for water reclamation is performed, whereas the regeneration treatment is located after a wastewater treatment or other options such as membrane bioreactors (MBR). To develop the abovementioned objectives, the state of water reuse in Spain is studied by means of a database designed to encompass all aspects of the activity: data from the wastewater treatment plants (WWTP), from the water reclamation plants (WRP), the use of reclaimed water, treated water and reclaimed water annual volumes and qualities, facilities and applications, geographic references, technologies, regeneration treatment lines, etc. The main data providers are the River Basin authorities, through the concession or authorization for water reuse, (sanitary and wastewater treatment managers from the territorial governments, local governments, Hydrological Plans of the River Basins and field visits to the main water reuse systems. Additionally, a review of different plans and programmes on wastewater treatment or water reuse is done, aiming to put the development and consolidation process of this activity in the different regions of Spain in perspective. An inventory of 322 reuse systems and 216 regeneration treatments has been gathered on the database, where the most extended regeneration treatment line was sand filtration followed by hypochlorite disinfection, even though recently it is being replaced by physical–chemical treatment with a lamella settling system, depth sand filtration, and a disinfection with ultraviolet radiation and hypochlorite as residual disinfectant, named conventional regeneration treatment (CRT), and another treatment that may include a membrane process, named advanced regeneration treatment (ART), to adapt to legal requirements. Agricultural use is the most extended, accumulating 70% of the reclaimed demand, estimated at 408 hm3, even though the expected total capacity of WRPs for 2015, after the implementation of the National Water Reuse Plan (NWRP) is three times higher. According to the development of the water reuse legal framework, there were pioneer areas where competent authorities developed different quality and use recommendations for this new resource. Agricultural use and golf course irrigation in touristic areas were the first two uses with recommendations and even legislation. The initial lack of common legislation for water reuse at a national or European level created some doubts which affected the implementation of water reuse, both from a planning and a licensing point of view. Currently there is still a lack of common international legislation regarding water reuse, technologies and applications. Regarding agricultural use, the model recommendations at a global scale are those set by the World Health Organization published in 1989, and subsequent reviews and extensions about risk prevention (WHO, 2006). These documents combine wastewater treatments with basic regeneration treatments reinforced by good practices based on different levels of protection to avoid deleterious health effects. Another relevant legal reference for this practices has been the Environmental Protection Agency of the US (USEPA, 2012), or those published by the State of California (Title 22, 2001). These establish indicator targets and maximum thresholds where regeneration treatment lines are responsible for the final quality according to the different uses. During 2015, the ISO has worked on a document aimed at urban use, where the possible parameters to be monitored together with risk prevention have been studied. On the other hand, the European Commission has been promoting the reuse of treated effluents within the Common Implementation Strategy of the Water Framework Directive, mainly through the work of the Programme of Measures Working Group. Within this context, the publication of a recommendation guide during 2016 is intended, as a useful tool to fill in the legal gaps of different Member States on the matter. The Royal Decree 1620/2007, where the water reuse regulation is set, resembles the principles of the USEPA more closely, even though the EU shows a tendency to prioritize risk assessment by establishing tolerance levels and thresholds according to socioeconomic conditions of the different countries, without going into details of indicators, maximum thresholds or treatments. In contrast, in the US law, regeneration treatments are indicated, while in the Spanish legislation, the only recommendations to this respect are compiled in a non-compulsory guide. Therefore, there is no regulation on the different treatment lines used to achieve the required quality standards, giving room for inappropriate practices in this respect. This is the case of disinfection, where the use of hypochlorite may produce harmful byproducts. In the recommendation Guide for the application of the Royal Decree (RD), published by the Ministry of Agriculture and Environment (MAGRAMA) in 2010, clarifications of typical issues that may arise from the application of the RD are given, as well as basic technical parameters to consider in reuse setups, or good practices according to final use. Even so, the RD still presents difficulties in its application and requires a review on issues such as the sampling frequency of current quality parameters or even the omission of nematode eggs indicator, which have been shown to be absent after CRT. In this regard, there is a global tendency to employ water reuse for drinking water, including indicators for the presence of viruses and protozoans, or to include certain technologies such as membranes or advanced oxidation processes to tackle problems like emerging pollutants. Another of the objectives of this study is to provide different regeneration treatment lines to meet the quality requirements established in the RD 1620/2007 broken down by applications, and to estimate establishment and operational costs. This proposal has been based on what is established in the above mentioned Guide and NWRP. The proposed treatment typologies are divided in treatment trains with desalination, like reverse osmosis or reversible electrodialisis, and those that lack this treatment for brackish water. This separation is done due to coastal facilities, where sea water may permeate the collecting pipes, rising salt contents in the wastewater, hence limiting certain uses. To develop this objective a study of the most common treatment units set up in Spanish WRPs is conducted in terms of treatment train reliability to obtain an acceptable relationship between the required quality and the capital and operational costs. The CRT has an establishment cost of 28 to 48 €.m-3.d and an operation cost of 0.06 to 0.09 €.m-3, while, if desalination was required, these costs would increase tenfold for implementation and fivefold for operation. In the cases of uses that require ART, such as residential or certain industrial uses, the costs would be of 185 to 398 €.m-3.d for implementation and of 0.14 to 0.20 €.m-3 for operation. When selecting regeneration treatment lines, the relation between treatment capacity and cost is a paramount indicator. This project provides cost-capacity models for regeneration treatment trains. These may serve as a tool when selecting between different options to fulfill water demands with MBR facilities, or others such as sea water desalination plants or inter-basin water transfer into a water planning framework. In Spain, the requirement for high quality water in areas with low resource availability, the increasing number of sensitive zones, such as drinking water extraction, recreational bathing areas, fish protected areas and the lack of available land to set up new WWTPs, have turned MBRs into a suitable option for water reuse. In this work this technology is analyzed in contrast to CRT and ART, providing cost-capacity models, and identifying when and where this treatment option may outcompete other regeneration treatments. An MBR is an activated sludge treatment where the secondary settling is substituted by a membrane system of UF or MF. The quality of the effluent is, therefore, comparable to that of a WWTP followed by an ART. MBRs ensure a sufficient quality level for the requirements of the different uses established in the RD, even producing an effluent that can be directly treated in OI or EDR processes. The implementation of this technology in Spain has grown exponentially, growing from 13 facilities with less than 5000 m3.d-1 in 2006 to above 55 facilities operating by the end of 2014, 6 of them with capacities over 15000 m3.d-1. The membrane filtration systems for MBR are the ones that set the pace of operation and design of this type of facilities. The most widespread system in Spain is the hollow fiber membrane configuration, especially on high flow capacities, being Zenon commercial technology, which mounts up to 57% of the total installed capacity, the main contributor. The next commercial technology according to plant number is Kubota, which uses flat sheet membrane configuration, which mounts up to 30% of the total installed capacity. Other commercial technologies exist within the Spanish MBR context, such as Toray, Huber, Koch or Microdym. In this document an analysis of all of these membrane filtration systems is done, providing information about their characteristics and relevant design and operation parameters. The study of 14 full scale running MBRs has enabled to pursue another of the objectives of this work: the estimation of the implementation and operation costs of this type of systems in contrast to other regeneration alternatives. Active participation of ACA and ESAMUR, public wastewater treatment and reuse entities of Cataluña and Murcia respectively, has helped attaining this objective. A number of typical operative problems and their possible solutions are discussed, both for operation and plant design purposes. The conclusion of this study is that MBRs are another option to consider for water reuse, being advantageous in terms of both implementation and operational costs, when compared with WWTPs followed by ART, when considering flow capacities above 10000 m3.d-1.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesis se centra en el análisis de 356 números de la revista El Arquitecto Peruano publicados entre 1937 y 1977. La revista fue fundada en agosto de 1937 por Fernando Belaúnde Terry, arquitecto graduado en la University of Texas at Austin en 1935 quien la dirigió por 25 años hasta marzo de 1963. Desde abril de 1963 la dirige Miguel Cruchaga Belaunde. Durante esta última etapa la revista deja de ser regular, publicándose intermitentemente con varios años sin editarse, hasta desaparecer finalmente en 1977. La revista es la publicación periódica de arquitectura más importante del siglo XX en el Perú. La investigación ubica a la revista en el contexto nacional donde se desarrolló vinculando además los diversos eventos de la arquitectura y el urbanismo del panorama internacional sucedidos durante las tres décadas de estudio. El trabajo empieza por establecer una secuencia de periodos. Esta se basa en la identificación de una estructura fija existente en la revista conformada por las secciones permanentes. Una paulatina inserción de secciones temporales fue complementando y detallando nuevas temáticas y contenidos generando variantes de la estructura fija a lo largo del tiempo. Como resultado de este proceso se reconocen 5 periodos vinculados a una serie de temas vertebrales durante la dirección de Fernando Belaunde: Periodo 1 (Agosto de 1937 a marzo de 1942). Vivienda Unifamiliar. Periodo 2 (Abril de 1942 a mayo de 1944). Urbanismo moderno. Periodo 3 (Junio de 1944 a diciembre de 1949). Vivienda Colectiva. Periodo 4 (Enero-febrero de 1950 a enero-febrero de 1956). Proyectos y obras. Periodo 5 (Marzo-abril de 1956 a enero-febrero-marzo de 1963). Territorio. Los años finales bajo la dirección de Miguel Cruchaga conforman el último Periodo. En la década de los treinta, durante el primer periodo se analiza el rol que un grupo de revistas de arquitectura europeas y norteamericanas tuvieron en la construcción formal y temática de El Arquitecto Peruano. En sus inicios existen influencias de The Architectural Forum, The American Architect, Architecture, California Arts and Architecture y Architectural Digest . Y junto a estas, las revistas alemanas Moderne Bauformen e Innen Dekoration. A raíz de la Segunda Guerra Mundial, las referencias a las revistas alemanas desaparecen y las relaciones con Estados Unidos se intensifican por la posición del Perú dentro del área de influencia norteamericana. El canal de las revistas no fue el único medio de influencia, durante los años cuarenta hubo un marco de apertura hacia Latinoamérica que incluyó viajes de cooperación de arquitectos norteamericanos por el sur del continente. Como parte de estos vínculos, en 1945 Paul Lester Wiener de Town Planning Associates y Richard Neutra, - ambos miembros del CIAM y el segundo Presidente del CIAM USA- prestaron asistencia a la iniciativa más importante promovida por la revista peruana, un proyecto de vivienda popular para obreros y empleados llamado el Plan Peruano. La revista tuvo siempre una fuerte actitud de cambio de la realidad existente en el medio peruano. Para modelar su nueva versión de la realidad instrumentó una serie de campañas de prensa. En la más importante utilizó las ideas del urbanismo moderno que circulaban durante la guerra nacidas en los CIAM de entreguerras. El Arquitecto Peruano aprovecha la coyuntura de los primeros años de la posguerra para canalizar sus iniciativas, tomando como modelo de su propuesta la idea de la Neighborhood Unit, convirtiéndolo en proyecto y finalmente construyendo la Unidad Vecinal N°3, el proyecto de mayor escala asociado con la revista. A esta perspectiva favorable para las ideas vertidas por la publicación se une el hecho de que su Director, es elegido Diputado por Lima y es un miembro muy cercano al gobierno de turno que dio la cobertura legal y de gestión para cristalizar los proyectos desde 1945 hasta 1948. Durante este periodo se producen las propuestas de mayor alcance promovidas por Fernando Belaunde y difundidas por la revista, como el propio Plan Peruano de Vivienda, los Centros Climáticos de Invierno, el Plan Piloto de Lima y los Concursos de Vivienda popular. Existe un trabajo anterior sobre la revista, restringido al campo del urbanismo realizado en 1992 por el historiador Antonio Zapata y titulado El joven Belaunde: Historia de la revista El Arquitecto Peruano en donde se inclina el peso de la revista hacia la Vivienda Social y se señala a Walter Gropius como el arquitecto más influyente en la publicación. La presente tesis plantea que el Plan Peruano es la punta del iceberg, pero que todos estos proyectos relacionados con la revista, conforman un conjunto indisoluble y que el paquete completo tiene una directa influencia de proyectos, ideas y labor editorial de José Luis Sert desarrollada desde finales de los años veinte hasta los años cincuenta. Sus libros Can Our Cities Survive? , The Heart of the City y la revista del GATEPAC AC Documentos de Actividad Contemporánea tienen improntas claras en la revista peruana que atraviesan tres de los periodos propuestos. Durante la década de los cuarenta cuando Sert junto a Wiener fueron socios en Town Plannning Associates y tuvieron contacto directo con el director de la revista así como con los principales colaboradores, y durante la década posterior. A la luz de las evidencias analizadas, la figura de José Luis Sert emerge como la del arquitecto más influyente para la revista El Arquitecto Peruano a lo largo de todo su recorrido. ABSTRACT The thesis focuses on the analysis of 356 issues of the magazine El Arquitecto Peruano published between 1937 and 1977. The magazine was founded in august 1937 by Fernando Belaunde Terry, graduated from the University of Texas at Austin in 1935 who leaded it 25 years until March 1963. Since April 1963 was leaded by Miguel Cruchaga Belaunde. During this last stage the magazine ceases to be published on regular times, being published intermittently, unreleased several years, and finally disappear in 1977. El Arquitecto Peruano is the most important magazine of architecture of the twentieth century in Peru. The research located the magazine in the national context where was developed further by linking the various events of architecture and urbanism of the international scene occurred during the three decades of study. The research begins to establish a sequence of periods. This identification is based on a fixed structure existing in the journal formed by the permanent sections. A gradual insertion of temporary sections was complementing and detailing new themes and contents generating variants of the fixed structure over time. As a result of this process we recognize five periods linked to a series of central themes developed under the lead of Fernando Belaunde: Period 1 (September 1937 to March 1942): The Small House. Period 2 (April 1942 to May 1944). Modern urbanism. Period 3 (June 1944 to December 1949). Housing. Period 4 (January-February 1950 January-February 1956). Projects and Buildings. Period 5 (March-April 1956 January-February-March 1963). Territory. The final years under the direction of Miguel Cruchaga make the last Period. In the thirties, during the first period, is analyzed the role that a group of European and American magazines in architecture had in formal construction and thematic of the magazine. In the beginning there are influences of The Architectural Forum, The American Architect, Architecture, California Arts and Architecture and Architectural Digest. And along with these, the german magazine Moderne Bauformen and Innen Dekoration. Following World War II, the references to german magazines disappear and US relations are intensified by the position of Peru in the area of US influence. The magazines was not the only ways of influence, during the forties there was an open framework with Latin America that included cooperation trips of american architects on the south of the continent. As part of these links, in 1945 Paul Lester Wiener of Town Planning Associates and Richard Neutra, -both members of CIAM and the second President of the CIAM USAassisted the most important initiative promoted by the peruvian magazine, a popular housing project for workers and employees called El Plan Peruano. The magazine always has a strong attitude of change of the reality in the peruvian scene. To model the new version of reality created a series of media campaigns. In the biggest it used the ideas of modern urbanism that circulated during the war born in the CIAM of twenties and thirties. El Arquitecto Peruano take advantage of the situation of the early postwar years to direct their initiatives, modeled his proposal with the idea of Neighborhood Unit, making project and finally building the Unidad Vecinal N° 3, the larger scale project linked with the magazine. This favorable outlook for the ideas expressed by the publication joins the fact that its Director is elected deputy for Lima and is very close member to the current government who gave legal instruments and management to crystallize projects from 1945 to 1948. During this period of far-reaching proposals promoted by Fernando Belaunde and diffused by the magazine, as El Plan Peruano itself, the Centros Climaticos de Invierno, the Plan Piloto for Lima and the Concusos de Vivienda Popular. There is an earlier work on the magazine, restricted to the field of urbanism in 1992 by historian Antonio Zapata, entitled El Joven Belaunde: Historia de la revista El Arquitecto Peruano where the weight of the magazine leans Social Housing and notes Walter Gropius as the most influential architect in the publication. This thesis suggests that El Plan Peruano is the end of the iceberg, but these related projects to the magazine, form an inseparable whole and that the whole package has a direct influence of projects, ideas and editorial work of José Luis Sert developed from late twenties to the fifties. His book Can Our Cities Survive? , The Heart of the City and the magazine of GATEPAC AC Documentos de Actividad Contemporanea have clear signs in the peruvian magazine cross three of the proposed periods. During the forties when Sert and Wiener were partners in Town Plannning Associates and had direct contact with the director of the magazine as well as with key colaborators, and during the following decade. In light of the evidence examined, the shape of José Luis Sert emerges as the most influential architect to the peruvian magazine along its entire route.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo recoge los resultados de una investigación sobre la «vivienda productiva», es decir, de la casa como lugar de trabajo. Dicha investigación se ha ocupado de explorar cómo influyen las cotidianeidades doméstico-laborales actuales —junto con sus arquitecturas y los urbanismos que estas generan— en la sociedad, en especial en temas sociales centrales como la construcción de las subjetividades, y de una vida en comunidad. Asimismo, explora cómo podrían influir en un futuro. La hipótesis sobre la que se trabaja, y que finalmente se intenta demostrar, consiste en que, en la territorialidad múltiple de lo laboral, la vivienda, como plataforma doméstica multiusos, productiva y reproductiva de la que muchas personas disponen, desempeña un papel nodal, y es posible que en el futuro su papel sea aún más importante y más visible. La vivienda productiva funciona como una infraestructura urbana desde la cual se construyen diferentes tipos de bienes materiales e inmateriales, pero sobre todo formas de relación, sociales y productivas con otros, además de imaginarios y afectos. La vivienda como infraestructura productiva y reproductiva es tanto «fábrica fundamental de lo social», como nos enseña Silvia Federici, como «fábrica de lo urbano». El trabajo en casa, como parte de diferentes dinámicas «dispersas» del trabajo que se dan en la actualidad, presenta tanto problemáticas y desafíos importantes, como capitales y posibilidades sociales. Por un lado, puede facilitar una absorción de tipo «24/7» vinculada a las lógicas de producción dispersa y consumo dominantes además de la que se da por las dinámicas patriarcales tradicionales, y en múltiples casos situaciones de evidente asimetría y de explotación laboral. También puede propiciar situaciones socialmente extendidas o impuestas de soledad y aislamiento. Sin embargo, está asimismo vinculado al surgimiento de espacios de experimentación tanto en soledad como en compañía, de cooperación y de intercambio, además de a la evidente posibilidad de construir rutinas propias y, por tanto, una subjetividad laboral propia. Por otro lado, frente a la idea general y homogénea del trabajador casero como un sujeto mayoritariamente aislado de su entorno, las jornadas de trabajo de los trabajadores caseros estudiados presentan una gran diversidad. Estas pueden conllevar aislamiento y exclusión, así como acompañar diferentes formas de construcción de una ciudadanía activa, tanto en solitario, como mediante formas de participación activa en la construcción de una vida en comunidad. En esta investigación se analizan, pues, desafíos y oportunidades de estas espacialidades del trabajo y, a través de este análisis, se indaga en el papel de los marcos físicos, organizativos y simbólicos actuales para la vivienda y para la ciudad pensada desde los trabajadores caseros. Al mismo tiempo se exploran nuevos tipos de vivienda y urbanismos que puedan quizás acompañar procesos sociales de inclusión, así como de emancipación, cooperación e intercambio y, en general, nuevas formas de vecindad y bienestar compartido en los ámbitos doméstico-productivos. Metodológicamente, las singularidades presentes en las realidades estudiadas invitan además a explorar protocolos de análisis, métodos de diseño, de gestión y gobierno que, desde lo micro, puedan dialogar con lo cotidiano y sus singularidades. Diego Barajas, autor de la tesis, es arquitecto dedicado a la práctica, a la investigación y la docencia. Su trabajo se focaliza en explorar el carácter mediador de la arquitectura frente a lo cotidiano y sus microrrealidades. Es profesor de proyectos de urbanismo en la IE School of Architecture y es miembro de Husos, una plataforma de investigación y diseño orientada a la innovación en arquitectura y urbanismo, con sede en Madrid. Es el autor del libro Dispersion, A Study of Global Mobility and the Dynamics of a Fictional Urbanism (Episode Publishers, Róterdam, 2003). Sus trabajos teóricos y de investigación han aparecido en libros y revistas internacionales tales como The Domestic and The Foreign in Architecture (010 Publishers, 2008), Public Spheres, a Europan Discussion (Europan9, 2007), Photoespaña 05 (La Fábrica, Madrid, 2005), Domus, Volume, Abitare, Architese, Plot, y Summa+. Su trabajo se ha expuesto en la Bienal de Venecia (selección principal), la Bienal de Róterdam, la Fundación Tapies, Photoespaña, entre otros y es parte de la colección permanente del FRAC Centre en Orleans y del Historisch Museum de Róterdam entre otros. Antes de estudiar en Róterdam, se gradúa con Honores en la Universidad de los Andes en 1999 y su tesis de grado de arquitectura recibe la máxima distinción como proyecto de Grado Meritorio. ABSTRACT The present study records an investigation into the «productive house», or the home as a workplace. This investigation looks at how working from home, its architectures, and the urban dynamics generated around it influence daily life and the construction of society. It also explores what influences home-based work might have in the future, particularly in central themes such as the biopolitical construction of subjectivities and community life. The central hypothesis revolves around the idea that the home, as a multi-use infrastructure that most of us have access to, plays a fundamental role in the contemporary work sphere, due to —or even in spite of— the omnipresence of work in practically every moment and area of our daily lives, and might play a main role in the future. The home functions as a kind of hub from which we create different kinds of material and immaterial goods, but above all relationships with others, both social and productive, as well as imaginaries and affections. The home, as a machine for production and reproduction, is as much a main «factory of the social» as Silvia Federici describes it, as a «factory of the urban». Working from home, as one of several «dispersed» work dynamics that are part of the contemporary world of work, presents as many important problematics and challenges as it does possibilities and social capital. On the one hand, it can contribute to kind of «24/7» absorption linked both to the logistics of the current dispersed production and consumption, and to that of traditional patriarchal dynamics, and in some cases even clearly asymmetrical situations that exploit the workforce. It can also lead to the socially widespread phenomena of isolation and loneliness, at times imposed upon home-based workers. However, by the same token, it is also linked to the growth of experimental spaces of cooperation and exchange, both solitary and in company, as well as the clear possibility of constructing individualised routines and, therefore, a personal laboural subjectivity. On the other hand, contrary to the generalised, homogenous idea of a home-based worker who is mostly isolated from his or her environment, the working days of those we studied went hand in hand with different ways of building subjectivities. This could be as much in exclusion and isolation as through building an active citizenship, at times in solitary and at times actively participating in the construction of communal life. In this investigation, therefore, the challenges and opportunities of the home as workplace have been analysed, and through this analysis we have inquired into the role of current physical, organisational and symbolic frameworks for the home and for the city from the perspective of home workers. At the same time we have explored new types of homes and of town planning that could perhaps accompany social processes of diversity and inclusion as well as emancipation, cooperation and exchange and, in general, new forms of shared welfare in productive domestic environments. Methodologically, the singularities present in the cases studied also invite us to explore protocols of analysis, methods of design, management and government that, from the micro level, could dialogue with the peculiarities of day-to-day life. The author of this thesis, Diego Barajas, is an architect dedicated to practice, investigation and teaching. His work is focussed on exploring the mediating nature of architecture and the built environment in terms of daily life and its microrealities. He is professor of urban projects at the IE School of Architecture and member of Husos, a platform for investigation and town planning based in Madrid. He is the author of the book Dispersion, A Study of Global Mobility and the Dynamics of a Fictional Urbanism (Episode Publishers, Rotterdam, 2003) and his theoretical works and investigations have appeared in books such as The Domestic and The Foreign in Architecture (010 Publishers, 2008), Public Spheres, a Europan Discussion (Europan9, 2007), Photoespaña 05 (La Fábrica, Madrid, 2005), and in international magazines such as Domus, Volume, Abitare, Architese, Plot and Summa+. His work has been exhibited in places such as the Venice Biennial (main selection), the Rotterdam Biennial, the Tapies Foundation and Photoespaña, among others, and forms part of the permanent collection of the FRAC Centre in Orleans and the Historisch Museum of Rotterdam. Before studying in Rotterdam, he graduated with Honours from the University of the Andes in 1999, and his architecture degree thesis received the maximum distinction of Meritorious Graduation Project.