397 resultados para Comprobación
Resumo:
Hoy día nadie discute la importancia de predecir el comportamiento vibroacústico de estructuras (edificios, vehículos aeronaves, satélites). También se ha hecho patente, con el tiempo, que el rango espectral en el que la respuesta es importante se ha desplazado hacia alta frecuencia en prácticamente todos los campos. Esto ha hecho que los métodos de análisis en este rango alto de frecuencias cobren importancia y actualidad. Uno de los métodos más extendidos para este fin es el basado en el Análisis Estadístico de la Energía, SEA. Es un método que ha mostrado proporcionar un buen equilibrio entre potencia de calculo, precisión y fiabilidad. En un SEA el sistema (estructura, cavidades o aire circundante) se modela mediante una matriz de coeficientes que dependen directamente de los factores de pérdidas de las distintas partes del sistema. Formalmente es un método de análisis muy cómodo e intuitivo de manejar cuya mayor dificultad es precisamente la determinación de esos factores de pérdidas. El catálogo de expresiones analíticas o numéricas para su determinación no es suficientemente amplio por lo que normalmente siempre se suele acabar necesitando hacer uso de herramientas experimentales, ya sea para su obtención o la comprobación de los valores utilizados. La determinación experimental tampoco está exenta de problemas, su obtención necesita de configuraciones experimentales grandes y complejas con requisitos que pueden llegar a ser muy exigentes y en las que además, se ven involucrados problemas numéricos relacionados con los valores de los propios factores de pérdidas, el valor relativo entre ellos y las características de las matrices que conforman. Este trabajo estudia la caracterización de sistemas vibroacústicos mediante el análisis estadístico de energía. Se centra en la determinación precisa de los valores de los factores de pérdidas. Dados los problemas que puede presentar un sistema experimental de estas características, en una primera parte se estudia la influencia de todas las magnitudes que intervienen en la determinación de los factores de pérdidas mediante un estudio de incertidumbres relativas, que, por medio de los coeficientes de sensibilidad normalizados, indicará la importancia de cada una de las magnitudes de entrada (esencialmente energías y potencias) en los resultados. De esta parte se obtiene una visión general sobre a qué mensurados se debe prestar más atención, y de qué problemas pueden ser los que más influyan en la falta de estabilidad (o incoherencia) de los resultados. Además, proporciona un modelo de incertidumbres válido para los casos estudiados y ha permitido evaluar el error cometido por algún método utilizado habitualmente para la caracterización de factores de pérdidas como la aproximación a 2 subsistemas En una segunda parte se hace uso de las conclusiones obtenidas en la primera, de forma que el trabajo se orienta en dos direcciones. Una dirigida a la determi nación suficientemente fiel de la potencia de entrada que permita simplificar en lo posible la configuración experimental. Otra basada en un análisis detallado de las propiedades de la matriz que caracteriza un SEA y que conduce a la propuesta de un método para su determinación robusta, basada en un filtrado de Montecarlo y que, además, muestra cómo los problemas numéricos de la matriz SEA pueden no ser tan insalvables como se apunta en la literatura. Por último, además, se plantea una solución al caso en el que no todos los subsistemas en los que se divide el sistema puedan ser excitados. El método propuesto aquí no permite obtener el conjunto completo de coeficientes necesarios para definir un sistema, pero el solo hecho de poder obtener conjuntos parciales ya es un avance importante y, sobre todo, abre la puerta al desarrollo de métodos que permitan relajar de forma importante las exigencias que la determinación experimental de matrices SEA tiene. ABSTRACT At present there is an agreement about the importance to predict the vibroacoustic response of structures (buildings, vehicles, aircrafts, satellites, etc.). In addition, there has become clear over the time that the frequency range over which the response is important has been shift to higher frequencies in almost all the engineering fields. As a consequence, the numerical methods for high frequency analysis have increase in importance. One the most widespread methods for this type of analysis is the one based on the Statistical Energy Analysis, SEA. This method has shown to provide a good balance among calculation power, accuracy and liability. Within a SEA, a system (structure, cavities, surrounding air) is modeled by a coefficients matrix that depends directly on the loss factors of the different parts of the system. Formally, SEA is a very handy and intuitive analysis method whose greatest handicap is precisely the determination of the loss factors. The existing set of analytical or numerical equations to obtain the loss factor values is not enough, so that usually it is necessary to use experimental techniques whether it is to its determination to to check the estimated values by another mean. The experimental determination presents drawbacks, as well. To obtain them great and complex experimental setups are needed including requirements that can be very demanding including numerical problems related to the values of the loss factors themselves, their relative value and the characteristics of the matrices they define. The present work studies the characterization of vibroacousti systems by this SEA method. It focuses on the accurate determination of the loss factors values. Given all the problems an experimental setup of these characteristics can show, the work is divided in two parts. In the first part, the influence of all the quantities involved on the determination of the loss factors is studied by a relative uncertainty estimation, which, by means of the normalised sensitivity coefficients, will provide an insight about the importance of every input quantities (energies and input powers, mainly) on the final result. Besides, this part, gives an uncertainty model that has allowed assessing the error of one of the methods more widely used to characterize the loss factors: the 2-subsystem approach. In the second part, use of the former conclusions is used. An equation for the input power into the subsystems is proposed. This equation allows simplifying the experimental setup without changing the liability of the test. A detailed study of the SEA matrix properties leads to propose a robust determination method of this SEA matrix by a Monte Carlo filtering. In turn, this new method shows how the numerical problems of the SEA matrix can be overcome Finally, a solution is proposed for the case where not all the subsystems are excited. The method proposed do not allows obtaining the whole set of coefficients of the SEA matrix, but the simple fact of getting partial sets of loss factors is a significant advance and, over all, it opens the door to the development of new methods that loosen the requirements that an experimental determination of a SEA matrix have.
Resumo:
Dentro del equipamiento que existen en los hospitales, se realizan muy diversas actuaciones para el correcto funcionamiento de los equipos que se destinan, tanto a medir sobre el paciente o para tratamiento sobre estos mismos, el abanico de equipos que existen es muy grande, sin contar con los que directamente se instalan o, más correctamente, se implantan en el paciente. Los hospitales tienen establecidas pautas de mantenimiento tanto correctivo como preventivo, también de verificación relativa a seguridad y, en algunos casos, acciones que van destinadas a comprobar las magnitudes en los equipos. Esto último no es lo normal, de hecho, en muchos casos, la mayoría, se desconoce cómo poder comprobar que las magnitudes de un equipo se pueden trazar a un patrón de medida nacional. La investigación se ha desarrollado para determinar, siendo algo que esta patente hasta en la normalización ISO, que no existen para muchos equipos principios establecidos para garantizar la trazabilidad metrológica da las magnitudes físicas en las que trabaja durante su vida útil. Debido a la amplitud de este campo, el desarrollo de investigación se ha llevado en un formato piramidal, desde las necesidades para poder llegar a un estudio concreto de equipos concretos (Termómetros Clínicos, Tensiómetros, Ultrasonidos y Onda Corta). Para llegar a estos se ha realizado un estudio de cómo se encuentra la trazabilidad metrológica en todo el espectro, desde la gestión hasta llegar a casos particulares. Estudiando la gran cantidad de documentación existente y llegando a determinar el campo de trabajo en la metrología hospitalaria, clasificando los equipos y determinando como se encuentran definidos los métodos que llevan a realidad la trazabilidad metrológica, en la normalización. Un grupo no muy trabajado de los equipos electromédicos son los que se encuentran dentro de los tratamientos de Rehabilitación de traumatología, siendo equipos de uso muy habitual en los centros de salud para las lesiones musculares y óseas. A este asunto se ha dedicado un esfuerzo extra, con un reporte histórico de su origen y en qué punto se encuentran ahora. Se han estudiado dentro de estos equipos los de tratamiento de ultrasonidos, de diatermia y onda corta, que son los más representativos de los equipos destinados a electro terapia, pero hay que tener en cuenta que hay campos que se han mencionado globalmente de la rehabilitación, como son la terapia o la biomecánica, de forma similar a otras tecnologías sanitarias de otras especialidades (radiología o análisis clínico). Hay, también, dentro de la terapia, todos esos tratamientos propios de gimnasio, como son poleas, pesas, mesas de masajes, balones, etc… Que su metrología es sencilla, son equipos que existen medios de comprobación de las magnitudes que utilizan por la existencia en otras actividades de la industria (balanzas, pesas, etc). La investigación realizada ha pretendido evaluar todo el global y llegar a casos concretos para determinar cómo está la situación. Llegando a desarrollar una clasificación de equipos y de normas, que permiten vislumbrar las necesidades metrológicas y permitiría establecer una Gestión de la Trazabilidad Metrológica, concluyendo en el estudio para los equipos que se han mencionado. ABSTRACT Within the equipment that exist in the hospitals, there are very diverse performances for the correct operation of the equipment that is intended both to measure on the patient or for treatment on these same, the range of equipment available is very large, without which directly are installed or, more correctly, are implanted in the patient. The hospitals have established patterns of maintenance both corrective and preventive, also of verification of security and, in some cases, actions which are intended to check the magnitudes in the equipment. This last is not normal, in fact, in many cases, the majority, it is not known as to be able to check that the magnitudes of a computer can be traced to a pattern of national measure. The research has been developed to determine, is something that this patent up to the International Organization for Standardization (ISO), that do not exist for many teams established principles to ensure the metrological traceability gives the physical quantities in which they work during its useful life. Due to the breadth of this field, the development of research has been conducted in a pyramid format, from the needs to be able to reach a specific study of specific equipment (Clinical Thermometers, Tensiometers, Ultrasound, and Short Wave). To reach theme, has been carried out a study of how is the metrological traceability across the entire spectrum, from the management to individuals cases. Considering the large amount of existing documentation and arriving to determine the labor camp in the metrology hospital, sorting equipment and determining how are defined the methods that lead to reality the metrological traceability, in the standardization. A group not too worked for medical electrical equipment are found within the rehabilitation treatment of traumatology, being equipment of very common use in the health centers for muscle injuries and bone. In this matter has been dedicated an extra effort, with a report history of its origin and where they are now. We have studied within these teams about the treatment of ultrasound, diathermy, short wave, which are the most representative of the equipment that is destined to electro therapy, but it must be borne in mind that there are fields that have been mentioned globally of rehabilitation, as are the therapy or the biomechanics, similar to other health technologies from other specialties (radiology or clinical analysis). There is, also, within the therapy, all these treatments own gym, such as pulleys, weights, tables of massages, balls, etc… that its metrology is simple, are computers that there are means of verification of the magnitudes that used by the existence in other activities of the industry (scales, weights, etc). The research carried out has tried to assess the entire global and reach specific cases to determine the situation as it is. Arriving in the development of a classification of equipment and standards, which give us a glimpse of the metrological needs and establish a Management of the Metrological Traceability, concluding in the study for computers that have been mentioned.
Resumo:
El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.
Resumo:
El presente Trabajo de Fin de Grado es fruto de la colaboración en una investigación sobre la hipertermia magnética entre el Centro de Electrónica Industrial de la ETSII UPM (CEI) y el Centro de Tecnología Biomédica UPM (CTB). La hipertermia magnética es un tratamiento contra el cáncer que se encuentra en fase de desarrollo en distintos lugares alrededor del mundo. Se trata de una terapia que consiste en elevar la temperatura de las células cancerígenas hasta valores de entre 42 y 46ºC con el fin de destruirlas. Esto es posible pues por lo general, las células cancerígenas presentan una mayor sensibilidad ante efectos de hipertermia que el resto de células, por lo que una vez alcanzada la temperatura deseada se destruirían las células anómalas y las sanas quedarían intactas. Si se induce al paciente fiebre hasta los 39 ºC, tan sólo sería necesario alcanzar incrementos de temperatura de 3 o 4ºC para que el tratamiento tuviera éxito. El calentamiento se produce gracias al movimiento de nanopartículas magnéticas (NPMs) situadas en dichas células mediante técnicas médicas ya estudiadas. A su vez este movimiento se da gracias a la aplicación de un campo magnético sobre las NPMs. El equipo electrónico del que se dispone en esta investigación y que genera el campo magnético, está constituido esencialmente por un inversor de potencia en puente completo con carga inductiva, una placa de control y una fuente de tensión continua. A lo largo de este trabajo se abordarán y estudiarán varias cuestiones en línea con la continuidad de la investigación en este tratamiento y en aspectos de la misma como el estudio del equipo disponible y su mejora. En primer lugar se lleva a cabo un estudio de caracterización térmica del equipo del que se dispone, con el objetivo de conocer los parámetros de los que depende su funcionamiento y que permitirán verificar y dar consistencia a los resultados de los posteriores ensayos que con él se harán. Así mismo se realiza una fase de ensayos con el objetivo de optimizar el equipo, determinando cuales son los parámetros más relevantes y los valores de los mismos, que llevan al equipo a su máximo rendimiento en términos de incrementos de temperatura de las NPMs y por tanto hacia el éxito de la terapia. Tras la caracterización y optimización del equipo de hipertermia, se diseña una nueva fase de ensayos que tiene como fin la comparación de los resultados experimentales con el modelo físico teórico de calentamiento de las NPMs. Además se busca la comprobación de ciertas hipótesis extraídas de los mismos resultados experimentales, como la influencia de la forma de onda de la señal excitadora en el incremento de temperatura. Finalmente y con el fin de mejorar el rendimiento del equipo, se elabora un conjunto de posibles geometrías para la carga inductiva que incluya un núcleo de hierro, pues hasta el momento la bobina de la que se disponía tenía núcleo de aire. Se simulan las nuevas geometrías de la bobina con núcleo de hierro y se estudia cómo influyen los cambios en el campo magnético. Los avances en la investigación llevados a cabo en este Trabajo de Fin de Grado han permitido dar un paso más en el rendimiento, la fiabilidad de resultados y la mejora del equipo de hipertermia magnética, abriendo las puertas a ensayos in vitro y posteriormente in vivo para una terapia que podría estar más cerca de dar tratamiento eficaz a una de las enfermedades más implacables de nuestro tiempo.
Resumo:
A pesar de los innegables beneficios físicos y psicosociales que la práctica de actividad física tiene para la población en las últimas décadas se observa un importante descenso en el nivel de práctica de actividad física durante la adolescencia. La Educación Física (EF) es una asignatura presente en las primeras etapas educativas de los currículums de todos los países y supone para la población infantil y adolescente, durante el periodo de escolarización obligatoria, un entorno de contacto cotidiano con la actividad física y deportiva lo que explica el creciente interés que existe por investigar en este contexto y extraer conclusiones que puedan ayudar a revertir el proceso de progresivo abandono de la práctica en estas edades. El presente trabajo se centra en un periodo, la adolescencia, especialmente sensible al abandono de la práctica de actividad física. Apoyándonos en tres de los marcos teóricos más importantes de los últimos años - Teoría de Metas de Logro, Teoría de la Autodeterminación y Teoría del Flow - hemos realizado un diseño con tres estudios complementarios que nos permitan avanzar en el conocimiento de las variables que afectan a esta realidad. En el primero de los estudios, en el que participaron 3990 estudiantes de EF de España, Argentina, Colombia y Ecuador con edades comprendidas entre 12 y 18 años, se fijaron como objetivos el establecimiento de perfiles motivacionales en estudiantes de EF considerando las orientaciones motivacionales, la motivación intrínseca y el flow disposicional; la comprobación de la posible estabilidad de los perfiles establecidos en cuatro países diferentes; y el análisis de la relación entre los perfiles motivacionales establecidos con la práctica de actividad física realizada en la actualidad y la intención de ser activo en el futuro. Los resultados revelaron la existencia de tres perfiles motivacionales en los estudiantes: perfil de motivación baja-moderada, perfil de motivación de alta motivación con bajo ego y perfil de alta motivación. Se encontraron similitudes en los perfiles motivacionales obtenidos en los cuatro países analizados, sugiriéndose la posibilidad de que la lengua materna compartida pueda ser una variable de influencia en la existencia de patrones conductuales similares. La orientación al ego resultó ser un elemento diferenciador en la relación de los dos perfiles que mostraron niveles más altos de motivación intrínseca, flow disposicional y orientación a la tarea con las variables de práctica. Mayores niveles de orientación al ego determinaron mayores valores de práctica e intención de práctica. En el segundo estudio, en el que participaron 365 estudiantes de EF de España, Argentina y Colombia con edades comprendidas entre 12 y 16 años, se testó un modelo explicativo de la intención de ser físicamente activo en el futuro en estudiantes de EF poco motivados introduciendo el flow disposicional como variable explicativa junto a las orientaciones motivacionales y la motivación intrínseca. El modelo de ecuaciones estructurales testado muestra que tanto la orientación al ego como la orientación a la tarea y la motivación intrínseca predijeron el flow disposicional. No se encontró un efecto significativo de la orientación a la tarea sobre la motivación intrínseca, ni de esta sobre la intención de práctica de AFD en el futuro. El flow disposicional resultó ser un mediador entre ambas orientaciones motivacionales y dicha intención, adquiriendo un papel relevante en la predicción de la intención de realizar actividad física en el futuro en los sujetos con poca motivación hacia la clase de EF. En el último estudio, con una muestra de 53 estudiantes de EF pertenecientes a dos clases de segundo curso de ESO con edades comprendidas entre 13 y 15 años, se analizó el efecto de una intervención de apoyo a las NPB sobre la satisfacción de las mismas, la motivación intrínseca, la disposición a experimentar flow y la intención de ser físicamente activo en el futuro; estudiándose también el efecto de la misma sobre ciertas variables presentes en el proceso de enseñanza-aprendizaje tales como la diversión, el aprendizaje y el gusto hacia el contenido y la metodología empleada. La intervención resultó efectiva en la mejora de todas las variables motivacionales analizadas a excepción de la satisfacción de la necesidad de relaciones sociales, variable que podría ser más difícilmente modificable en tanto que los grupos de clase suelen permanecer estables a lo largo de esta etapa educativa. Los alumnos de la condición experimental presentaron niveles más elevados de diversión, aprendizaje y gusto hacia el contenido y la metodología empleada. ABSTRACT Despite the undeniable physical and psychological benefits that physical activity has on health, a significant drop in the level of physical activity during adolescence has been observed over the last few decades. Physical education (PE) is present in the early stages of educational curricula of all countries, creating an environment in which children and adolescents can maintain daily contact with sport and physical activity during the period of compulsory education. There is thus a growing interest in research within this context, helping to draw conclusions aimed at reversing the progressive decline of physical activity in this age bracket. The work presented here focuses on adolescence – a period particularly sensitive when faced with declining rates of physical activity. Relying on three of the most important recent theoretical frameworks – Achievement Goal Theory, Self-Determination Theory and Flow Theory – we have carried out a design using three complementary studies that allow us to advance the understanding of variables affecting this reality. The first two studies employ a correlational methodology while the third follows a quasi-experimental design. The objectives of the first study, with the participation of 3990 PE students aged 12 to 18 from Spain, Argentina, Colombia and Ecuador, were: a) to establish motivational profiles in physical education students taking into consideration motivational orientations, intrinsic motivation and dispositional flow; b) to check the possible stability of the established profiles in the four countries; and c) to analyze the relationship between motivational profiles and both current levels of physical activity and intention to be physically active in the future. Results revealed the existence of three motivational profiles: low-moderate motivation profile, high motivation and low ego profile and high motivation profile. Similarities were found across the four countries, which presents the possibility that sharing the same mother tongue might influence the existence of similar behavioral patterns. Amongst the profiles that showed the highest levels of intrinsic motivation, dispositional flow and task orientation with practice variables, ego orientation became apparent as a differentiating element. Higher levels of ego orientation correlated with higher levels both in current level of physical activity and intention to be physically active in the future. In the second study, with the participation of 365 PE students aged 12 to 16 from Spain, Argentina and Colombia, an explanatory model of the intention to be physically active within the low-moderate motivation profile was tested, including dispositional flow as an influence variable together with motivational orientations and intrinsic motivation. The structural model equation in the low-moderate motivation profile shows some differences with respect to findings of similar studies using heterogeneous samples in motivational profiles. It was found that ego orientation, task orientation and intrinsic motivation predicted dispositional flow. No significant effects of task orientation on intrinsic motivation, or of intrinsic motivation on intention to be physically active in the future were found. Dispositional flow emerged as a mediator between both motivational orientations and intention, acquiring an important role in the prediction of future intentions to be physically active in adolescents who show low levels of motivation towards physical education. In the last of the three studies, with the participation of 53 PE students drawn from two classes in the second year of secondary education aged 13 to 15, the effect of an intervention to support basic psychological needs was tested against the satisfaction of these needs, intrinsic motivation, disposition to experience flow and intention to be physically active in the future. Alongside this, the aforementioned intervention was tested on certain variables present in the teaching-learning process such as fun, learning and taste for the activity and methodology. Supportive intervention was effective in improving all the motivational variables, except for the satisfaction of the relatedness variable, which may be more difficult to modify as class groups tend to remain stable throughout this educational state. Students in the experimental condition showed higher levels of fun, learning and taste for the content and methodology.
Resumo:
La metodología Integrated Safety Analysis (ISA), desarrollada en el área de Modelación y Simulación (MOSI) del Consejo de Seguridad Nuclear (CSN), es un método de Análisis Integrado de Seguridad que está siendo evaluado y analizado mediante diversas aplicaciones impulsadas por el CSN; el análisis integrado de seguridad, combina las técnicas evolucionadas de los análisis de seguridad al uso: deterministas y probabilistas. Se considera adecuado para sustentar la Regulación Informada por el Riesgo (RIR), actual enfoque dado a la seguridad nuclear y que está siendo desarrollado y aplicado en todo el mundo. En este contexto se enmarcan, los proyectos Safety Margin Action Plan (SMAP) y Safety Margin Assessment Application (SM2A), impulsados por el Comité para la Seguridad de las Instalaciones Nucleares (CSNI) de la Agencia de la Energía Nuclear (NEA) de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) en el desarrollo del enfoque adecuado para el uso de las metodologías integradas en la evaluación del cambio en los márgenes de seguridad debidos a cambios en las condiciones de las centrales nucleares. El comité constituye un foro para el intercambio de información técnica y de colaboración entre las organizaciones miembro, que aportan sus propias ideas en investigación, desarrollo e ingeniería. La propuesta del CSN es la aplicación de la metodología ISA, especialmente adecuada para el análisis según el enfoque desarrollado en el proyecto SMAP que pretende obtener los valores best-estimate con incertidumbre de las variables de seguridad que son comparadas con los límites de seguridad, para obtener la frecuencia con la que éstos límites son superados. La ventaja que ofrece la ISA es que permite el análisis selectivo y discreto de los rangos de los parámetros inciertos que tienen mayor influencia en la superación de los límites de seguridad, o frecuencia de excedencia del límite, permitiendo así evaluar los cambios producidos por variaciones en el diseño u operación de la central que serían imperceptibles o complicados de cuantificar con otro tipo de metodologías. La ISA se engloba dentro de las metodologías de APS dinámico discreto que utilizan la generación de árboles de sucesos dinámicos (DET) y se basa en la Theory of Stimulated Dynamics (TSD), teoría de fiabilidad dinámica simplificada que permite la cuantificación del riesgo de cada una de las secuencias. Con la ISA se modelan y simulan todas las interacciones relevantes en una central: diseño, condiciones de operación, mantenimiento, actuaciones de los operadores, eventos estocásticos, etc. Por ello requiere la integración de códigos de: simulación termohidráulica y procedimientos de operación; delineación de árboles de sucesos; cuantificación de árboles de fallos y sucesos; tratamiento de incertidumbres e integración del riesgo. La tesis contiene la aplicación de la metodología ISA al análisis integrado del suceso iniciador de la pérdida del sistema de refrigeración de componentes (CCWS) que genera secuencias de pérdida de refrigerante del reactor a través de los sellos de las bombas principales del circuito de refrigerante del reactor (SLOCA). Se utiliza para probar el cambio en los márgenes, con respecto al límite de la máxima temperatura de pico de vaina (1477 K), que sería posible en virtud de un potencial aumento de potencia del 10 % en el reactor de agua a presión de la C.N. Zion. El trabajo realizado para la consecución de la tesis, fruto de la colaboración de la Escuela Técnica Superior de Ingenieros de Minas y Energía y la empresa de soluciones tecnológicas Ekergy Software S.L. (NFQ Solutions) con el área MOSI del CSN, ha sido la base para la contribución del CSN en el ejercicio SM2A. Este ejercicio ha sido utilizado como evaluación del desarrollo de algunas de las ideas, sugerencias, y los algoritmos detrás de la metodología ISA. Como resultado se ha obtenido un ligero aumento de la frecuencia de excedencia del daño (DEF) provocado por el aumento de potencia. Este resultado demuestra la viabilidad de la metodología ISA para obtener medidas de las variaciones en los márgenes de seguridad que han sido provocadas por modificaciones en la planta. También se ha mostrado que es especialmente adecuada en escenarios donde los eventos estocásticos o las actuaciones de recuperación o mitigación de los operadores pueden tener un papel relevante en el riesgo. Los resultados obtenidos no tienen validez más allá de la de mostrar la viabilidad de la metodología ISA. La central nuclear en la que se aplica el estudio está clausurada y la información relativa a sus análisis de seguridad es deficiente, por lo que han sido necesarias asunciones sin comprobación o aproximaciones basadas en estudios genéricos o de otras plantas. Se han establecido tres fases en el proceso de análisis: primero, obtención del árbol de sucesos dinámico de referencia; segundo, análisis de incertidumbres y obtención de los dominios de daño; y tercero, cuantificación del riesgo. Se han mostrado diversas aplicaciones de la metodología y ventajas que presenta frente al APS clásico. También se ha contribuido al desarrollo del prototipo de herramienta para la aplicación de la metodología ISA (SCAIS). ABSTRACT The Integrated Safety Analysis methodology (ISA), developed by the Consejo de Seguridad Nuclear (CSN), is being assessed in various applications encouraged by CSN. An Integrated Safety Analysis merges the evolved techniques of the usually applied safety analysis methodologies; deterministic and probabilistic. It is considered as a suitable tool for assessing risk in a Risk Informed Regulation framework, the approach under development that is being adopted on Nuclear Safety around the world. In this policy framework, the projects Safety Margin Action Plan (SMAP) and Safety Margin Assessment Application (SM2A), set up by the Committee on the Safety of Nuclear Installations (CSNI) of the Nuclear Energy Agency within the Organization for Economic Co-operation and Development (OECD), were aimed to obtain a methodology and its application for the integration of risk and safety margins in the assessment of the changes to the overall safety as a result of changes in the nuclear plant condition. The committee provides a forum for the exchange of technical information and cooperation among member organizations which contribute their respective approaches in research, development and engineering. The ISA methodology, proposed by CSN, specially fits with the SMAP approach that aims at obtaining Best Estimate Plus Uncertainty values of the safety variables to be compared with the safety limits. This makes it possible to obtain the exceedance frequencies of the safety limit. The ISA has the advantage over other methods of allowing the specific and discrete evaluation of the most influential uncertain parameters in the limit exceedance frequency. In this way the changes due to design or operation variation, imperceptibles or complicated to by quantified by other methods, are correctly evaluated. The ISA methodology is one of the discrete methodologies of the Dynamic PSA framework that uses the generation of dynamic event trees (DET). It is based on the Theory of Stimulated Dynamics (TSD), a simplified version of the theory of Probabilistic Dynamics that allows the risk quantification. The ISA models and simulates all the important interactions in a Nuclear Power Plant; design, operating conditions, maintenance, human actuations, stochastic events, etc. In order to that, it requires the integration of codes to obtain: Thermohydraulic and human actuations; Even trees delineation; Fault Trees and Event Trees quantification; Uncertainty analysis and risk assessment. This written dissertation narrates the application of the ISA methodology to the initiating event of the Loss of the Component Cooling System (CCWS) generating sequences of loss of reactor coolant through the seals of the reactor coolant pump (SLOCA). It is used to test the change in margins with respect to the maximum clad temperature limit (1477 K) that would be possible under a potential 10 % power up-rate effected in the pressurized water reactor of Zion NPP. The work done to achieve the thesis, fruit of the collaborative agreement of the School of Mining and Energy Engineering and the company of technological solutions Ekergy Software S.L. (NFQ Solutions) with de specialized modeling and simulation branch of the CSN, has been the basis for the contribution of the CSN in the exercise SM2A. This exercise has been used as an assessment of the development of some of the ideas, suggestions, and algorithms behind the ISA methodology. It has been obtained a slight increase in the Damage Exceedance Frequency (DEF) caused by the power up-rate. This result shows that ISA methodology allows quantifying the safety margin change when design modifications are performed in a NPP and is specially suitable for scenarios where stochastic events or human responses have an important role to prevent or mitigate the accidental consequences and the total risk. The results do not have any validity out of showing the viability of the methodology ISA. Zion NPP was retired and information of its safety analysis is scarce, so assumptions without verification or approximations based on generic studies have been required. Three phases are established in the analysis process: first, obtaining the reference dynamic event tree; second, uncertainty analysis and obtaining the damage domains; third, risk quantification. There have been shown various applications of the methodology and advantages over the classical PSA. It has also contributed to the development of the prototype tool for the implementation of the ISA methodology (SCAIS).
Resumo:
Esta tesis doctoral presenta un procedimiento integral de control de calidad en centrales fotovoltaicas, que comprende desde la fase inicial de estimación de las expectativas de producción hasta la vigilancia del funcionamiento de la instalación una vez en operación, y que permite reducir la incertidumbre asociada su comportamiento y aumentar su fiabilidad a largo plazo, optimizando su funcionamiento. La coyuntura de la tecnología fotovoltaica ha evolucionado enormemente en los últimos años, haciendo que las centrales fotovoltaicas sean capaces de producir energía a unos precios totalmente competitivos en relación con otras fuentes de energía. Esto hace que aumente la exigencia sobre el funcionamiento y la fiabilidad de estas instalaciones. Para cumplir con dicha exigencia, es necesaria la adecuación de los procedimientos de control de calidad aplicados, así como el desarrollo de nuevos métodos que deriven en un conocimiento más completo del estado de las centrales, y que permitan mantener la vigilancia sobre las mismas a lo largo del tiempo. Además, los ajustados márgenes de explotación actuales requieren que durante la fase de diseño se disponga de métodos de estimación de la producción que comporten la menor incertidumbre posible. La propuesta de control de calidad presentada en este trabajo parte de protocolos anteriores orientados a la fase de puesta en marcha de una instalación fotovoltaica, y las complementa con métodos aplicables a la fase de operación, prestando especial atención a los principales problemas que aparecen en las centrales a lo largo de su vida útil (puntos calientes, impacto de la suciedad, envejecimiento…). Además, incorpora un protocolo de vigilancia y análisis del funcionamiento de las instalaciones a partir de sus datos de monitorización, que incluye desde la comprobación de la validez de los propios datos registrados hasta la detección y el diagnóstico de fallos, y que permite un conocimiento automatizado y detallado de las plantas. Dicho procedimiento está orientado a facilitar las tareas de operación y mantenimiento, de manera que se garantice una alta disponibilidad de funcionamiento de la instalación. De vuelta a la fase inicial de cálculo de las expectativas de producción, se utilizan los datos registrados en las centrales para llevar a cabo una mejora de los métodos de estimación de la radiación, que es la componente que más incertidumbre añade al proceso de modelado. El desarrollo y la aplicación de este procedimiento de control de calidad se han llevado a cabo en 39 grandes centrales fotovoltaicas, que totalizan una potencia de 250 MW, distribuidas por varios países de Europa y América Latina. ABSTRACT This thesis presents a comprehensive quality control procedure to be applied in photovoltaic plants, which covers from the initial phase of energy production estimation to the monitoring of the installation performance, once it is in operation. This protocol allows reducing the uncertainty associated to the photovoltaic plants behaviour and increases their long term reliability, therefore optimizing their performance. The situation of photovoltaic technology has drastically evolved in recent years, making photovoltaic plants capable of producing energy at fully competitive prices, in relation to other energy sources. This fact increases the requirements on the performance and reliability of these facilities. To meet this demand, it is necessary to adapt the quality control procedures and to develop new methods able to provide a more complete knowledge of the state of health of the plants, and able to maintain surveillance on them over time. In addition, the current meagre margins in which these installations operate require procedures capable of estimating energy production with the lower possible uncertainty during the design phase. The quality control procedure presented in this work starts from previous protocols oriented to the commissioning phase of a photovoltaic system, and complete them with procedures for the operation phase, paying particular attention to the major problems that arise in photovoltaic plants during their lifetime (hot spots, dust impact, ageing...). It also incorporates a protocol to control and analyse the installation performance directly from its monitoring data, which comprises from checking the validity of the recorded data itself to the detection and diagnosis of failures, and which allows an automated and detailed knowledge of the PV plant performance that can be oriented to facilitate the operation and maintenance of the installation, so as to ensure a high operation availability of the system. Back to the initial stage of calculating production expectations, the data recorded in the photovoltaic plants is used to improved methods for estimating the incident irradiation, which is the component that adds more uncertainty to the modelling process. The development and implementation of the presented quality control procedure has been carried out in 39 large photovoltaic plants, with a total power of 250 MW, located in different European and Latin-American countries.
Resumo:
El proyecto se trata de una API de desarrollo para el DNI electrónico que permita crear de forma sencilla aplicaciones cuya funcionalidad se apoye en el uso del DNI electrónico. De esta forma, el framework facilita el acceso a las principales operaciones soportadas por el DNIe mediante la invocación de métodos sencillos. Una de las funcionalidades es la de realizar un proceso de autenticación con el DNIe utilizando para ello las capacidades criptográficas del chip que incorpora y el certificado de autenticación. Esta funcionalidad puede ser accedida también de forma dividida en dos pasos, para dar soporte a aplicaciones con arquitectura cliente-servidor. El framework también ofrece la funcionalidad de firma electrónica con el DNIe, una firma legalmente válida y que permite chequear también la integridad del mensaje firmado. También se soporta por el framework la comprobación de un certificado mediante el protocolo OCSP, funcionalidad que si bien no implica directamente al DNIe, sí que es importante en el marco de procesos que se ven involucrados en cualquier Infraestructura de Clave Pública. ABSTRACT The project is a development API for DNIe card that allows easily create applications whose functionality is supported in the use of DNIe. Thus, the framework provides access to the main operations supported by the DNIe by invoking simple methods. One of the features is to perform an authentication process with the DNIe using its chip’s capabilities and authentication certificate. This functionality can also be accessed so divided into two steps, to support applications with client-server architecture. The framework also provides the functionality of electronic signatures with DNIe, a legally valid signature and allows also check the integrity of the signed message. Verification of a certificate using OCSP, functionality but does not imply directly to DNIe is also supported by the framework, yes it is important in the context of processes that are involved in any Public Key Infrastructure.
Resumo:
Hoy en día existe una preocupación creciente por la calidad del software entregado en los proyectos que se realizan a lo largo del mundo. El trabajo de fin de grado que va a ser desarrollado en estas páginas pretende demostrar la importancia de la realización de tests funcionales durante el proceso de desarrollo de software para que el proyecto alcance la calidad requerida tan demandada en estos días. Para ello, después de una pequeña introducción a la historia del software, se presentarán y compararán diversos tipos de metodologías de desarrollo de software, tanto pesadas (cascada, espiral, etc.) como ágiles (Extreme Programming y Scrum), se enfatizará en dichas metodologías ágiles y cómo el proceso de testing y control de calidad encaja perfectamente con la filosofía de las citadas metodologías ágiles. Se desarrollará una explicación del papel de QA en el desarrollo de software, asi como una explicación de los tipos de test existentes, y las herramientas, tecnologías y patrones que existen a disposición de aquellos que quieran desempeñar el papel de QA. Para complementar el punto de vista teórico de este trabajo se presentará un caso práctico real realizado en la empresa bq bajo una metodología Scrum. Dicho caso práctico muestra el uso de ciertas herramientas y su aporte para el control de calidad del proyecto bajo desarrollo, demostrando su importancia. Se realizará énfasis en el proceso de automatización de ciertas baterías de test (llamadas test suites), mostrando desde el planteamiento inicial de las diferentes historias de usuario y la batería de test, pasando por la elección de las tecnologías más adecuadas para la elaboración de los test hasta llegar al lanzamiento de dicha batería de pruebas y la comprobación de éstas. El punto de vista práctico quedará complementado por una explicación del framework nightwatch.js, framework utilizado en el desarrollo del proyecto en bq para la automatización de test funcionales. Esta explicación comprenderá tanto la configuración y uso del framework como el uso de patrones y la estructura de las pruebas. ABSTRACT Nowadays there is a growing concern about the Quality of the software delivered in the projects that are made all around the world. This final project will try to prove the importance of performing functional tests during the Software Development Process in order to be able to reach the demanded Quality. To fulfill this objective, different types of Software Development methodologies will be presented and compared. Heavy methodologies (waterfall, spiral methodologies, etc.) as well as agile methodologies (Extreme Programming and Scrum). There will be an emphasis in the second kind (agile methodologies) and how the testing and quality assurance process fits perfectly in their philosophy. A deep explanation of the role that Quality Assurance holds on software development will be presented, as well as an explanation on the current types of testing and an explanation of the different tools; technologies and patrons that exist to help anyone who wants to perform the role of QA. To complement the theoretical perspective of this work a real case study, performed at the company bq under a Scrum methodology, will be presented. The mentioned study covers the use of certain tools and their input for the quality assurance of the project under development, proving its relevance. Emphasis will be made in the process of conducting a set of tests (called test suite), showing from the initial approach of the different users stories and the set of tests, going through the choosing of the most suitable technologies for the tests development, and ending with the performance of this battery of tests and their checkout. The practical point of view will be complemented by a deep explanation of the creation process using the nightwatch.js automated test framework, used in the project in bq. This explanation will cover both the configuration and use of the framework as the use of patterns and structure of the tests.
Elementos peatonales de las ciudades medias españolas : tipos, orígenes, relaciones y articulaciones
Resumo:
A través de esta tesis se busca aportar un análisis de los elementos peatonales que cubren las necesidades y las infraestructuras de apoyo al peatón, siendo un campo poco desarrollado en nuestro país a diferencia de otros como Dinamarca, Reino Unido, Alemania y Holanda, donde las actuaciones peatonales ejecutadas son tradicionales y muy exitosas. Se trata por tanto de un tema poco estudiado pero que adquiere singular importancia en estos años de búsqueda de nuevos modelos urbanos que eviten el derroche de recursos, y avancen hacia formas de movilidad más adecuadas a un mundo limitado y vulnerable. La investigación tiene un carácter eminentemente descriptivo cuyo principal valor es documentar y analizar sistemáticamente una realidad poco conocida, aportándose datos para entender el origen y desarrollo de las actuaciones peatonales. El propósito es ayudar a cimentar este campo en nuestro país, definiendo con precisión el estado de la cuestión geográficamente y dejando para un futuro una cartografía temática completa. El objeto general es estudiar y comprender los elementos peatonales de un número limitado de ciudades medias españolas, marcándose como objetivos específicos los siguientes: - Identificar y describir los principales elementos que conforman la red peatonal de las ciudades. ‐ Estudiar las tipologías espaciales dominantes, sus características y orígenes, pudiendo distinguir de un lado, las desarrolladas en la ciudad consolidada, como las actuaciones en los cascos antiguos; y por otro, las ejecutadas en la ciudad nueva a través de fórmulas arquitectónicas generalmente residenciales con espacios peatonales adjuntos. ‐ Analizar los referidos elementos para comprobar si han conformado redes de uso peatonal, si se han constituido articulando la ciudad como en el caso de los ejes lineales en las ciudades con río o mar, o si han influenciado el carácter del entorno en el que se han realizado, centrando el interés en los cascos históricos peatonalizados. ‐ Comprobar si hay actuaciones complementarias a los procesos de urbanización y mejora urbanística, así como la aprobación de ayudas y subvenciones para afrontar las mismas. ‐ Finalmente, describir y evaluar los procesos y procedimientos mediante los que se produce la peatonalización de determinadas áreas urbanas, los orígenes, los instrumentos y fechas de su puesta en marcha, aportando una cronología peatonal. La metodología comienza con la acotación de 22 ciudades españolas, capitales de provincia con una población entre 100.000 y 500.000 habitantes según los datos del INE del año 2009. La distribución es equilibrada con la selección de ciudades de costa, de interior, con río/ría, con carácter patrimonial, ciudades en islas, etc. El análisis de los elementos peatonales de estas urbes se realiza gracias a la gran resolución de las bases cartográficas públicas y privadas que hay en la actualidad en internet, especialmente con el uso de las herramientas de Google Earth y Google Maps en su versión “street view”, softwares que permiten un paseo virtual de cada ciudad detallándose con gran precisión las actuaciones peatonales. Las ciudades elegidas son: ‐ 11 ciudades costeras: Alicante, Almería, Bilbao, Cádiz, Castellón de la Plana, Huelva, Las Palmas de Gran Canaria, Palma de Mallorca, Santander, San Sebastián y Tarragona. ‐ 11 ciudades de interior: Albacete, Burgos, Córdoba, León, Lérida, Logroño, Oviedo, Murcia, Pamplona, Valladolid y Vitoria. Finalmente, por tener los porcentajes mas elevados de las áreas peatonales de sus casco histórico, se eligen 3 casos de ciudades representativas para un desarrollo peatonal en profundidad, seleccionándose Burgos, San Sebastián y Pamplona. Otros aspectos metodológicos interesantes a destacar, es la extensa documentación adquirida a través de las fuentes de Internet, sobre todo a la hora de desarrollar el último capítulo “Procesos de peatonalización de las ciudades españolas” centrado en las 3 ciudades elegidas. Se consulta las hemerotecas de periódicos locales, los boletines oficiales, las actas de los plenos de los Ayuntamientos y los documentos de planificación (Planes Generales, Planes Especiales, Planes y Proyectos Municipales, Planes de Movilidad), adquiriéndose una precisa información en cuanto a la cronología de las fechas y extensión del trabajo. Se complementa la metodología con las entrevistas a actores claves en el proceso peatonal, como el personal técnico de los Ayuntamiento y los técnicos redactores de los proyectos; y con la colaboración directa de los técnicos de los consistorios de las 3 ciudades seleccionadas, aportando todo tipo de información demandada. En la tesis, se introduce los elementos peatonales mediante el estudio de los espacios peatonales y los procesos de peatonalización existentes, a través del análisis de la literatura consultada aportándose información valiosa en cuanto a la definición de los modelos peatonales, exponiéndose una breve historia de las peatonalizaciones. Destacan las publicaciones de los expertos europeos en la materia como los autores Carmen Hass-Klau, Rolf Monheim, Rob Krier y Collin Buchanan. En España, las actuaciones peatonales fueron tardías en el tiempo en comparación con el resto de Europa, con casi 40 años de retraso. Las referencias bibliográficas españolas en esta materia son escasas siendo las mas significativas las realizadas por Alfonso Sanz y por el profesor Julio Pozueta destacando una de sus últimas publicaciones “La ciudad paseable” describiéndose los elementos peatonales existentes en las ciudades, sirviendo como modelo y ejemplo para esta investigación. En base a lo anterior, se definen los elementos peatonales como aquellos espacios públicos libres de edificación que, por sus características y diseño, garantizan un confortable uso estancial, de tránsito peatonal y están expresamente reservados para ello. En la tesis se detectan y se especifican los siguientes elementos peatonales: las calles y plazas peatonales, las aceras y bulevares de una anchura superior a 8 metros, los paseos peatonales, los elementos de paso (tradicionales y mecánicos), espacios peatonales ligados a nuevas áreas residenciales, los soportales y pasajes peatonales con una anchura mínima de 4 metros, recintos feriales, espacios libres y zonas verdes y parques. Para cada una de las 22 ciudades seleccionadas se realiza un exhaustivo inventario de los anteriores elementos a través de fichas, aportando un gran número de proyectos individuales ejecutados en cada urbe. Esta información se recoge gráficamente en 2 fotoplanos, conformándose como herramientas fundamentales para esta investigación. El Fotoplano 1 se hace sobre la base de la ciudad del Google Earth diferenciándose las áreas peatonales y las zonas verdes. En el Fotoplano 2, y con el soporte anterior, se distinguen las tipologías persistentes y dominantes como son los grandes ejes peatonales, las redes peatonales locales y los elementos peatonales singulares. Finalmente, a partir de los 2 fotoplanos, se realiza la denominada “Huella peatonal” que destaca por su atractivo y pregnancia, algo de lo que el campo de lo peatonal es muy útil. A través de la huella se obtiene una rápida información al tener el plano dos colores, color naranja para lo peatonal (formado por las áreas peatonales y zonas verdes) y color negro para el resto el resto no peatonal. Toda esta documentación gráfica y descriptiva de los elementos peatonales de cada ciudad, queda ampliamente recogida en el Anexo de la tesis. La “Huella peatonal” se considera como el plano básico en la investigación obteniendo una percepción rápida, clara y visual del espacio peatonal de cada ciudad. Se arroja información morfológica con respecto a la distribución espacial, articulación, equilibrio, modulación, cohesión, concentración peatonal, etc. de cada una de las ciudades seleccionadas. A través de la huella se resuelve muchos de las cuestiones enmarcadas como objetivos de la tesis, comprobándose de forma general, que los elementos peatonales dentro de la trama urbana están desarticulados ya que no hay una estructura que module la ciudad como un conjunto cohesionado. Se localizan pequeñas redes conectadas entre sí, que de forma heterogénea, están dispersas por la ciudad. Se verifica que los elementos peatonales con mayor concentración y presencia en las ciudades analizadas son los ejes peatonales, los cascos históricos y los elementos peatonales en las nuevas áreas residenciales. En la investigación, además de estos 3 elementos mencionados, se analiza con mayor profundidad otros tipos que destacan por su persistencia y repetición en la “Huella peatonal” de cada una de las 22 ciudades, como son las plazas peatonales, los soportales y los elementos singulares peatonales: espacios tradicionales (recintos feriales, pasajes, puentes históricos), nuevos elementos peatonales (pasarelas peatonales, elementos mecánicos de paso), áreas peatonales entorno a edificios culturales y otros casos como los consistentes en la recuperación y transformación de edificaciones y construcciones urbanas de diferente uso y tipología, en nuevas áreas peatonales. Se aporta luz sobre su definición, localización, cronología, proporción, presencia y génesis, facilitando resultados de cada uno de ellos. De forma paralela, se obtiene información de índole cuantitativa a través de las mediciones de la huella, obteniéndose datos y porcentajes de extensión de la ciudad, de las zonas peatonales y de las zonas verdes, de los cascos históricos y de sus superficies peatonales, de los metros lineales de dichos cascos históricos y de sus calles peatonales. Se proporcionan ratios e índices que se consideran fundamentales para una mejor comprensión peatonal de cada urbe. Se establece una clasificación de las ciudades en cada uno de los ámbitos descritos, destacando las ciudades de Pamplona, San Sebastián y Burgos por arrojar las cifras peatonales más positivas encabezando la mayoría de las tablas clasificatorias. La peor ciudad valorada es Alicante, seguida según criterio, de Almería, Palma de Mallorca y Las Palmas de GC. En el capítulo final de la investigación, se eligen las ciudades de Burgos, San Sebastián y Pamplona como casos de estudio representativos. El objetivo es obtener un conocimiento más preciso en cuanto a su origen, cronología y procesos de las peatonalizaciones. Cada ciudad se compone de un cuadro cronológicos por etapas, desarrollándose de forma exhaustiva cada una de ellas, enunciadas normalmente, como instrumentos de planeamiento o proyectos de urbanización, acompañadas de los planos de las actuaciones peatonales. Al final de cada etapa se aportan datos de las cifras de las peatonalizaciones que se van realizando, con un cuadro numérico de localizaciones, superficie peatonal, superficie reurbanizada, longitud peatonal y el grado de peatonalización del casco histórico, además de los datos acumulados por etapa. De las conclusiones cruzadas de estas 3 ciudades, destaca la comprobación de la tendencia de ir peatonalizando los centros antiguos llegando incluso al 100% de calles peatonales en el caso de San Sebastián. No obstante, es difícil confirmar si el objetivo es una peatonalización global de los cascos, ya que son muchas las variables que afectan e influyen en el proceso peatonal de cada ciudad. Se coteja adicionalmente cómo se extiende la cultura peatonal desde el interior al exterior, mas allá de los cascos históricos hacia los ensanches próximos. En cuanto al origen de las peatonalizaciones, se concluye que no hay una concepción inicial y teórica marcada, a partir de la cual se va desarrollando la trama peatonal de cada ciudad. Se puede afirmar que los procesos peatonales ejecutados son variados y de diversa índole, sin poder precisar un hecho como causa principal. Según el momento y las circunstancias, las peatonalizaciones responden a distintas iniciativas promovidas por los comerciantes, por las administraciones locales o por los técnicos de planeamiento, con sus expertas aportaciones en los planes. Estos tres agentes actúan como impulsores de proyectos individuales peatonales que se van solapando en el tiempo. Como punto final de la tesis, se propone una serie de nuevas líneas de investigación que pueden servir como estudio adicional y complementario, respondiendo a aspectos tan relevantes como cuestiones de índole económica, social y de movilidad, fuertemente ligadas a las peatonalizaciones, tal y como se demuestra en la literatura consultada. ABSTRACT This thesis aims to analyse the pedestrian elements dealing with the needs and infrastructures that support pedestrians, as this is a field that is little developed in our country, in comparison to other regions such as Denmark, the United Kingdom, Germany and the Netherlands, where the pedestrian actions implemented are traditional and highly successful. Therefore, even though little research has been done about this topic, this field is increasingly important throughout these years of search for urban models intended to prevent the waste of resources and to develop new mobility ways, more adapted to a limited, vulnerable world. This research is essentially descriptive and it mainly aims to document and systematically analysed a scarcely known reality by providing data in order to understand the origin and development of pedestrian actions. This thesis intends to lay the foundations of this field in Spain, accurately defining the state of the art from a geographical point of view and preparing a full thematic map that may be used in the future. The overall aim is to study and understand the pedestrian elements of a limited number of Spanish medium-size cities, establishing the following specific goals: - To identify and describe the main elements comprising cities' pedestrian networks. - To study of special predominant typologies, their features and origins, with the possibility to, on the one hand, make a difference between the typologies developed in well-established cities, such as the actions in historic quarters, and, on the other hand, those implemented in new cities through generally residential architectural formulae with adjoining pedestrian areas. - To analyse the said elements in order to check whether they have resulted in pedestrian-use networks, whether they have been established by organising the city, such as the linear axes in coastal and riverside cities, or whether they have had an impact on the character of the areas where these elements have been implemented, focusing on pedestrian historic quarters. - Check whether there are actions supplementary to the urban development and urban improvement processes, as well as the approval of financial support and subventions to deal with these actions. - Finally, to describe and assess the processes and procedures by which the pedestrianisation of certain urban areas is carried out, the origins, the instruments and the date of their implementation, providing a pedestrian timeline. The methodology starts by defining 22 Spanish cities, province capitals with a population ranging from 100,000 to 500,000 inhabitants, according to the data recorded by the Spanish Statistics Institute (INE) in 2009. The distribution of coastal, riverside and interior cities, as well as of patrimonial cities and cities in islands, etc. is well balanced. The analysis of the pedestrian elements of these cities is made with the great resolution of the public and private map databases that can be accessed on the Internet, especially using the "street-view" version of tools such as Google Earth and Google Maps, software applications that allow to go for a virtual walk in each city, providing highly precise details about the pedestrian actions. The following cities have been chosen: ‐ 11 coastal cities: Alicante, Almería, Bilbao, Cádiz, Castellón de la Plana, Huelva, Las Palmas de Gran Canaria, Palma de Mallorca, Santander, San Sebastián and Tarragona. ‐ 11 interior cities: Albacete, Burgos, Córdoba, León, Lérida, Logroño, Oviedo, Murcia, Pamplona, Valladolid and Vitoria. Finally, as they have the highest percentages regarding the pedestrian areas found in the historic quarters, 3 cities representing a deep pedestrian development have been chosen: Burgos, San Sebastián and Pamplona. Other significant methodological aspects are the many documents found from online sources, especially when preparing the last chapter: “Processes for the pedestrianisation of Spanish cities”, which focuses on the 3 cities chosen. Local newspaper and periodical libraries, official gazettes, the minutes of plenary sessions of councils and the zoning regulation documents (General Zoning Plans, Special Zoning Plans, Municipal Plans and Projects, Mobility Plans, etc.) have been consulted, obtaining accurate information regarding the timeline and the extension of the works carried out. The methodology is supplemented by interviews with key players in the pedestrianisation process, such as the technical staff in councils and the officers drafting and designing the projects, as well as with the direct collaboration by the officers of the councils of the 3 cities chosen, who provided all the information requested. The thesis introduces the pedestrian elements by studying pedestrian areas and existing pedestrianisation processes through the analysis of the literature consulted, providing valuable information for the definition of pedestrian models and showing a brief history and background of the pedestrianisation process. Remarkable papers published by some European experts in the field, such as Carmen Hass-Klau, Rolf Monheim and Collin Buchanan, are covered in the thesis. In Spain, the pedestrianisation actions were late in time in comparison to the rest of Europe, with at least 40 years of delay. The Spanish literature references in this field are limited. The most significant papers are those published by Alfonso Sanz and by Professor Julio Pozueta, with a special mention of one of his last works "La ciudad paseable" (The Walkable City), which describes the pedestrian elements found in the cities and is used a model and an example for this research. Based on the elements above, pedestrian elements are defined as those construction-free public areas that, due to their features and design, ensure the comfortable, convenient use of the spaces, characterised by pedestrian traffic and specifically reserved for this purpose. The thesis detects and specifies the following pedestrian elements: pedestrian streets and squares, pavements (sidewalks) and boulevards with a width exceeding 8 metres, pedestrian promenades, crossing elements (traditional and mechanical), pedestrian spaces linked to new residential areas, colonnades and pedestrian passages or narrow streets with a minimum width of 4 metres, exhibition sites, free spaces and green areas and parks. For each of the 22 cities chosen, a thorough inventory of the elements mentioned above has been made by using worksheets, providing a significant number of individual projects developed in each city. This information is graphically collected and displayed on 2 photomaps, resulting in tools essential for this research. Photomap 1 is made based on the city displayed by Google Earth, making a difference between pedestrian areas and green areas. On Photomap 2, using the tool mentioned above, a difference can be made between persistent and predominant typologies, such as the big pedestrian axes, the local pedestrian networks and singular pedestrian elements. Finally, the 2 photomaps are used in order to establish the so-called "pedestrian footprint", which is highlighted by its attractiveness and appeal, concepts for which the pedestrian field is very useful. With the pedestrian footprint, quick information can be obtained, since the map shows two colours: orange for pedestrian elements (made up of pedestrian areas and green areas) and black for the other non-pedestrian elements. A significant part of these graphic, descriptive documents about each city's pedestrian elements can be found in the thesis appendix. The "Pedestrian Footprint" is regarded in the research as the basic map, obtaining a quick, clear and visual perception of each city's pedestrian space. This footprint provides morphological information regarding the space distribution, the organisation, the balance, the modulation, the cohesion, the pedestrian concentration, etc. in each of the cities chosen. The pedestrian footprint helps solve many of the questions established as the thesis goals, proving that, in general, the pedestrian elements are not organised in the urban plot, as there is no structure modulating the city as a properly linked set of elements. Small networks linked to each other and heterogeneously scattered all over the city are found. It has been verified that the pedestrian elements with the highest concentration and presence in the cities analysed are the pedestrian axes, the historic quarters and the pedestrian elements found in the new residential areas. Besides these 3 elements mentioned, the research analyses in depth other types that are remarkable due to their persistence and repetition in the "Pedestrian Footprint" of each of the 22 cities, such as the pedestrian squares, the colonnades and the singular pedestrian elements: traditional spaces (exhibition sites, passages, historic bridges), new pedestrian elements (pedestrian footbridges, mechanical crossing elements), pedestrian areas around cultural buildings and other cases such as those consisting of recovering and transforming building and urban constructions, intended for a wide range of purposes and of different types, into new pedestrian areas. This work puts light on the definition, location, timeline, proportion, presence and origin, providing results for each of these concepts. At the same time, quantitative information is obtained by measuring the footprint, getting data and percentages on the size of the city, the pedestrian areas and the green areas, the historic quarters and the pedestrian zones, the linear metres of such historic quarters and pedestrian streets. The footprint also provides ratios and rates that are considered as essential in order to better understand the pedestrian elements of each city. A classification of cities is established for each of the areas described, highlighting the cities of Pamplona, San Sebastián and Burgos, as they provide the most positive pedestrian figures and lead most of the classification tables or rankings. According to the criteria considered, the city with the worst values is Alicante, followed by Almería, Palma de Mallorca and Las Palmas de Gran Canaria. In the final chapter in the thesis, the cities of Burgos, San Sebastián and Pamplona are chosen as representative study cases. The aim is to gain more accurate knowledge regarding the pedestrianisation origin, timeline and processes. Each city comprises a chronological sequence made of stages, each of which is thoroughly developed and usually announced as zoning plans or urban development projects, accompanied by the plans of the pedestrian actions. At the end of each stage, data with the figures of the pedestrianisation projects are provided, including a numerical chart with locations, pedestrian area, redeveloped urban areas, pedestrian length and pedestrianisation degree in the historic quarter, as well as the data cumulated throughout each stage. In the crossed conclusions on the three cities, the trend of gradually pedestrianising the historic quarters (even reaching the 100% of the pedestrian streets as in San Sebastián) is verified. However, it is difficult to confirm whether the purpose is to reach an overall pedestrianisation of the historic quarters, since there are many variables that affect and influence each city's pedestrianisation process. In addition, the spread of the pedestrian culture from the internal areas to the external areas, beyond the historic quarters to the nearby expansion areas, is compared. Regarding the origin of pedestrianisations, the thesis comes to the conclusion that there is no initial or theoretical conception from which each city's pedestrian plot is developed. The pedestrian processes implemented are varied and diverse but no fact can be specified as the main cause. Based on the moment and circumstances, the pedestrianisation processes are due to different initiatives promoted by shopkeepers, by the local administrations or by the zoning officers, with their expert contributions to the plans. These three players promote and drive individual pedestrianisation projects that overlap in the course of time. Finally, new lines of research are put forwards, as they can be taken as an additional study and as a supplement to this research, dealing with aspects as significant as the economic, social and mobility factors, closely linked to the pedestrianisation processes, as proven in the literature consulted.
Resumo:
Se presenta la tesis doctoral, titulada ‘TRANS Arquitectura. Imaginación, Invención e individuación del objeto tecnico arquitectónico. Transferencia tecnológica desde la Industria del Transporte al Proyecto de Arquitectura [1900-1973]'’, que aborda la relación entre la Arquitectura y el Objeto Técnico durante la Modernidad.1 La temática de la tesis gravita en torno a la cultura técnica, la cultura material y la historia de la Tecnología del siglo XX. Hipótesis Se sostiene aquí la existencia de unas arquitecturas que se definen como Objetos Técnicos. Para demostrarlo se estudia si éstas comparten las mismas propiedades ontológicas de los objetos técnicos. Industria y Arquitectura La historia de la Arquitectura Moderna es la historia de la Industria Moderna y sus instalaciones industriales, sus productos y artefactos o sus procedimientos y procesos productivos. Fábricas, talleres, acerías, astilleros, minas, refinerías, laboratorios, automóviles, veleros, aviones, dirigibles, transbordadores, estaciones espaciales, electrodomésticos, ordenadores personales, teléfonos móviles, motores, baterías, turbinas, aparejos, cascos, chassis, carrocerías, fuselajes, composites, materiales sintéticos, la cadena de montaje, la fabricación modular, la cadena de suministros, la ingeniería de procesos, la obsolescencia programada… Todos estos objetos técnicos evolucionan constantemente gracias al inconformismo de la imaginación humana, y como intermediarios que son, cambian nuestra manera de relacionarnos con el mundo. La Arquitectura, al igual que otros objetos técnicos, media entre el hombre y el mundo. Con el objetivo de reducir el ámbito tan vasto de la investigación, éste se ha filtrado a partir de varios parámetros y cualidades de la Industria, estableciendo un marco temporal, vinculado con un determinado modo de hacer, basado en la ciencia. El inicio del desarrollo industrial basado en el conocimiento científico se da desde la Segunda Revolución Industrial, por consenso en el último tercio del siglo XIX. Este marco centra el foco de la tesis en el proceso de industrialización experimentado por la Arquitectura desde entonces, y durante aproximadamente un siglo, recorriendo la Modernidad durante los 75 primeros años del siglo XX. Durante este tiempo, los arquitectos han realizado transferencias de imágenes, técnicas, procesos y materiales desde la Industria, que ha servido como fuente de conocimiento para la Arquitectura, y ha evolucionado como disciplina. Para poder abordar más razonablemente un periodo tan amplio, se ha elegido el sector industrial del transporte, que históricamente ha sido, no sólo fuente de inspiración para los Arquitectos, sino también fuente de transferencia tecnológica para la Arquitectura. Conjuntos técnicos como los astilleros, fábricas de automóviles o hangares de aviones, individuos técnicos como barcos, coches o aviones, y elementos técnicos como las estructuras que les dan forma y soporte, son todos ellos objetos técnicos que comparten propiedades con las arquitecturas que aquí se presentan. La puesta en marcha de la cadena móvil de montaje en 1913, se toma instrumentalmente como primer foco temporal desde el que relatar la evolución de numerosos objetos técnicos en la Primera Era de la Máquina; un segundo foco se sitúa en 19582, año de la creación de la Agencia Espacial norteamericana (NASA), que sirve de referencia para situar la Segunda Era de la Máquina. La mayoría de los objetos técnicos arquitectónicos utilizados para probar la hipótesis planteada, gravitan en torno a estas fechas, con un rango de más menos 25 años, con una clara intención de sincronizar el tiempo de la acción y el tiempo del pensamiento. Arquitectura y objeto técnico Los objetos técnicos han estado siempre relacionados con la Arquitectura. En el pasado, el mismo técnico que proyectaba y supervisaba una estructura, se ocupaba de inventar los ingenios y máquinas para llevarlas a cabo. Los maestros de obra, eran verdaderos ‘agentes de transferencia tecnológica’ de la Industria y su conocimiento relacionaba técnicas de fabricación de diferentes objetos técnicos. Brunelleschi inventó varia grúas para construir la cúpula de Santa Maria dei Fiori (ca.1461), seguramente inspirado por la reedición del tratado de Vitruvio, De Architectura (15 A.C.), cuyo último capítulo estaba dedicado a las máquinas de la arquitectura clásica romana, y citaba a inventores como Archimedes. El arquitecto florentino fue el primero en patentar un invento en 1421: una embarcación anfibia que serviría para transportar mármol de Carrara por el río Arno, para su obra en Florencia. J. Paxton. Crystal Palace. London 1851. Viga-columna. Robert McCormick. Cosechadora 1831. 2ª patente, 1845. La Segunda Revolución Industrial nos dejó un primitivo ejemplo moderno de la relación entre la Arquitectura y el objeto técnico. El mayor edificio industrializado hasta la fecha, el Crystal Palace de Londres, obra de Joseph Paxton, fue montado en Londres con motivo de la Gran Exposición sobre la Industria Mundial de 1851, y siempre estará asociado a la cosechadora McCormick, merecedora del Gran Premio del Jurado. De ambos objetos técnicos, podrían destacarse características similares, como su origen industrial, y ser el complejo resultado de un ensamblaje simple de elementos técnicos. Desde la entonces, el desarrollo tecnológico ha experimentado una aceleración continuada, dando lugar a una creciente especialización y separación del conocimiento sobre las técnicas antes naturalmente unidas. Este proceso se ha dado a expensas del conocimiento integrador y en detrimento de la promiscuidad entre la Industria y la Arquitectura. Este es, sin lugar a dudas, un signo consustancial a nuestro tiempo, que provoca un natural interés de los arquitectos y otros tecnólogos, por las transferencias, trans e inter-disciplinareidades que tratan de re-establecer los canales de relación entre los diferentes campos del conocimiento. La emergencia de objetos técnicos como los vehículos modernos a principios del siglo XX (el automóvil, el trasatlántico, el dirigible o el aeroplano) está relacionada directamente con la Arquitectura de la Primera Era de la Máquina. La fascinación de los arquitectos modernos por aquellas nuevas estructuras habitables, se ha mantenido durante más de un siglo, con diferente intensidad y prestando atención a unos objetos técnicos u otros, oscilando entre el dominio del valor simbólico de los vehículos como objetosimágenes, durante el periodo heroico de la Primera Era de la Máquina, y la mirada más inquisitiva durante la Segunda, que perseguía un conocimiento más profundo de la organización de los mismos y del sistema técnico en el que estaban incluidos. La relación homóloga que existe entre arquitecturas y vehículos, por su condición de estructuras habitables, es algo de sobra conocido desde que Le Corbusier utilizara aquellas imágenes de barcos, coches y aviones para ilustrar su manifiesto Vers une architecture, de 1923. Los vehículos modernos han sido los medios con los que transmitir los conceptos que ansiaban transformar las propiedades tradicionales de la Arquitectura, relativas a su factura, su habitabilidad, su duración, su funcionalidad o su estética. Destaca particularmente el caso del automóvil en las décadas de los años 30 y 50, y los vehículos del programa espacial en las décadas de los 60 y 70. El conocimiento y la documentación previa de estos hechos, fueron un buen indicio para identificar y confirmar que el sector industrial del transporte, era un especialmente trascendente y fértil proveedor de casos de transferencia tecnológica para la Arquitectura. La tradición Moderna inaugurada por Le Corbusier en los años 20, ha sido mantenida y defendida por una multitud de arquitectos modernos como Albert Frey, Richard Neutra, Ralph Soriano, Charles Eames o Craig Ellwood, cuyo trabajo, animado por el legado de anteriores tecnólogos como Bucky Fuller o Jean Prouvé, fue fundamental y referencia obligada para la siguiente generación de arquitectos como Cedric Price, Archigram, Norman Foster, Richard Rogers, Renzo Piano, Jean Kaplicky o Richard Horden, entre otros. Todos ellos han contribuido a engrosar el imaginario del objeto técnico, aportando sus obras arquitectónicas. Estos arquitectos que aparecen repetidamente en el discurrir de la tesis, pertenecen a un mismo linaje, y son agrupados según una estructura ‘genealógica’, que se ha denominado ‘Estirpe Técnica’. Unidos por intereses comunes y similares enfoques o actitudes ante el proyecto de arquitectura, entendida como objeto Técnico, han operado mediante la práctica de la transferencia tecnológica, sin limitarse a las técnicas compositivas propias de la disciplina arquitectónica. Durante la investigación, se ha recopilado una selección de menciones explícitas -hechas por arquitectos- sobre otros objetos técnicos para referirse a la Arquitectura, mostrando las constantes y las variaciones de sus intereses a lo largo del siglo, lo que nos ha llevado a conclusiones como por ejemplo, que los conjuntos técnicos (fábricas de zepelines, aviones, automóviles o trasatlánticos) eran tomados por los arquitectos de la primera Modernidad, como un modelo imaginario, formal y compositivo, mientras que los de la Segunda Era de la Máquina los tomaban como modelo espacial y organizativo para la arquitectura. La mencionada estirpe de tecnólogos incluye líneas de descendencia conocidas, como: EiffelSuchovBehrens GropiusMiesLeCorbusierLodsProuve, en la Europa continental, o una rama británica como: LoudonPaxtonWilliamsStirlingGowan SmithsonsPriceArchigramFosterRogersPiano KaplickyHorden. También podemos encontrar conexiones intercontinentales como Fuller EamesRudolphFosterRogers, o ramificaciones menos previsibles como: LeRicolaisKahn PianoKaplicky, o LeCorbusierFreyLacaton Vassal… Seguramente muchos más merecerían incluirse en esta lista, y de hecho, la tesis asume la imposibilidad de incluirlo todo (por motivos prácticos) aunque contempla la posibilidad de ser ampliada en un futuro. Con lo aquí incluido, se pretende mostrar la continuidad en los enfoques, planteamientos y técnicas de proyectos aplicadas, de los que podemos deducir algunas conclusiones, como por ejemplo, que en los periodos inmediatamente posteriores a las dos Guerras Mundiales, aumentó la intensidad de aportaciones de nuevas imágenes de vehículos, al imaginario del objeto técnico utilizado por los arquitectos, a través de publicaciones y exposiciones. Hoy, cien años después de que Ford pusiera en marcha la cadena móvil de montaje, aún encontramos viva esta tradición en las palabras de un arquitecto, Richard Horden, cuyo trabajo porta consigo –como la información embebida en los elementos técnicos- toda una cultura técnica de una tradición moderna. Horden representa uno de los exponentes de la que he denominado estirpe de tecnólogos. Es por ello que he querido concluir la tesis con una entrevista, realizada en Mayo de 2015, en su estudio de Berkeley Square en Londres (ver Apéndices). Guías Para el desarrollo de la presente tesis, se ha tomado, como principal obra de referencia, otra tesis, titulada El modo de existencia de los objetos técnicos, leída y publicada en 1958 por el filósofo francés Gilbert Simondon [1924-89], dedicada a la ontología del objeto técnico. Esta obra enmarca el enfoque intelectual de la tesis, que entronca con la fenomenología, para movilizar una visión particular de la Arquitectura, a la que sirve como modelo de análisis ontológico para estudiar sus procesos de génesis, invención e individuación. Para el desarrollo de éstos, se ha utilizado como complemento bibliográfico, otra obra del mismo autor, titulada Imaginación e invención 1965-66. En cuanto a las fuentes historiográficas disciplinares, se ha elegido utilizar a Reyner P. Banham [1922-1988] y a Martin E. Pawley [1938-2008] como guías a través de la arquitectura del siglo XX. Sus crónicas sobre la Primera y Segunda Era de la Máquina3 y su obra crítica, han servido como índices desde los que reconstruir el imaginario del objeto técnico moderno, y del que aprovisionarse de proyectos y obras de Arquitectura como casos de estudio para la tesis. Estas obras han servido además como índices de otra bibliografía, que ha sido complementaria a la de éstos. Objetivos de la Tesis El principal objetivo de la tesis es demostrar la hipótesis: si una obra de arquitectura puede ser considerada un objeto técnico y bajo qué condiciones, construyendo un criterio que permita reconocer cuándo una obra de Arquitectura responde a la definición de objeto técnico. Otro objetivo es demostrar la importancia y potencia de la Transferencia tecnológica en el proceso evolutivo de la Arquitectura, y para ello se presentan ejemplos de una metodología de proyecto por ensamblaje, que Martin Pawley denominaba ‘Design by Assembly’. También es un objetivo el de reconstruir un Atlas del Imaginario del objeto técnico moderno, con el fin de conocer mejor las causas, razones y finalidades que llevaron a los arquitectos modernos a perseguir una arquitectura como objeto técnico. Este Atlas permite relacionar panópticamente los distintos objetos técnicos entre sí, revelando la verdadera importancia y trascendencia de aquéllos y las arquitecturas con las que se relacionan. En él, las arquitecturas vuelven a situarse en el contexto más extenso y complejo de la industria y la historia de la tecnología, al que siempre pertenecieron. De este modo, éstas son capaces de desvelar todo el conocimiento -en forma de información- que portan en su propio código ‘genético’, desplegando capítulos completos de cultura tecnológica, tan antigua como la Humanidad y en constante y creciente evolución. Estructura de la tesis Tras una Introducción en la que se presentan algunos de los conceptos principales que se instrumentalizan en la tesis sobre la ontología Simondoniana del objeto técnico y sobre la transferencia tecnológica aplicada al proyecto de Arquitectura, el texto principal de la tesis consta de tres partes: La primera se dedica a la Imaginación, una segunda parte a la Invención y una tercera a Individuación o evolución del objeto técnico. Se termina con una Discusión de la tesis y un apartado de Conclusiones. En la Introducción al objeto técnico, éste se define ontológicamente y se distinguen sus diferentes categorías (conjuntos técnicos, individuos técnicos y elementos técnicos). Se explica el proceso de génesis del objeto técnico y sus fases de imaginación, invención e individuación. También se presentan los conceptos de transducción, tecnicidad y sistema técnico, fundamentales para entender el concepto de transferencia tecnológica que se desarrollará después. La concretización, explica el modo particular de individuación y evolución de los objetos técnicos, un proceso por el que las diferentes partes de un objeto técnico, se integran y tienden hacia la propia convergencia. Aquí se comprueba la efectividad del concepto simondoniano de Transducción, como señal o información transmitida y transformada, y se relaciona con la Transferencia Tecnológica - un proceso sinergético, por el que un sector industrial se beneficia del desarrollo de otro sector- a la que se han referido explícitamente arquitectos e historiadores para explicar sus obras, durante la Segunda Era de la Máquina, y que es determinante para el desarrollo de la Industria. La transferencia tecnológica sería la transmisión del conjunto de conocimientos sobre la técnica, que incluyen su esfera fáctica, pero también la esfera sensible de la experiencia. En su aplicación a la arquitectura, las transferencias se han clasificado según tres tipos: Eidéticas, Tectónicas, Orgánicas. En la primera parte dedicada a la Imaginación del objeto técnico arquitectónico se realiza una reconstrucción ‘arqueológica’ –y parcial- del imaginario del objeto técnico moderno, con la intención de conocer mejor su génesis y la relación con otros objetos técnicos. Las fuentes de ese imaginario se buscan en las instalaciones de la Industria de principios de siglo XX, en particular en las fábricas de vehículos, con la finalidad de comprobar hasta qué punto, esos objetos técnicos fueron importantes para imaginar la Arquitectura moderna. La reconstrucción se continúa hasta la Segunda Era de la Máquina, cuando una nueva mirada más inquisitiva y precisa, se dirige a otras fábricas, vehículos y componentes, interesándose por sus cualidades materiales y organizativas. Transferencias Eidéticas, que operan desde un conocimiento intuitivo y son útiles para transmitir información sobre la esencia de un objeto técnico que sirve de fuente. Conceptos abstractos se transmiten por medio de las imágenes—objeto, para producir una transformación en su equivalente arquitectónico. Fruto de la investigación, se han detectado un grupo de conceptos que han sido objeto de transferencias tecnológicas de naturaleza eidética, provenientes del imaginario del objeto técnico moderno: FABRICADO, HABITABLE, FUNCIONAL, EFICIENTE, OBSOLESCENTE y BELLO. En la segunda parte dedicada a la Invención del objeto técnico arquitectónico, las transferencias también pueden ser Tectónicas, cuando lo que se transmite es una técnica constructiva o estructural aplicada mediante MATERIALES artificiales (como los metales, los composites como el ferrocemento, y el plywood, o las aleaciones como el aluminio) o mediante el ensamblaje de ESTRUCTURAS o partes componentes de otro objeto técnico, (como cascos, fuselajes, carrocerías o aparejos) y tiene como resultado la invención de un nuevo objeto técnico arquitectónico. En la tercera parte dedicada a la individuación, se abordan las transferencias ORGÁNICAS, lo que se transfiere es una técnica organizativa, aplicada a través de PROCEDIMIENTOS que definen la actividad del arquitecto como tecnólogo e inventor de objetos técnicos. Estos procedimientos tienen un efecto transformador en tres instituciones tradicionales para la Arquitectura: la Escuela, el Estudio y la Obra, y sus resultados se resumen en nuevos modelos de organización de la Educación de la Arquitectura, con la aparición de los Talleres de proyectos; nuevos modelos de organización del ejercicio de arquitecto: la Oficina técnica; nuevos modelos de organización del espacio, basados en la organización espacial de la Industria, que da lugar a patrones o Matrices espaciales; un nuevo modelo de organización del proyecto, que utiliza las herramientas gráficas de la industria y el ensamblaje como metodología; y un nuevo modelo de producción arquitectónica, basado en la Industrialización. Tras explicar los conceptos y la génesis del ensamblaje y el montaje, se presenta el proyecto por ensamblaje (Design by assembly) como un método que promueve la invención arquitectónica. Se demuestra utilizando algunos casos analizados en la tesis, en los que se ha realizado alguna transferencia conceptual, constructiva u organizativa. Tras analizar las arquitecturas estudiadas en la tesis, se ha utilizado el método genético propuesto por Simondon para comprender cada evolución particular, reconstruyendo las líneas genealógicas hasta sus ancestros, e identificando una serie de linajes genéticos, que corresponderían con los conjuntos técnicos estudiados en la tesis: el astillero, la fábrica de coches, y la fábrica de aeronaves: los Ancestros de la Modernidad. Los sistemas de organización espacial de estos conjuntos técnicos, están directamente relacionados con el objeto técnico que se produce en él. A partir de ellos se definen una serie de matrices operativas (MILL, SHOP, SHED), que sirven para hacer una taxonomía del objeto técnico arquitectónico. Esto se ejemplifica con algunos proyectos de Norman Foster, Richard Rogers, Renzo Piano, Nicholas Grimshaw, Jean Kaplicky y Richard Horden. Tesis: Comprobación de la hipótesis Simondon definía ontológicamente el Objeto técnico como aquello de lo que existe génesis y que desarrolla una tendencia hacia la solidaridad y unidad. Para que una Arquitectura pueda ser reconocida como un Objeto técnico, se deben dar una serie de condiciones, en las sucesivas fases que intervienen en su modo de existencia: Imaginación. Estas arquitecturas remiten a un imaginario protagonizado por imágenes-objeto de otros objetos técnicos (conjuntos técnicos, individuos técnicos y elementos técnicos). Esas imágenes-objeto vehiculizan una transferencia eidética de los objetos técnicos que simbolizan. Invención. Estas arquitecturas son el resultado de transferencias tectónicas, que se producen durante el proceso de proyecto, mediante el ensamblaje de materiales, componentes o procedimientos, utilizados en la industria para la producción de otros objetos técnicos. Individuación. Estas arquitecturas evolucionan y se individualizan por concretización, un proceso por el que los objetos técnicos se organizan para seguir su tendencia hacia la integración de sus partes, con el fin de alcanzar la convergencia de funciones en una única estructura. Esta integración tiende hacia la naturalización del objeto técnico, mediante la inclusión simbiótica de sus medios naturales asociados. En este caso, veremos cómo se ha producido transferencias orgánicas, o lo que es lo mismo, cómo los objetos técnicos –en el nivel de los conjuntos técnicos- se han tomado como modelo de organización por la arquitectura. Tras comprobar que de ellas existe una génesis, que evoluciona por las fases de imaginación e invención y concretización, se analiza su imaginario, su materialidad, sus estructuras y su organización, con el fin de detectar patrones y principios organizativos comunes a otros objetos técnicos. Interés de la tesis Desde el comienzo del nuevo siglo, diversos autores han demostrado un renovado interés por definir qué es el proyecto, qué lo constituye para qué sirve. Las aproximaciones al tema provienen de la filosofía analítica (Galle, 2008) o de la filosofía de la tecnología (Verbeek, 2005; Vermaas, 2009) y a menudo versan sobre la relación entre diseño y la cultura material (Dorschel 2003, Boradkar 2010 o Preston 2012). Es importante indicar el reciente y también creciente interés suscitado por la obra del filósofo francés, Gilbert Simondon [1924-1989], reconocida por su importante contribución a la filosofía de la técnica y la fenomenología, y por la influencia en el pensamiento de filósofos como Gilles Deleuze, autor presente en multitud de tesis doctorales e investigaciones teóricas llevadas a cabo en las principales escuelas de Arquitectura de todo el mundo desde los años 90 hasta el presente. La reedición y traducción de la obra de Simondon (ing. 1980, esp. 2008) ha recibido la atención de filósofos actuales como Paolo Virno, Bruno Latour o Bernard Stiegler, que siguen recurriendo a su estudio y análisis para avanzar en su pensamiento, estando por tanto presente en el debate contemporáneo sobre la técnica. Tras su reciente traducción al español, el pensamiento de Simondon ha despertado un gran interés en América Latina, como demuestra la organización de varios congresos y simposios, así como la proliferación de publicaciones en torno a su obra y pensamiento. Las futuras traducciones del resto de sus principales obras, asegurarán una introducción cada vez mayor en la comunidad académica. Se ha procurado presentar una mirada alternativa de la Historia de la Arquitectura Moderna, utilizando como guía a un cronista como Reyner Banham. La Era de la Máquina se ha cruzado con la Mecanología y el “vitalismo técnico” de Simondon, obteniendo como resultado una interpretación fresca, renovada y optimista de algunas de las más importantes obras de Arquitectura del siglo XX, que seguro contribuirán al desarrollo de la del siglo XXI, inmerso ya en el cambio de paradigma hacia la sostenibilidad y la ecología. ABSTRACT 'TRANS architecture. Imagination, invention and technical individuation of the architectural technical object. Technology transfer from the Transport Industry to Architectural Design [1900- 1973]' is a thesis dealing with the relationship between Architecture and the Technical Object during Modernity5. The theme of the thesis revolves around the technical culture, material culture and the history of twentieth-century technology. Hypothesis Held here is the existence of some architectures defined as technical objects. A study has been developed to prove if those architectures share the ontological properties of a technical object. Industry and Architecture The history of Modern Architecture is also the history of modern industry and its facilities, its products and devices, its procedures and production processes. Factories, workshops, steel mills, shipyards, mines, refineries, laboratories, cars, yachts, airplanes, airships, shuttles, space stations, home appliances, personal computers, mobile phones, motors, batteries, turbines, rigs, hulls, chassis, bodies, fuselages , composites and synthetic materials, the assembly line, modular manufacturing, the supply chain, process engineering, the planned obsolescence ... All these technical objects are constantly evolving thanks to the inconsistency of the human imagination and, as our intermediates, keep changing our way of relating and being in the world. Architecture, alike other technical objects, mediates between man and the World. In order to frame the vast field of the research, it has been filtered according to various parameters and qualities of Industry, establishing also a time frame which is related to a particular science-based way of making. The start of an industrial development, based on scientific knowledge is given from the Second Industrial Revolution -by consensus on the last third of the nineteenth century. This frame puts the focus of the thesis in the process of industrialization experienced by the Architecture of at least one century, and tours through Modernity during the first 75 years of the twenieth century. During this time, architects have made transfers of images, techniques, processes and materials from Industry, serving as a source of knowledge and thus allowing Architecture to evolve as a discipline. To reasonably address the enormous scope of the thesis, the industrial sector of transportation has ben chosen. It is not only a historical source of inspiration for architects, but also a traditional source of technology transfer for Modern Architecture. Technical sets such as shipyards, automobile factories or aircraft hangars, technical individuals as boats, cars or planes, and technical elements like the structures shaping and supporting them, are all technical objects which share properties with the architectures here presented. The launch of the moving assembly line in 1913, is instrumentally taken as a first time focus, from which to describe the evolution of many technical objects in the First Machine Age; a second focus could be found in 19586, year of the creation of the North American Space Agency (NASA), serving as a reference to the Second Machine Age. Most architectural technical objects used to test the hypothesis, gravitate around this second focus, in a range of plus or minus 25 years, with a clear intention to synchronize the time for action and time of thought. Architecture and Technical Object Technical objects have always been related to Architecture. In the past, the same technician who planned and oversaw a building structure, invented the devices and machines to carry them out. The foremen were the true 'technology transfer agents' from Industry. Their knowledge naturally related different manufacturing techniques to make diverse technical objects. Brunelleschi invented various cranes to build the dome of Santa Maria dei Fiori in Florence (ca.1461). Probably inspired by the reedition of Vitruvius’ treaty De Architectura (15 BC), whose last chapter was dedicated to the machines of classical Roman architecture and quoted inventors as Archimedes, the florentine architect was the first to patent an invention in 1421: an amphibious craft serving as a means of transportation for Carrara marble along the Arno river. At the daw of the Second Industrial Revolution, whose development was based on the scientific knowledge, we find a primitive modern example of the relationship between Architecture and a Technical Object: The Crystal Palace, built in London for the Great Exhibition of 1851 World Industry and designed by Joseph Paxton, was the largest to date industrialized building, and it will be always associated with the McCormick Reaper, worthy of the Grand Jury’s Prize. Similar characteristics could be emphasized of both technical objects, such as their industrial origin and for being be the complex result of a simple assembly of technical elements. Since then, technological development has experienced a continued acceleration, resulting in an increasing specialization and separation of knowledge about techniques which were naturally attached in the past. This process has happened at the expense of an integrative knowledge and against promiscuity between Industry and Architecture. This is, undoubtedly, an inherent sign of our time, which causes the natural and interest of architects and other technicians about transfers, trans-disciplinarity and inter-disciplinarity, as a reaction to reestablish channels of relationships between these different fields of knowledge. The emergence of technical objects as modern vehicles in the early twentieth century (the car, the Ocean liner, the airship or the airplane) is directly related to the Architecture of the First Machine Age. Modern architects’ fascination for those new ‘inhabitable’ structures has been maintained for over a century, with different intensity and paying attention to one and other technical objets, ranging from the domain of the symbolic value of the vehicles as objectsimages, during heroic period of the First Machine Age, to the more inquisitive glance characterizing the Second Machine Age, which sought a deeper understanding of the organization of such objects and the technical system to which they belonged. The periods immediately following both World Wars, showed a concentrated effort to bring new images of vehicles to the imaginary of architects, by means of publications and exhibitions. The homologous relationship between architectures and vehicles, in their capacity as living structures, is something well known since Le Corbusier used the images of cars, boats and airplanes to illustrate his manifesto, Towards an architecture in 1923. Modern vehicles have been the means by which to convey the concepts eager to transform the traditional attributes of Architecture: those relating to its manufacture, habitability, duration, functionality or aesthetics. The automobile stands out during the 30s and 50s, and the new vehicles of the Space Program satnd in the 60s and 70s. The prior knowledge and documentation of these events were a good indication to identify the industrial sector of Transportation as one of especial importance and as a fertile provider of technology transfer cases for Architecture. The Modern tradition, inaugurated by Le Corbusier in the 20s, has been maintained and defended by a host of modern architects like Albert Frey, Richard Neutra, Ralph Soriano, Charles Eames and Craig Ellwood, whose work - inspired by the legacy of previous technologists as Bucky Fuller or Jean Prouvé- was fundamental and a mandatory reference for the next generation of architects like Cedric Price, Archigram, Norman Foster, Richard Rogers, Renzo Piano, Jean and Richard Horden Kaplicky, among others. They have all contributed to increase the imaginary of the technical object, adding to it their architectural works. In the passage of the thesis, we repeatedly find a number of architects, who have been grouped according to a 'genealogical' structure, which has been called 'Technical Lineage'. Gathered by common interests and similar views or attitudes to the architectural design, understood as a technical object, they have operated through the practice of technology transfer, without limiting itself to specific compositional techniques of the architectural discipline. During the investigation, a selection of explicit references made by those architects, about other technical objects referring to their Architecture, has been compiled, showing constants and variations in their interests throughout the century, which has led to conclusions such as, having technicians sets (zeppelins factories, airships factories, car factories and shipyards) been taken by the architects of the first Modernity, as their main formal, compositional and imaginary models, while the Second Machine Age had taken them as a spatial and organizational model for their architecture. The above mentioned lineage of technologists includes weel-known ‘seed lines’ as: Eiffel- Suchov-Behrens, Gropius-Mies-LeCorbusier- Lods-Prouve, in continental Europe; British branches as Loudon-Paxton-Williams-Stirling- Gowan-Smithsons-Price-Archigram-Foster- Rogers-Piano-Kaplicky-Horden. And we could also find intercontinental connections as Fuller- Eames-Rudolph-Foster-Rogers, or other less predictable ramifications as LeRicolais-Kahn Piano-Kaplicky, or LeCorbusier-Frey-Lacaton & Vassal... Many more would surely deserve to be included in this list, and indeed, the thesis assumes the impossibility of including them all (for practical reasons) and even contemplates possible future extensions. The material included herein is to demonstrate the continuity in the approaches, statements and in the applied architectural design techniques, from which we can draw some conclusions. Today, one hundred years after Ford put up the moving assembly line, we still find this tradition alive in the words of the architect Richard Horden, whose work carries with it –as with the information embedded in every technical element- the whole techncial culture of a modern tradition. Horden is represented here as one of the exponents of what I have called the lineage of technologists. That is why I wanted to conclude the thesis with an interview to Richard Horden, held in May 2015 in his studio in London's Berkeley Square (see Appendices). Guides For the development of this thesis, another thesis, entitled: The mode of existence of technical objects, is taken as the main reference work. Read and published in 1958 by the French philosopher Gilbert Simondon [1924- 1989], it was dedicated to the ontology of the technical object. This work frames the intellectual approach of the thesis, which connects with phenomenology to mobilize a particular vision of Architecture. It is used as a model of ontological analysis to study its genesis, invention and evolutionary processes. To develop these, another work by the same author, titled Imagination and Invention (1965- 1966) has been used as a bibliographical complement. As for the disciplinary historical sources, Reyner P. Banham [1922-1988] and Martin E. Pawley [1938-2008] have been chosen as guides through the modern Architecture of the twentieth century. Their cronical reports on the First and Second Machine Age and their critical works have served as an index from which to reconstruct the imaginary of the modern technical object in the Machine Age7, and to stock up on projects and works of architecture, used as case studies for the thesis. These works have also been used as triggers for other literatures, which has been complementary to the former. Objectives of the Thesis The main objective of the thesis is to prove its hypothesis: if a work of architecture can be considered a technical object and under what conditions, building then a criterion for recognizing when a work of architecture meets the definition of a technical object. Another aim is to demonstrate the importance and power of Technology Transfer in the evolutionary process of Architecture, and to do it, some examples of a methodology for architectural design that Martin Pawley called 'Design by Assembly' are presented. It is also an objective to reconstruct an Atlas of the imaginary of the modern technical object, in order to better understand the causes, reasons and purposes that led modern architects to pursue architecture as a technical object. This Atlas allows to panoptically relate the various technical objects, revealing the true importance and significance of those and the architecture with whom they interact. Architectures are again at the largest and most complex industrial context and the history of technology, which always belonged. Thus, they are able to reveal all the knowledge-in the shape of information-carried in their own 'genetic' code, displaying full chapters of technological culture as old as mankind and constantly growing and evolving. Thesis: Proving the Hypothesis Simondon ontologically defined the technical object as ‘that of which genesis exists’ and that develops ‘a tendency towards solidarity and unity’. For an architecture to be recognized as a technical object, a number of conditions should be given, in the successive phases involved in their mode of existence: Imagination. These architectures refer to an imaginary featuring images-object other technical objects (technical sets, technical individuals and technical elements). These images are the means to an eidetic transfer of the technical objects which they symbolize. Invention. These architectures are the result of tectonic transfers, which occur during the architectural design process, by assembling materials, components or procedures used in industry for the production of other technical objects. Individuation. These architectures evolve and are individualized by ‘concretization’, a process leading to the full integration of its parts and aiming the full convergence of its functions into a single structure. This integration tends towards the naturalization of the technical object, by means of a symbiotic incorporation of their associated milieus. After checking if there is a genesis of them, which evolves through the phases of imagination and invention and concretization, their imaginary, materiality, structure and organization are analyzed in order to detect patterns and common organizational principles to other technical objects counterparts. Structure The main text of the thesis consists of three parts. Before there is an Introduction to the main concepts that are exploited in the thesis on ontology Simondonian technical object, and technology transfer applied to Architecture. Then a first part covers the Imaginary of the modern technical object, a second part is dedicated to the Invention and a third part to the individuation process The thesis ends with a section for the Discussion and the Conclusions. The Introduction to the technical object, this is ontologically defined and its different categories are distinguished. The process of genesis of the technical object and the phases of imagination, invention and indivuation are explained. Concepts as Transduction, Technicality and Technical system are presented for being fundamental to understand the concept of Technology Transfer that will take place later. The concretization is explained as the particular mode of individuation and evolution of technical objects, a process by which the different parts of a technical object, are integrated and begin a tendency towards a convergence in itself. The first part, dedicated to the Imagination of the architectural technical object presents a parcial "archaeological" reconstruction the imaginary of the modern technical object, intended to better understand its genesis and the relationship with other technical objects. The imaginary sources are searched in the premises of the Industry of the early twentieth century, and particularly in the factories of modern vehicles, in order to see, to what extent these technical objects were important to imagine modern architecture. The reconstruction is continued until the Second Machine Age, when a new, more inquisitive and precise gaze turns to other factories, other vehicles and other components and materials, inquiring now about their organizational qualities. The second part is devoted to the Invention of the architectural technical object. The effectiveness of the simondonian concept of Transduction is checked: a transmitted and transformed sign or information, which relates to Technology Transfer, a synergetic process by which an industrial sector benefits from the development of another sector, to which some architects and historians have explicitly referred to explain their works during Machine Age, and which is crucial for the development of the industry. Technology transfer would be the transmission of a set of information or knowledge about technique, including the factual sphere of technique, but also the sensitive sphere of experience. In their application to Architecture, these transfers have been classified according to three types: Eidetic, Tectonic and Organic. Eidetic Transfers operate from an intuitive knowledge and are useful for transmitting information about the essence of the technical object serving as a source. Abstract concepts are transmitted through the object-images to produce an equivalent transformation in Architecture. A group of concepts that have been the subject of technology transfers of eidetic nature, and have been originated in the imaginary of the modern technical object, have been detected as a result of the research: FABRICATED, INHABITABLE, FUNCTIONAL, EFFICIENT, OBSOLESCENT, and BEAUTIFUL. The transfers can also be Tectonic when, that which is transferred is a constructive or structural technique, applied through artificial MATERIALS such as metals, composites as the ferrocement, or plywood, or alloys such as aluminum; or by means of the assembly of STRUCTURES or parts of other technical objects such as hulls, fuselages, car bodies or rigs, resulting in the invention of a new architectural technical object. In the case of ORGANIC transfers, what is transferred is an organizational technique, applied by means of a set of PROCEDURES defining the activity of the architect as a technologist and inventor of technical objects. These procedures have a transformative effect on three traditional institutions for Architecture: the School, the Atelier and the Work, and the results are summarized in new models of organization of the Education of Architecture, with the onset of the Architectural Design Studios or workshops; new models of organization of the practice of architect: the technical office; and new models of space organization, based on the spatial organization of the industry, resulting in spatial patterns or spatial matrices; a new model of organization of the project, which uses graphical tools and industrail protocols as the assembly as a methodology; a new model of architectural production based on the industrialization. After explaining the concepts and the genesis of assembly and montage, Design by assembly is presented as a method that promotes architectural invention, and is shown using some case studies analyzed in the thesis, in which there has been made some conceptual, constructive or organizational transfer. After analyzing the architectures studied in the thesis, genetic method proposed by Simondon was used to understand every particular evolution, reconstructing their genealogical lines up to their ancestors, identifying a series of genetic lineages, which correspond to the technical sets studied in the thesis : the shipyard, the car factory, and aircraft factory. The real ancestors of Modernity. The spatial organization systems of these technical sets are directly related to the technical object that is fabricated within them. From that point, a number of operational matrices are defined (MILL, SHOP, SHED) and used to make a taxonomy of the architectural technical object. This is exemplified by some projects by architects as Norman Foster, Richard Rogers, Renzo Piano, Nicholas Grimshaw, Jean and Richard Horden Kaplicky. Interest of the thesis Since the beginning of the new century, several authors have shown a renewed interest in defining what a project is, how it is constituted and what it is for. The approaches to the subject are brought from analytic philosophy (Galle, 2008) or from the philosophy of technology (Verbeek, 2005; Vermaas, 2009) and they often speak about the relationship between design and material culture (Dorschel 2003, 2010 or Preston Boradkar 2012). It is also important to note the recent and growing interest in the work of French philosopher Gilbert Simondon [1924-1989], mainly known for its important contribution to the philosophy of technology and phenomenology of the technical object, and the influence on the thinking of contemporary philosophers as Paolo Virno, Bruno Latour or Gilles Deleuze, being the latter a author present in many doctoral theses and theoretical research conducted at major architecture schools around the world since the 90s to the present. The republication and translation of the work of Simondon (eng. 1980, spn. 2008) has received the attention from current philosophers such as Bernard Stiegler who continues to use its study and analysis to advance his thinking, thus being present in the contemporary debate about the technique. After its recent translation into Spanish, the thought of Simondon has aroused great interest in Latin America, as evidenced by the organization of various conferences and symposia, as well as the proliferation of publications about his work and thought8. Future translations of the rest of his major works, will ensure increased introduction in the academic community. Efforts have been made to present an alternative view of the History of Modern Architecture, using a reporter as Reyner P.Banham as a guide. The Machine Age intersects Simondon’s mechanology and his "technical vitalism", resulting in a fresh, renewed and optimistic interpretation of some of the most important works of Architecture of the twentieth century, which will surely contribute to the development of this century’s Architecture, already immersed in the paradigm shift towards sustainability and ecology.
Resumo:
En esta tesis se estudia cómo lograr el equilibrio entre dos fenómenos naturales que afectan a los huecos de fachadas: la iluminación natural y la ganancia solar. Es decir, el cómo, conseguir la optimización de la iluminación natural que se introduce a través de las ventanas existentes, sin realizar una laboriosa intervención de sustitución de las mismas y el cómo, conseguir la protección de la radiación solar directa de la zona acristalada, para evitar tanto las ganancias térmicas innecesarias como el deslumbramiento que afecta a la calidad lumínica de los recintos. Para el desarrollo esta investigación se ha propuesto una metodología de estudio dividida en dos fases: La primera, de Análisis y Diagnóstico, en la que se han de definir los estándares a cumplir y las variables con las que se evaluarán las bandejas. Y, la segunda, de Evaluación y Comprobación en la que se han de establecer los criterios de valoración y ponderación de cada variable. En la primera fase, se definirán las variables físico-ambientales, para lo que se seleccionarán algunas ciudades a estudiar, a las cuales se les estudiará las necesidades de confort térmico, se determinarán las dimensiones que deben tener las protecciones solares en esas ciudades, además se determinarán las actuaciones a realizar en los huecos de fachada según sea su posición en el plano vertical de la misma. Así mismo, se plantea hacer un análisis de casos reales, para lo que se caracterizarán desde el punto de vista lumínico algunas viviendas, realizando medidas “in situ” y comparando resultados con los que se obtienen de los programas de simulación, para seleccionar las viviendas en las que la realidad y la simulación se aproximen más, una de estas viviendas servirá de modelo en las simulaciones que se realizará en la segunda fase. También, en esta primera fase, mediante un modelo neutro, se estudiará el comportamiento térmico y lumínico del tamaño del hueco en el que se insertará la bandeja posteriormente, para luego estudiar la posición de la bandeja en el plano vertical de la ventana, desde el punto de vista ergonómico. Y finalmente se estudiará, el comportamiento térmico y lumínico del modelo con la bandeja ubicada a 40, 50 y 60cm del techo. En la segunda fase, se establecerá la valoración y ponderación de las variables con las que seleccionar la bandeja que mejor equilibre los aspectos térmicos y lumínicos, teniendo en cuenta estrategias pasivas de acondicionamiento ambiental, como favorecer las ganancias solares en invierno en horas diurnas y evitar las pérdidas de calor en horas nocturnas; y en verano implementar sistemas de sombreamiento en la zona acristalada para evitar las ganancias de calor; y, tanto en verano como en invierno, aprovechar la iluminación natural, para favorecer la iluminancia útil y evitar el deslumbramiento. Una vez definidos los criterios de valoración y ponderación se aplicará a la evaluación térmica y lumínica del modelo neutro con la bandeja, consiguiendo seleccionar la bandeja con mejor comportamiento. Posteriormente se comprobará la metodología de estudio desarrollada en el modelo seleccionado, se evaluará el comportamiento térmico y lumínico, con la incorporación de algunas alternativas de bandeja. Con esta investigación se quiere demostrar que mediante la aplicación de esta metodología de estudio, es posible evaluar y seleccionar bandejas que respondan a las necesidades requeridas en distintos casos de estudio, por lo que se considera que, la bandeja puede ser un elemento arquitectónico aplicable tanto en rehabilitación como en nueva construcción, de espacios en los que sea necesario mejorar sus condiciones lumínicas y térmicas simultáneamente. ABSTRACT This thesis studies how to balance two natural events that affect the window opening of facades: daylighting and solar gain. That is to say, how to achieve optimization of natural light that gets in through the existing windows, without making a laborious intervention of replacing them and how to get protection from direct solar radiation from the glass area, to avoid unnecessary heat gain and glare affecting the light quality of the enclosures. To develop this research, it has been proposed a methodology of study divided into two phases: First phase, Analysis and Diagnostics, in which the variables with which the light shelf are evaluated will be defined along with the standards the light shelves will meet. The second phase, Assessment and Verification, in which the assessment criteria and weighting of each variable will be established. In the first phase, the physical and environmental variables shall be defined, various cities will be selected to be studied, and in each the needs of thermal comfort will be determined along with the dimensions of shading devices in the cities. In addition the actions to be taken in the window opening of the façade will be determined, depending on their position in the vertical plane. An analysis of real cases will be undertaken, which will be characterized from the luminous point of view, performing "in situ" measurements and comparing results with those obtained from simulation programs, to select places/dwellings where reality and simulation are closer, one of these places/dwellings will be a model, in the simulations to perform at the second phase. Also, in this first phase, by a neutral model, the thermal and light behavior of the size of the window opening will be studied, in which the light shelf is inserted later, the position of the light shelf in the vertical plane of the window is studied, from an ergonomic point of view. And finally to study the thermal and light behavior of the model with the light shelf located at 40, 50 and 60cm from the ceiling. In the second phase, the evaluation and weighting of the variables will be established selecting the light shelf that best balances the thermal and daylighting aspects, taking into account passive environmental conditioning strategies; such as getting solar gains in winter during daylight hours, and preventing heat loss during the night hours; and in summer implementing shading systems in the glazing area to avoid heat gains. And in both summer and winter, taking advantage of natural lighting, to improve useful illuminance and avoid glare. Once defined, the evaluation criteria and weighting will be applied to thermal and daylighting evaluation to the neutral model with the light shelf, the best performing light shelf will be selected. The study methodology developed in the selected model will be verified the thermal and daylighting performance with the addition of some light shelf alternative will also be studied. With this research, we want to show that by applying this study methodology it is possible to evaluate and select the light shelf that meets the needs required in different case studies, so it is considered that the light shelf may be an applicable architectural element in both refurbishment and new construction of spaces where necessary to improve their daylighting and thermal conditions simultaneously.
Resumo:
La tesis “CAN LIS, La huella de la arquitectura de Jørn Utzon a través de su obra Can Lis” analiza en profundidad la vivienda que Jørn Utzon realizó para sí mismo en la entonces calle de la Media Luna, Porto Petro, Mallorca, entre los años 1970-74. La investigación plantea el análisis de esta obra maestra de la arquitectura, sus causas e intenciones, su proceso proyectual, su proceso constructivo, sus relaciones e influencias y sus significados últimos. Este estudio es fruto de una labor de investigación que comenzó hace más de 10 años. Enfrentarse a una obra cuya imagen es tan conocida es una tarea menos sencilla de lo que pudiera parecer. La descripción del proceso de trabajo de Jørn Utzon en Can Lis, y de su método en general, contiene un considerable número de mitificaciones que han sido comúnmente sostenidas por diversos estudiosos de prestigio, que han abordado esta obra sin un estudio razonable de la documentación existente, ni una investigación de los archivos, ni una comprobación de los hechos o una consulta de los testigos intervinientes. Por ello, cuestiones fundamentales habían quedado en el terreno de la conjetura y permanecía deformada la visión general de los procesos de Jørn Utzon en Mallorca. La tesis se ha estructurado en dos grandes apartados que permitan la comprensión de los elementos fundamentales para su gestación: por un lado, el proceso proyectual y constructivo con sus circunstancias y condicionantes y, por otro, el conjunto de hechos y conceptos que han influido de manera directa y significativa en su concreción. Esta investigación contiene una cantidad considerable de materiales y hechos inéditos, fruto de su desarrollo, así como documentación y dibujos nunca publicados anteriormente. Es por tanto, el estudio más completo realizado sobre Can Lis hasta la fecha. En la primera parte de la tesis “CAN LIS” se aborda todo el proceso proyectual de Can Lis desde los primeros croquis, con las condiciones y motivaciones iniciales, los proyectos sucesivos, el proyecto básico y el proyecto de ejecución, hasta el proceso de construcción, su desarrollo y circunstancias, así como las modificaciones posteriores introducidas. Estos elementos se estructuran en tres apartados 1) Las condiciones y condicionantes iniciales. 2) El proceso proyectual. 3) El proceso constructivo. En la segunda parte de la tesis “La huella de la arquitectura de Jørn Utzon a través de su obra Can Lis” se han analizado de manera particular algunos hechos arquitectónicos y vitales previos que fueron especialmente determinantes en la concepción de Can Lis y la serie de influencias directas que son imprescindibles para la comprensión de las condiciones en que se desarrolló y de las ideas que alumbra. Estudios previos de toda la trayectoria de Utzon y todo el corpus de influencias ayudaron a determinar cuáles de ellos son fundamentales para la comprensión del proceso. Estos elementos se pueden considerar directamente precursores de ideas desarrolladas específicamente en Can Lis: 4) La experimentación en Australia: la naturaleza, la dimensión humana y la técnica. La casa de Bayview. 5) Utzon y el descubrimiento de lo islámico: la secuencia espacial, la materia y la luz de la arquitectura islámica como experiencia de aprendizaje. 6) Paisaje sacro, hombre y arquitectura: la búsqueda de Utzon en Grecia. Las conclusiones de este estudio determinan una serie de certezas sobre los procesos de Jørn Utzon en Can Lis, y en su obra global, durante las diversas fases creativas que desmitifican muchos acercamientos precedentes: la visión universal de la arquitectura en su acercamiento al proyecto, el entretejido método proyectual de Utzon, la precisa búsqueda del desarrollo constructivo junto a la ejemplaridad en el rigor, la vitalidad y la espiritualidad con que Utzon aborda la arquitectura, la trascendencia de la forma de habitar de las personas y el valor que para Utzon tiene la arquitectura como medio para revelar el orden universal que nos rodea. ABSTRACT “CAN LIS. The footprint of Jørn Utzon´s architecture through his work Can Lis” carries out a thorough analysis of the house Jørn built for himself between 1970 and 1974 on the street formerly called Calle de la Media Luna, in Porto Petro on the island of Mallorca. The research focuses on the causes that brought about this masterpiece, its purposes, design and building processes, its relations with and influences on other buildings and its ultimate meanings. This study is the result of a research that started over 10 years ago. Approaching a piece of work whose image is so well-known is harder than one might think. Many aspects of Jørn Utzon´s working method in Can Lis particularly but also generally have been described inaccurately and mythicized by several renowned scholars, who hadn´t really studied the existing documents or archives nor confirmed their hypotheses or consulted witnesses of the creation of Can Lis. This is why many key issues have been uncertain all this time and the general idea about Utzon´s working process in Mallorca has been distorted. This dissertation has been structured into two main sections with the aim of helping understand all the facts that led to the creation of the building: the first part describes the design and building processes, as well as the circumstances and constraints under which they were carried out. The second part presents the events and ideas that directly and indirectly influenced the final work. This thesis contains a large amount of unpublished material and information, documents and drawings from the creation process as the inevitable result of a long lasting tenacious research. It probably is the most comprehensive study on Can Lis so far. The first section, “CAN LIS”, addresses the design process of Can Lis from the very first sketches all the way through the subsequent plans, including basic and execution plans and the building process up to the changes that were later carried out on the building. The project´s initial conditions and Utzon´s first motivations and the evolution and circumstances of the building process are also described in this section, which has been divided into three parts: 1. The initial conditions and constraints. 2. The design process. 3. The building process. The second section, “The footprint of Jørn Utzon´s architecture through his work Can Lis”, focuses on some events in Utzon´s life and some of his architectural experiences prior to the creation of Can Lis that were decisive to it. Also the direct influences on the process which are key to understanding the conditions under which the creation was carried out as well as the ideas Can Lis sheds a light on are illustrated in this section. A thorough study of the whole process Utzon went through and of all the influences he was subjected to helped determine what is crucial to comprehending Can Lis. These events or experiences can be considered as the direct precursors to the ideas that crystallised in this master piece: 4. Experiments carried out in Australia: nature, human and technical dimensions. The Bayview house. 5. Utzon´s discovery of Islamic architecture: spatial sequences, matter and light as a learning experience. 6. Sacred landscape, man and architecture: Utzon´s quest in Greece. The findings of this research determine some aspects of Utzon´s working methods at every stage of the creation process both in Can Lis and in general, thus shedding light on previous mistaken ideas about Utzon´s way of working. A universal understanding of architecture, an intertwined design method, a tenacious search for the exact construction solutions, an exemplary rigour, vitality and spirituality in the design approach, the transcendence of our way of living and architecture´s potential to reveal the Universal order that surrounds are all aspects that do define Utzon as an architect.
Resumo:
Como punto de partida para el desarrollo de la Tesis, se mantiene la hipótesis de que es posible establecer métodos de evaluación global sobre el grado de utilidad de los sistemas constructivos correspondientes a los cerramientos de la edificación. Tales métodos habrían de posibilitar, de entre una serie finita de sistemas alternativos, cuáles de ellos son los objetivamente más adecuados para su selección en un entorno de decisión concreto, y habrían de permitir fundamentar la justificación objetiva de tal decisión. Paralelamente a esta hipótesis de carácter general, se planteó desde el inicio la necesidad de comprobación de una hipótesis de partida particular según la cual los sistemas constructivos basados en la utilización de componentes prefabricados, o procesos de puesta en obra con un alto grado de industrialización arrojarían valores de utilidad mayores que los sistemas tradicionales basados en la albañilería. Para la verificación de estas dos hipótesis de partida se ha procedido inicialmente a la selección de un conjunto coherente de doce sistemas de cerramientos de la edificación que pudiese servir como testigo de su diversidad potencial, para proceder a su valoración comparativa. El método de valoración propuesto ha entrado a considerar una serie de factores de diversa índole que no son reducibles a un único parámetro o magnitud que permitiese una valoración de tipo lineal sobre su idoneidad relativa, ni que permitiese establecer un grado de prelación entre los distintos sistemas constructivos alternativos de manera absoluta. Para resolver este tour de force o desafío metodológico se ha acudido a la aplicación de metodologías de valoración que nos permitiesen establecer de forma racional dicha comparativa. Nos referimos a una serie de metodologías provenientes en primera instancia de las ciencias exactas, que reciben la denominación de métodos de ayuda a la decisión multicriterio, y en concreto el denominado método ELECTRE. Inicialmente, se ha planteado la aplicación del método de análisis sobre doce sistemas constructivos seleccionados de tal forma que representasen de forma adecuada las tres categorías establecidas para caracterizar la totalidad de sistemas constructivos posibles; por peso, grado de prefabricación y grado de ventilación. Si bien la combinación de las tres categorías básicas anteriormente señaladas produce un total de 18 subcategorías conceptuales, tomamos finalmente doce subcategorías dado que consideramos que es un número operativo suficiente por extenso para el análisis propuesto y elimina tipos no relevantes. Aplicado el método propuesto, a estos doce sistemas constructivos “testigo”, se constata el mayor grado de utilidad de los sistemas prefabricados, pesados y no ventilados. Al hilo del análisis realizado en la Parte II de la Tesis sobre los doce sistemas constructivos “testigo”, se ha realizado un volcado de los sistemas constructivos incluidos en el Catalogo de Elementos Constructivos del CTE (versión 2010) sobre las dieciocho subcategorías definidas en dicha Parte II para caracterizar los sistemas constructivos “testigo”. Posteriormente, se ha procedido a una parametrización de la totalidad de sistemas constructivos para cerramientos de fachadas incluidos en este Catálogo. La parametrización sistemática realizada ha permitido establecer, mediante el cálculo del valor medio que adoptan los parámetros de los sistemas pertenecientes a una misma familia de las establecidas por el Catálogo, una caracterización comparativa del grado de utilidad de dichas familias, tanto en lo relativo a cada uno de los parámetros como en una valoración global de sus valores, de carácter indicativo. Una vez realizada una parametrización completa de la totalidad de sistemas constructivos incluidos en el Catálogo, se ha realizado una simulación de aplicación de la metodología de validación desarrollada en la Parte II de la presente Tesis, con el objeto de comprobar su adecuación al caso. En conclusión, el desarrollo de una herramienta de apoyo a la decisión multicriterio aplicada al Catálogo de Elementos constructivos del CTE se ha demostrado técnicamente viable y arroja resultados significativos. Se han diseñado dos sistemas constructivos mediante la aplicación de la herramienta desarrollada, uno de fachada no ventilada y otro de fachada ventilada. Comparados estos dos sistemas constructivos mejorados con otros sistemas constructivos analizados Se comprueba el alto grado de utilidad objetiva de los dos sistemas diseñados en relación con el resto. La realización de este ejercicio de diseño de un sistema constructivo específico, que responde a los requerimientos de un decisor concreto viene a demostrar, así pues, la utilidad del algoritmo propuesto en su aplicación a los procesos de diseño de los sistemas constructivos. La tesis incorpora dos innovaciones metodológicas y tres innovaciones instrumentales. ABSTRACT The starting point for the thesis is the hypothesis that it is possible to devise suitability degree evaluation methods of building enclosure systems. Such methods should allow optimizing appraisal, given a specific domain of decision, among a finite number of alternative systems, and provide objective justification of such decision. Along with the above mentioned general assumption, a second hypothesis whereby constructive systems based on the use of prefabricated components, or high industrialization degree work processes, would throw efficiency values higher than traditional masonry systems needed to be tested. In order to validate these two hypothesis a coherent set of twelve enclosure systems that could serve as a reference sample of their potential diversity was selected and a comparative evaluation was carried out. The valuation method proposed has considered several different factors that are neither reducible to a single parameter or magnitude that would allow a linear evaluation of their relative suitability nor allow to establishing an absolute priority ranking between different alternative constructive systems. In order to resolve this tour de force or methodological challenge, valuation methodologies that enable use establishing rational assessments were used. We are referring to a number of methodologies taken from the exact sciences field, usually known as aid methods for multi-criteria decision, in particular the so-called ELECTRE method. Even though the combination of the mentioned three basic categories result in eighteen conceptual sub categories, we are finally considering just twelve since we deem it adequately extended for the our intended purpose and eliminates non relevant instances. The method of analysis was initially applied to the set of twelve selected constructive systems is a way that they could represent adequately the three previously established categories set out to characterize all possible enclosure systems, namely weight, prefabrication degree and ventilation degree. Once the proposed method is applied to the sample systems, the higher efficiency of the prefabricated, heavy and not ventilated systems was confirmed. In line with the analysis in Part II of the thesis on the twelve chosen enclosure systems, it has done an uploading data of construction systems listed in the Catalogue of constructive elements of the CTE (version 2010) according the eighteen subcategories used in this part II to characterize the construction systems taken as sample. Subsequently, a parameterization of all enclosure facade systems included in this catalog has been undertaken. The systematic parameterization has allowed to set, by means of calculating the average values of the parameters of the systems belonging to the same family of those established by the Catalog, a comparative characterization of the efficiency degree of these families, both in relation to each parameter as to an overall evaluation of its values, in a indicative way. After the parameterization of all enclosure systems included in the Catalog, a simulation of validation methodology application developed in Part II of this Thesis has been made, in order to assess its consistency to the referred case. In conclusion, the development of a multi-criteria decision aid tool, applied to the CTE Catalog of constructive elements, has proved to be technically feasible and yields significant results. Two building systems through the application of the developed tool, a non-ventilated façade and a ventilated façade have been designed. Comparing these two improved construction systems with other building systems analyzed, we were able to assess the high degree of objective efficiency of the two systems designed in relation to the rest. The exercise of designing a specific enclosure system that meets the requirements of a particular decision-maker hence shows the suitability of the proposed algorithm applied to the process of enclosure systems design. This Thesis includes two methodological innovations and three instrumental innovations.
Resumo:
La presente tesis doctoral se enmarca dentro del concepto de la sistematización del conocimiento en arquitectura, más concretamente en el campo de las construcciones arquitectónicas y la toma de decisiones en la fase de proyecto de envolventes arquitectónicas multicapa. Por tanto, el objetivo principal es el establecimiento de las bases para una toma de decisiones informadas durante el proyecto de una envolvente multicapa con el fin de colaborar en su optimización. Del mismo modo que la historia de la arquitectura está relacionada con la historia de la innovación en construcción, la construcción está sujeta a cambios como respuesta a los fracasos anteriores. En base a esto, se identifica la toma de decisiones en la fase de proyecto como el estadio inicial para establecer un punto estratégico de reflexión y de control sobre los procesos constructivos. La presente investigación, conceptualmente, define los parámetros intervinientes en el proyecto de envolventes arquitectónicas multicapa a partir de una clasificación y sistematización de todos los componentes (elementos, unidades y sistemas constructivos) utilizados en las fachadas multicapa. Dicha sistematización se materializa en una hoja matriz de datos en la que, dentro de una organización a modo de árbol, se puede acceder a la consulta de cada componente y de su caracterización. Dicha matriz permite la incorporación futura de cualquier componente o sistema nuevo que aparezca en el mercado, relacionándolo con aquellos con los que comparta ubicación, tipo de material, etc. Con base en esa matriz de datos, se diseña la sistematización de la toma de decisiones en la fase de proyecto de una envolvente arquitectónica, en concreto, en el caso de una fachada. Operativamente, el resultado se presenta como una herramienta que permite al arquitecto o proyectista reflexionar y seleccionar el sistema constructivo más adecuado, al enfrentarse con las distintas decisiones o elecciones posibles. La herramienta se basa en las elecciones iniciales tomadas por el proyectista y se estructura, a continuación y sucesivamente, en distintas aproximaciones, criterios, subcriterios y posibilidades que responden a los distintos avances en la definición del sistema constructivo. Se proponen una serie de fichas operativas de comprobación que informan sobre el estadio de decisión y de definición de proyecto alcanzados en cada caso. Asimismo, el sistema permite la conexión con otros sistemas de revisión de proyectos para fomentar la reflexión sobre la normalización de los riesgos asociados tanto al proprio sistema como a su proceso constructivo y comportamiento futuros. La herramienta proporciona un sistema de ayuda para ser utilizado en el proceso de toma de decisiones en la fase de diseño de una fachada multicapa, minimizando la arbitrariedad y ofreciendo una cualificación previa a la cuantificación que supondrá la elaboración del detalle constructivo y de su medición en las sucesivas fases del proyecto. Al mismo tiempo, la sistematización de dicha toma de decisiones en la fase del proyecto puede constituirse como un sistema de comprobación en las diferentes fases del proceso de decisión proyectual y de definición de la envolvente de un edificio. ABSTRACT The central issue of this doctoral Thesis is founded on the framework of the concept of the systematization of knowledge in architecture, in particular, in respect of the field of building construction and the decision making in the design stage of multilayer building envelope projects. Therefore, the main objective is to establish the bases for knowledgeable decision making during a multilayer building envelope design process, in order to collaborate with its optimization. Just as the history of architecture is connected to the history of innovation in construction, construction itself is subject to changes as a response to previous failures. On this basis, the decisions made during the project design phase are identified as the initial state to establish an strategic point for reflection and control, referred to the constructive processes. Conceptually, this research defines the parameters involving the multilayer building envelope projects, on the basis of a classification and systematization for all the components (elements, constructive units and constructive systems) used in multilayer façades. The mentioned systematization is materialized into a data matrix sheet in which, following a tree‐like organization, the access to every single component and its characterization is possible. The above data matrix allows the future inclusion of any new component or system that may appear in the construction market. That new component or system can be put into a relationship with another, which it shares location, type of material,… with. Based on the data matrix, the systematization of the decision making process for a building envelope design stage is designed, more particularly in the case of a façade. Putting this into practice, it is represented as a tool which allows the architect or the designer, to reflect and to select the appropriate building system when facing the different elections or the different options. The tool is based on the initial elections taken by the designer. Then and successively, it is shaped on the form of different operative steps, criteria, sub‐criteria and possibilities which respond to a different progress in the definition of the building construction system. In order to inform about the stage of the decision and the definition reached by the project in every particular case, a range of operative sheets are proposed. Additionally, the system allows the connection with other reviewing methods for building projects. The aim of this last possibility is to encourage the reflection on standardization of the associated risks to the building system itself and its future performance. The tool provides a helping system to be used during the decision making process for a multilayer façade design. It minimizes the arbitrariness and offers a qualification previous to the quantification that will be done with the development of the construction details and their bill of quantities, that in subsequent project stages will be executed. At the same time, the systematization of the mentioned decision making during the design phase, can be found as a checking system in the different stages of the decision making design process and in the different stages of the building envelope definition.