835 resultados para Teoría del valor
Resumo:
En 1966, D. B. Leeson publicó el artículo titulado “A simple model of feedback oscillator noise spectrum” en el que, mediante una ecuación obtenida de forma heurística y basada en parámetros conocidos de los osciladores, proponía un modelo para estimar el espectro de potencia que cuantifica el Ruido de Fase de estos osciladores. Este Ruido de Fase pone de manifiesto las fluctuaciones aleatorias que se producen en la fase de la señal de salida de cualquier oscilador de frecuencia f_0. Desde entonces, los adelantos tecnológicos han permitido grandes progresos en cuanto a la medida del Ruido de Fase, llegando a encontrar una estrecha “zona plana”, alrededor de f_0, conocida con el nombre de Ensanchamiento de Línea (EL) que Leeson no llegó a observar y que su modelo empírico no recogía. Paralelamente han ido surgiendo teorías que han tratado de explicar el Ruido de Fase con mayor o menor éxito. En esta Tesis se propone una nueva teoría para explicar el espectro de potencia del Ruido de Fase de un oscilador realimentado y basado en resonador L-C (Inductancia-Capacidad). Al igual que otras teorías, la nuestra también relaciona el Ruido de Fase del oscilador con el ruido térmico del circuito que lo implementa pero, a diferencia de aquellas, nuestra teoría se basa en un Modelo Complejo de ruido eléctrico que considera tanto las Fluctuaciones de energía eléctrica asociadas a la susceptancia capacitiva del resonador como las Disipaciones de energía eléctrica asociadas a su inevitable conductancia G=1⁄R, que dan cuenta del contacto térmico entre el resonador y el entorno térmico que le rodea. En concreto, la nueva teoría que proponemos explica tanto la parte del espectro del Ruido de Fase centrada alrededor de la frecuencia portadora f_0 que hemos llamado EL y su posterior caída proporcional a 〖∆f〗^(-2) al alejarnos de f_0, como la zona plana o pedestal que aparece en el espectro de Ruido de Fase lejos de esa f_0. Además, al saber cuantificar el EL y su origen, podemos explicar con facilidad la aparición de zonas del espectro de Ruido de Fase con caída 〖∆f〗^(-3) cercanas a la portadora y que provienen del denominado “exceso de ruido 1⁄f” de dispositivos de Estado Sólido y del ruido “flicker” de espectro 1⁄f^β (0,8≤β≤1,2) que aparece en dispositivos de vacío como las válvulas termoiónicas. Habiendo mostrado que una parte del Ruido de Fase de osciladores L-C realimentados que hemos denominado Ruido de Fase Térmico, se debe al ruido eléctrico de origen térmico de la electrónica que forma ese oscilador, proponemos en esta Tesis una nueva fuente de Ruido de Fase que hemos llamado Ruido de Fase Técnico, que se añadirá al Térmico y que aparecerá cuando el desfase del lazo a la frecuencia de resonancia f_0 del resonador no sea 0° o múltiplo entero de 360° (Condición Barkhausen de Fase, CBF). En estos casos, la modulación aleatoria de ganancia de lazo que realiza el Control Automático de Amplitud en su lucha contra ruidos que traten de variar la amplitud de la señal oscilante del lazo, producirá a su vez una modulación aleatoria de la frecuencia de tal señal que se observará como más Ruido de Fase añadido al Térmico. Para dar una prueba empírica sobre la existencia de esta nueva fuente de Ruido de Fase, se diseñó y construyó un oscilador en torno a un resonador mecánico “grande” para tener un Ruido de Fase Térmico despreciable a efectos prácticos. En este oscilador se midió su Ruido de Fase Técnico tanto en función del valor del desfase añadido al lazo de realimentación para apartarlo de su CBF, como en función de la perturbación de amplitud inyectada para mostrar sin ambigüedad la aparición de este Ruido de Fase Técnico cuando el lazo tiene este fallo técnico: que no cumple la Condición Barkhausen de Fase a la frecuencia de resonancia f_0 del resonador, por lo que oscila a otra frecuencia. ABSTRACT In 1966, D. B. Leeson published the article titled “A simple model of feedback oscillator noise spectrum” in which, by means of an equation obtained heuristically and based on known parameters of the oscillators, a model was proposed to estimate the power spectrum that quantifies the Phase Noise of these oscillators. This Phase Noise reveals the random fluctuations that are produced in the phase of the output signal from any oscillator of frequencyf_0. Since then, technological advances have allowed significant progress regarding the measurement of Phase Noise. This way, the narrow flat region that has been found around f_(0 ), is known as Line Widening (LW). This region that Leeson could not detect at that time does not appear in his empirical model. After Leeson’s work, different theories have appeared trying to explain the Phase Noise of oscillators. This Thesis proposes a new theory that explains the Phase Noise power spectrum of a feedback oscillator around a resonator L-C (Inductance-Capacity). Like other theories, ours also relates the oscillator Phase Noise to the thermal noise of the feedback circuitry, but departing from them, our theory uses a new, Complex Model for electrical noise that considers both Fluctuations of electrical energy associated with the capacitive susceptance of the resonator and Dissipations of electrical energy associated with its unavoidable conductance G=1/R, which accounts for the thermal contact between the resonator and its surrounding environment (thermal bath). More specifically, the new theory we propose explains both the Phase Noise region of the spectrum centered at the carrier frequency f_0 that we have called LW and shows a region falling as 〖∆f〗^(-2) as we depart from f_0, and the flat zone or pedestal that appears in the Phase Noise spectrum far from f_0. Being able to quantify the LW and its origin, we can easily explain the appearance of Phase Noise spectrum zones with 〖∆f〗^(-3) slope near the carrier that come from the so called “1/f excess noise” in Solid-State devices and “flicker noise” with 1⁄f^β (0,8≤β≤1,2) spectrum that appears in vacuum devices such as thermoionic valves. Having shown that the part of the Phase Noise of L-C oscillators that we have called Thermal Phase Noise is due to the electrical noise of the electronics used in the oscillator, this Thesis can propose a new source of Phase Noise that we have called Technical Phase Noise, which will appear when the loop phase shift to the resonance frequency f_0 is not 0° or an integer multiple of 360° (Barkhausen Phase Condition, BPC). This Phase Noise that will add to the Thermal one, comes from the random modulation of the loop gain carried out by the Amplitude Automatic Control fighting against noises trying to change the amplitude of the oscillating signal in the loop. In this case, the BPC failure gives rise to a random modulation of the frequency of the output signal that will be observed as more Phase Noise added to the Thermal one. To give an empirical proof on the existence of this new source of Phase Noise, an oscillator was designed and constructed around a “big” mechanical resonator whose Thermal Phase Noise is negligible for practical effects. The Technical Phase Noise of this oscillator has been measured with regard to the phase lag added to the feedback loop to separate it from its BPC, and with regard to the amplitude disturbance injected to show without ambiguity the appearance of this Technical Phase Noise that appears when the loop has this technical failure: that it does not fulfill the Barkhausen Phase Condition at f_0, the resonance frequency of the resonator and therefore it is oscillating at a frequency other than f_0.
Resumo:
El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.
Resumo:
Uno de los principales retos de la sociedad actual es la evolución de sectores como el energético y el de la automoción a un modelo sostenible, responsable con el medio ambiente y con la salud de los ciudadanos. Una de las posibles alternativas, es la célula de combustible de hidrógeno, que transforma la energía química del combustible (hidrógeno) en corriente continua de forma limpia y eficiente. De entre todos los tipos de célula, gana especial relevancia la célula de membrana polimérica (PEM), que por sus características de peso, temperatura de trabajo y simplicidad; se presenta como una gran alternativa para el sector de la automoción entre otros. Por ello, el objetivo de este trabajo es ahondar en el conocimiento de la célula de combustible PEM. Se estudiarán los fundamentos teóricos que permitan comprender su funcionamiento, el papel de cada uno de los elementos de la célula y cómo varían sus características el funcionamiento general de la misma. También se estudiará la caracterización eléctrica, por su papel crucial en la evaluación del desempeño de la célula y para la comparación de modificaciones introducidas en ella. Además, se realizará una aplicación práctica en colaboración con los proyectos de fin de máster y doctorado de otros estudiantes del Politécnico de Milán, para implementar las técnicas aprendidas de caracterización eléctrica en una célula trabajando con diferentes tipos de láminas de difusión gaseosa (GDL y GDM) preparadas por estudiantes. Los resultados de la caracterización, permitirán analizar las virtudes de dos modificaciones en la composición clásica de la célula, con el fin de mejorar la gestión del agua que se produce en la zona catódica durante la reacción, disminuyendo los problemas de difusión a altas densidades de corriente y la consiguiente pérdida de potencial en la célula. Las dos modificaciones son: la inclusión de una lámina de difusión microporosa (MPL) a la lámina macroporosa habitual (GDL), y el uso de diversos polímeros con mejores propiedades hidrófobas en el tratamiento de dichas láminas de difusión. La célula de combustible es un sistema de conversión de energía electroquímico, en el que se trasforma de forma directa, energía química en energía eléctrica de corriente continua. En el catalizador de platino del ánodo se produce la descomposición de los átomos de hidrógeno. Los protones resultantes viajarán a través de la membrana de conducción protónica (que hace las veces de electrolito y supone el alma de la célula PEM) hasta el cátodo. Los electrones, en cambio, alcanzarán el cátodo a través de un circuito externo produciendo trabajo. Una vez ambas especies se encuentran en el cátodo, y junto con el oxígeno que sirve como oxidante, se completa la reacción, produciéndose agua. El estudio termodinámico de la reacción que se produce en la célula nos permite calcular el trabajo eléctrico teórico producido por el movimiento de cargas a través del circuito externo, y con él, una expresión del potencial teórico que presentará la célula, que variará con la temperatura y la presión; Para una temperatura de 25°C, este potencial teórico es de 1.23 V, sin embargo, el potencial de la célula en funcionamiento nunca presenta este valor. El alejamiento del comportamiento teórico se debe, principalmente, a tres tipos de pérdidas bien diferenciadas: Pérdidas de activación: El potencial teórico representa la tensión de equilibrio, para la que no se produce un intercambio neto de corriente. Por tanto, la diferencia de potencial entre el ánodo y el cátodo debe alejarse del valor teórico para obtener una corriente neta a través del circuito externo. Esta diferencia con el potencial teórico se denomina polarización de activación, y conlleva una pérdida de tensión en la célula. Así pues estas pérdidas tienen su origen en la cinética de la reacción electroquímica. Pérdidas óhmicas: Es una suma de las resistencias eléctricas en los elementos conductores, la resistencia en la membrana electrolítica a la conducción iónica y las resistencias de contacto. Pérdidas por concentración: Estas pérdidas se producen cuando los gases reactivos en el área activa son consumidos en un tiempo menor del necesario para ser repuestos. Este fenómeno es crítico a altas densidades de corriente, cuando los gases reactivos son consumidos con gran velocidad, por lo que el descenso de concentración de reactivos en los electrodos puede provocar una caída súbita de la tensión de la célula. La densidad de corriente para la cual se produce esta caída de potencial en unas condiciones determinadas se denomina densidad límite de corriente. Así pues, estas pérdidas tienen su origen en los límites de difusión de las especies reactivas a través de la célula. Además de la membrana electrolítica y el catalizador, en la célula de combustible podemos encontrar como principales componentes los platos bipolares, encargados de conectar la célula eléctricamente con el exterior y de introducir los gases reactivos a través de sus conductos; y las láminas difusivas, que conectan eléctricamente el catalizador con los platos bipolares y sirven para distribuir los gases reactivos de forma que lleguen a todo el área activa, y para evacuar el exceso de agua que se acumula en el área activa.La lámina difusiva, más conocida como GDL, será el argumento principal de nuestro estudio. Está conformada por un tejido de fibra de carbono macroporosa, que asegure el contacto eléctrico entre el catalizador y el plato bipolar, y es tratada con polímeros para proporcionarle propiedades hidrófobas que le ayuden en la evacuación de agua. La evacuación del agua es tan importante, especialmente en el cátodo, porque de lo contrario, la cantidad de agua generada por la reacción electroquímica, sumada a la humedad que portan los gases, puede provocar inundaciones en la zona activa del electrodo. Debido a las inundaciones, el agua obstruye los poros del GDL, dificultando la difusión de especies gaseosas y aumentando las pérdidas por concentración. Por otra parte, si demasiada agua se evacúa del electrodo, se puede producir un aumento de las pérdidas óhmicas, ya que la conductividad protónica de la membrana polimérica, es directamente proporcional a su nivel de humidificación. Con el fin de mejorar la gestión del agua de la célula de combustible, se ha añadido una capa microporosa denominada MPL al lado activo del GDL. Esta capa, constituida por una mezcla de negro de carbón con el polímero hidrófobo como aglutinante, otorga al GDL un mejor acabado superficial que reduce la resistencia de contacto con el electrodo, además la reducción del tamaño de las gotas de agua al pasar por el MPL mejora la difusión gaseosa por la disminución de obstrucciones en el GDL. Es importante tener cuidado en los tratamientos de hidrofobización de estos dos elementos, ya que, cantidades excesivas de polímero hidrófobo podrían reducir demasiado el tamaño de los poros, además de aumentar las pérdidas resistivas por su marcado carácter dieléctrico. Para el correcto análisis del funcionamiento de una célula de combustible, la herramienta fundamental es su caracterización eléctrica a partir de la curva de polarización. Esta curva representa la evolución del potencial de la célula respecto de la densidad de corriente, y su forma viene determinada principalmente por la contribución de las tres pérdidas mencionadas anteriormente. Junto con la curva de polarización, en ocasiones se presenta la curva de densidad de potencia, que se obtiene a partir de la misma. De forma complementaria a la curva de polarización, se puede realizar el estudio del circuito equivalente de la célula de combustible. Este consiste en un circuito eléctrico sencillo, que simula las caídas de potencial en la célula a través de elementos como resistencias y capacitancias. Estos elementos representas pérdidas y limitaciones en los procesos químicos y físicos en la célula. Para la obtención de este circuito equivalente, se realiza una espectroscopia de impedancia electroquímica (en adelante EIS), que consiste en la identificación de los diferentes elementos a partir de los espectros de impedancia, resultantes de introducir señales de corriente alternas sinusoidales de frecuencia variable en la célula y observar la respuesta en la tensión. En la siguiente imagen se puede observar un ejemplo de la identificación de los parámetros del circuito equivalente en un espectro de impedancia. Al final del trabajo, se han realizado dos aplicaciones prácticas para comprobar la influencia de las características hidrófobas y morfológicas de los medios difusores en la gestión del agua en el cátodo y, por tanto, en el resultado eléctrico de la célula; y como aplicación práctica de las técnicas de construcción y análisis de las curvas de polarización y potencia y de la espectroscopia de impedancia electroquímica. El primer estudio práctico ha consistido en comprobar los beneficios de la inclusión de un MPL al GDL. Para ello se han caracterizado células funcionando con GDL y GDM (GDL+MPL) tratados con dos tipos diferentes de polímeros, PTFE y PFPE. Además se han realizado las pruebas para diferentes condiciones de funcionamiento, a saber, temperaturas de 60 y 80°C y niveles de humidificación relativa de los gases reactivos de 80%-60% y 80%- 100% (A-C). Se ha comprobado con las curvas de polarización y potencia, cómo la inclusión de un MPL en el lado activo del GDL reporta una mejora del funcionamiento de trabajo en todas las condiciones estudiadas. Esta mejora se hace más patente para altas densidades de corriente, cuando la gestión del agua resulta más crítica, y a bajas temperaturas ya que un menor porcentaje del agua producida se encuentra en estado de vapor, produciéndose inundaciones con mayor facilidad. El segundo estudio realizado trata de la influencia del agente hidrofobizante utilizado en los GDMs. Se pretende comprobar si algún otro polímero de los estudiados, mejora las prestaciones del comúnmente utilizado PTFE. Para ello se han caracterizado células trabajando en diferentes condiciones de trabajo (análogas a las del primer estudio) con GDMs tratados con PTFE, PFPE, FEP y PFA. Tras el análisis de las curvas de polarización y potencia, se observa un gran comportamiento del FEP para todas las condiciones de trabajo, aumentando el potencial de la célula para cada densidad de corriente respecto al PTFE y retrasando la densidad de corriente límite. El PFPE también demuestra un gran aumento del potencial y la densidad de potencia de la célula, aunque presenta mayores problemas de difusión a altas densidades de corriente. Los resultados del PFA evidencian sus problemas en la gestión del agua a altas densidades de corriente, especialmente para altas temperaturas. El análisis de los espectros de impedancia obtenidos con la EIS confirma los resultados de las curvas de polarización y evidencian que la mejor alternativa al PTFE para el tratamiento del GDM es el FEP, que por sus mejores características hidrófobas reduce las pérdidas por concentración con una mejor gestión del agua en el cátodo.
Resumo:
El sistema de energía eólica-diesel híbrido tiene un gran potencial en la prestación de suministro de energía a comunidades remotas. En comparación con los sistemas tradicionales de diesel, las plantas de energía híbridas ofrecen grandes ventajas tales como el suministro de capacidad de energía extra para "microgrids", reducción de los contaminantes y emisiones de gases de efecto invernadero, y la cobertura del riesgo de aumento inesperado del precio del combustible. El principal objetivo de la presente tesis es proporcionar nuevos conocimientos para la evaluación y optimización de los sistemas de energía híbrido eólico-diesel considerando las incertidumbres. Dado que la energía eólica es una variable estocástica, ésta no puede ser controlada ni predecirse con exactitud. La naturaleza incierta del viento como fuente de energía produce serios problemas tanto para la operación como para la evaluación del valor del sistema de energía eólica-diesel híbrido. Por un lado, la regulación de la potencia inyectada desde las turbinas de viento es una difícil tarea cuando opera el sistema híbrido. Por otro lado, el bene.cio económico de un sistema eólico-diesel híbrido se logra directamente a través de la energía entregada a la red de alimentación de la energía eólica. Consecuentemente, la incertidumbre de los recursos eólicos incrementa la dificultad de estimar los beneficios globales en la etapa de planificación. La principal preocupación del modelo tradicional determinista es no tener en cuenta la incertidumbre futura a la hora de tomar la decisión de operación. Con lo cual, no se prevé las acciones operativas flexibles en respuesta a los escenarios futuros. El análisis del rendimiento y simulación por ordenador en el Proyecto Eólico San Cristóbal demuestra que la incertidumbre sobre la energía eólica, las estrategias de control, almacenamiento de energía, y la curva de potencia de aerogeneradores tienen un impacto significativo sobre el rendimiento del sistema. En la presente tesis, se analiza la relación entre la teoría de valoración de opciones y el proceso de toma de decisiones. La opción real se desarrolla con un modelo y se presenta a través de ejemplos prácticos para evaluar el valor de los sistemas de energía eólica-diesel híbridos. Los resultados muestran que las opciones operacionales pueden aportar un valor adicional para el sistema de energía híbrida, cuando esta flexibilidad operativa se utiliza correctamente. Este marco se puede aplicar en la optimización de la operación a corto plazo teniendo en cuenta la naturaleza dependiente de la trayectoria de la política óptima de despacho, dadas las plausibles futuras realizaciones de la producción de energía eólica. En comparación con los métodos de valoración y optimización existentes, el resultado del caso de estudio numérico muestra que la política de operación resultante del modelo de optimización propuesto presenta una notable actuación en la reducción del con- sumo total de combustible del sistema eólico-diesel. Con el .n de tomar decisiones óptimas, los operadores de plantas de energía y los gestores de éstas no deben centrarse sólo en el resultado directo de cada acción operativa, tampoco deberían tomar decisiones deterministas. La forma correcta es gestionar dinámicamente el sistema de energía teniendo en cuenta el valor futuro condicionado en cada opción frente a la incertidumbre. ABSTRACT Hybrid wind-diesel power systems have a great potential in providing energy supply to remote communities. Compared with the traditional diesel systems, hybrid power plants are providing many advantages such as providing extra energy capacity to the micro-grid, reducing pollution and greenhouse-gas emissions, and hedging the risk of unexpected fuel price increases. This dissertation aims at providing novel insights for assessing and optimizing hybrid wind-diesel power systems considering the related uncertainties. Since wind power can neither be controlled nor accurately predicted, the energy harvested from a wind turbine may be considered a stochastic variable. This uncertain nature of wind energy source results in serious problems for both the operation and value assessment of the hybrid wind-diesel power system. On the one hand, regulating the uncertain power injected from wind turbines is a difficult task when operating the hybrid system. On the other hand, the economic profit of a hybrid wind-diesel system is achieved directly through the energy delivered to the power grid from the wind energy. Therefore, the uncertainty of wind resources has increased the difficulty in estimating the total benefits in the planning stage. The main concern of the traditional deterministic model is that it does not consider the future uncertainty when making the dispatch decision. Thus, it does not provide flexible operational actions in response to the uncertain future scenarios. Performance analysis and computer simulation on the San Cristobal Wind Project demonstrate that the wind power uncertainty, control strategies, energy storage, and the wind turbine power curve have a significant impact on the performance of the system. In this dissertation, the relationship between option pricing theory and decision making process is discussed. A real option model is developed and presented through practical examples for assessing the value of hybrid wind-diesel power systems. Results show that operational options can provide additional value to the hybrid power system when this operational flexibility is correctly utilized. This framework can be applied in optimizing short term dispatch decisions considering the path-dependent nature of the optimal dispatch policy, given the plausible future realizations of the wind power production. Comparing with the existing valuation and optimization methods, result from numerical example shows that the dispatch policy resulting from the proposed optimization model exhibits a remarkable performance in minimizing the total fuel consumption of the wind-diesel system. In order to make optimal decisions, power plant operators and managers should not just focus on the direct outcome of each operational action; neither should they make deterministic decisions. The correct way is to dynamically manage the power system by taking into consideration the conditional future value in each option in response to the uncertainty.
Resumo:
La Educación Física se muestra, a priori, como un área idónea para trabajar intervenciones educativas para facilitar la inclusión de alumnos con discapacidad. Sin embargo, poco se conoce sobre el potencial que presentan los deportes adaptados y paralímpicos como contenido para fomentar la sensibilización y concienciación del alumnado sin discapacidad, especialmente en situaciones inclusivas de práctica. Por otro lado, la actitud del docente y su formación se presentan como claves en este contexto, ya que es quien en última instancia selecciona los contenidos a trabajar. Entendemos que en EF disponemos de una ocasión única en el curriculum para fomentar la participación activa y efectiva del alumno con discapacidad en clase (especialmente a nivel de desarrollo de la competencia motriz, entre otras), si bien esto depende de factores relacionados con los dos agentes anteriores. Es por todo ello que la Educación Física, como protagonista y como contenido, se muestra como un contexto adecuado para la investigación de los procesos de inclusión de alumnos con discapacidad en el ámbito educativo. Este trabajo de investigación pretende arrojar luz a los interrogantes que condicionan y limitan este contexto, desde una perspectiva multidisciplinar, con distintas metodologías, sobre los tres agentes indicados. La falta de consenso en la literatura en cuanto a las características y tipo de intervenciones eficaces para facilitar esta sensibilización del alumnado, unido a que es un ámbito relativamente reciente como tema de investigación, nos ha impulsado a trabajar en esta línea. El primer objetivo de este trabajo de investigación fue diseñar e implementar un programa de sensibilización y concienciación hacia la discapacidad basado en los deportes adaptados en el área de Educación Física para alumnos de secundaria y bachillerato. Inicialmente, se realizó una búsqueda bibliográfica tanto a nivel nacional como internacional, con el fin de definir las características principales que aporta la literatura científica en este aspecto. Apoyándonos por un lado, en el programa educativo Paralympic School Day (CPI, 2004) y por otro, en la citada revisión, desarrollamos un planteamiento inicial de estructura y fases. Dicho proyecto, fue presentado al Comité Paralímpico Español y a las federaciones deportivas españolas para personas con discapacidad, con la finalidad de recabar su apoyo institucional en forma de aval y recursos no solo a nivel económico sino también como apoyo logístico y de difusión. Tras su aprobación y gracias también al apoyo de la UPM, la Fundación Sanitas y Liberty Seguros, se procedió a diseñar el programa. Para el desarrollo de los materiales didácticos se contactó con expertos en la materia de EF y Actividad Física Adaptada tanto del ámbito educativo (profesores de educación secundaria y profesorado universitario) como del deportivo a nivel nacional. A su vez, se comenzó a difundir entre el profesorado de los centros con el fin de detectar su interés en participar durante el curso académico (2012-2013) en el programa “Deporte Inclusivo en la Escuela”. Con la finalización del desarrollo de los materiales didácticos, se visitó a los centros educativos para presentar el dossier informativo donde se explicaba el programa, así como las características y fases para su implementación. El programa está fundamentado en la Teoría del Contacto (Allport, 1954) y basado en los deportes adaptados y paralímpicos, planteado con una metodología inclusiva, seleccionando la información, la simulación y el contacto directo como estrategias para el fomento de la sensibilización y concienciación hacia la inclusión. En la reunión celebrada en la Facultad de Ciencias de la Actividad Física y del Deporte (INEF-UPM) en febrero de 2013, se coordinó junto con el profesorado la implementación del programa en cada uno de los 13 centros educativos, con acciones concretas como la adecuación de la propuesta didáctica en la planificación anual del profesor, el préstamo de material o la ponencia del deportista paralímpico entre otras cuestiones. Para la consecución del objetivo 2 de este trabajo, analizar el efecto del programa en los distintos agentes implicados en el mismo, alumnos sin discapacidad, profesorado de EF y alumnos con discapacidad, se calendarizó la toma de datos y la administración de las diferentes herramientas metodológicas para antes (pretest) como después de la intervención (posttets). En el caso de los alumnos sin discapacidad (N= 1068), se analizó el efecto de la intervención sobre la actitud hacia la inclusión, utilizando el cuestionario “Children Attitude Integrated Physical Education-Revised” (CAIPE-R; Block, 1995) de carácter cuantitativo tras su validación y adaptación al contexto español. Los resultados mostraron cambios significativos positivos en la actitud el grupo que mantuvo un contacto no estructurado con alumnos con discapacidad. En esta muestra también se midió la actitud hacia el juego cooperativo con compañeros con discapacidad en clases de EF usando el cuestionario “Children's Beliefs Toward Cooperative Playing With Peers With Disabilities in Physical Education” (CBIPPD-MPE; Obrusnikova, Block, y Dillon, 2010). El desarrollo de un sistema de categorías fundamentado en la Teoría del Comportamiento Planificado (Azjen, 1991) sirvió como base para el análisis de las creencias del alumnado sin discapacidad. Tras la intervención, las creencias conductuales emergentes se mantuvieron, excepto en el caso de los factores identificados como obstáculos de la inclusión. En el caso de las creencias normativas también se mantuvieron tras la intervención y respecto a las creencias de control, los alumnos identificaron al profesor como principal agente facilitador de la inclusión. En el caso de los profesores de EF participantes en el programa (N=18), se analizó el efecto del programa en su actitud hacia la inclusión de alumnos con discapacidad en EF con el cuestionario “Attitud toward inclusion of individual with physical disabilities in Physical Education” (ATISDPE-R; Kudláèek, Válková, Sherrill, Myers, y French, 2002). Los resultados mostraron que no se produjeron diferencias significativas tras la intervención en la actitud general, encontrando algunas diferencias en determinados ítems relacionados con los beneficios de la inclusión en los alumnos sin discapacidad relacionados con los docentes con experiencia previa con discapacidad y en EF antes de la intervención. La otra dimensión analizada fue el efecto de la intervención en la autoeficacia del profesor en la enseñanza de la EF en condiciones inclusivas, habiendo utilizado el cuestionario "Self-efficacy in teaching PE under inclusive conditions" (SEIPE; Hutzler, Zach, y Gafni, 2005). Los resultados en este caso muestran diferencias significativas positivas en cuestiones relacionadas como sentirse capaces de mejorar las condiciones óptimas de enseñanza con alumnos con discapacidad física como movilidad reducida severa y amputación y discapacidad visual tanto en situaciones deportivas, como juegos o actividades fuera del centro educativo a favor de los docentes. En cuanto al género, los hombres obtuvieron valores superiores a las mujeres en relación a sentirse más capaces de incluir a alumnos con discapacidad física tanto en juegos durante el recreo como en la enseñanza de técnica deportiva. Los profesores con menos de 10 años de docencia mostraron valores más positivos en cuanto a sentirse capaces de incluir a un alumno con discapacidad fisica en deportes durante su tiempo libre. El análisis del diario del profesor muestra por un lado, las tendencias emergentes como principales elementos facilitadores u obstaculizadores de la inclusión en EF, identificando al propio alumno sin discapacidad, el propio profesor, los contenidos, los materiales y la organización. Por otro lado, el análisis de los contenidos propuestos en el programa. En el caso de los alumnos con discapacidad (N=22), se analizó el impacto del programa de intervención en el autoconcepto, con el cuestionario "Autoconcepto forma 5" (AF5; F. García y Musitu, 2001). Se encontraron diferencias significativas a favor de las mujeres antes de la intervención en la dimensión familiar, mientras que los hombres obtuvieron valores más altos en las dimensiones social y físico. En cuanto a la edad, se encontraron diferencias significativas antes de la intervención, con valores superiores en los alumnos más jóvenes (12-14 años) en la dimensión físico, mientras que los alumnos mayores (15-17 años) mostraron valores más altos en la dimensión social del cuestionario. Respeto al tipo de discapacidad, los alumnos con discapacidad motórica mostraron mejores valores que los que tienen discapacidad auditiva para la dimensión físico antes de la intervención. En cuanto al autoconcepto general, las diferencias significativas positivas se producen en la dimensión académica. En cuanto al efecto del programa en la autoestima de los alumnos con discapacidad, se utilizó la Escala de "Autoestima de Rosenberg" (Rosenberg, 1989), no obteniendo diferencias significativas en cuanto el género. Apareciendo diferencias significativas antes de la intervención en el caso de la variable edad en los alumnos más jóvenes, en cuanto a que desearían valorarse más, y en los alumnos con discapacidad auditiva en que no se sienten muy orgullosos de ellos mismos. Se produce una mejora en la autoestima general en cuanto a que se sienten menos inútiles tras la intervención. En relación al objetivo 3 de este trabajo, tras el análisis de los resultados y haber discutido los mismos con los autores de referencia, emergió la propuesta de orientaciones tanto para los programa de intervención en EF para la sensibilización y concienciación del alumnado hacia la inclusión como de cara a la formación específica del profesorado, como clave en este tipo de intervenciones. Creemos que el programa “Deporte Inclusivo Escuela” se convierte en un elemento transformador de la realidad, ya que responde a las necesidades detectadas a la luz de esta investigación y que vienen a dar respuesta a los distintos agentes implicados en su desarrollo. Por un lado, atiende la demanda del ámbito educativo en cuanto a las necesidades de formación del profesorado, sensibilización y concienciación del alumnado sin discapacidad, además de facilitar oportunidades de participación activa al alumno con discapacidad en las sesiones de EF. Por otro lado, satisface la demanda por parte de las instituciones deportivas del ámbito de la discapacidad en cuanto a la promoción y difusión de los deportes adaptados y paralímpicos. Por último, desde el ámbito universitario, se muestra como un recurso en la formación del alumnado del grado en Ciencias de la Actividad Física y del Deporte, por su participación directa con la discapacidad. Por estos motivos, este trabajo se muestra como un punto de partida adecuado para seguir avanzando en la investigación en esta área. ABSTRACT Physical Education (PE) seems a priori, as a suitable area to work educational interventions to facilitate the inclusion of students with disabilities. However, little is known about the potential that have adapted and Paralympic sports as content to raise awareness of students without disabilities, especially in inclusive practice context. On the other hand, teachers’ attitude and their training are presented as key in this context because it is who selects the content to work. We understand that PE have a unique opportunity in the curriculum to encourage active and effective participation of students with disabilities in class (especially at motor competence development, etc.), although this depends on factors related to the two agents. For these reasons that the PE, as actors and as content is displayed as a context for investigating the processes of inclusion of students with disabilities in education. This research aims to shed light on the questions that condition and limit this context, from a multidisciplinary perspective, with different methodologies on the three agents mentioned. The lack of accord in the literature regarding the characteristics and type of effective facilitators of awareness of students, and that is a new area as a research topic, has prompted us to work in this topic research. The first aim of this research was to design and implement a program of awareness towards disability based on adapted sports in the area of physical education for middle and high school students. Initially, a literature search was performed both nationally and internationally, in order to define the main features that brings the scientific literature in this area. On the one hand, we supported in the Paralympic School Day (IPC, 2004) educative program and on the other hand, in that review, we developed an initial approach to structure and phases. The project was presented to the Spanish Paralympic Committee and the Spanish Sports Federations for people with disabilities, in order to obtain institutional support in the form of guarantees and resources not only in economic terms but also as logistical support and dissemination. Thanks to the support of Fundación Sanitas, Liberty Seguros and Politechnical University of Madrid, we proceeded to design the program. For the development of teaching resources it was contacted experts in the field of Adapted Physical Activity and physical education and both the field of education (high school teachers and university professors) as the adapted sport national. In turn, it began to spread among the teachers of the schools in order to identify their interest in participating in the academic year (2012-2013) in the "Inclusive Sport in School" program. With the completion of the development of educational materials to schools he was visited to present the briefing where the program, as well as features and steps for its implementation are explained. The program is based on the Contact Theory (Allport, 1954) and based on adapted and Paralympic sports, raised with an inclusive approach, selecting strategies for promoting awareness and awareness to inclusion like information, contact and simulation of disability. At the meeting held at the Faculty of Sciences of Physical Activity and Sport (INEF-UPM) in February 2013, it was coordinated with the teachers implementing the program in each of the 13 schools with concrete actions such as adequacy of methodological approach in the annual planning of the teacher, the loan or the presentation of materials Paralympian among other issues. To achieve the objective 2 of this paper, to analyze the effect of the program on the various actions involved it, students without disabilities, PE teachers and students with disabilities, the date for management of the different methodological tools for before (pretest) and after the intervention (posttets). For students without disabilities (N= 1068), the effect of the intervention on the attitude towards inclusion was analyzed, using the quantitative questionnaire "Integrated Physical Education Attitude Children-Revised" (CAIPE-R; Block, 1995), after validation and adaptation to the Spanish context. The results showed significant positive changes in the attitude of the group with no structured contact with students with disabilities. This shows the beliefs towards the cooperative play was with peers with disabilities in PE classes also measured, using the questionnaire "Children's Beliefs Toward Cooperative Playing With Peers With Disabilities in Physical Education" (CBIPPD-MPE; Obrusnikova, Block, and Dillon, 2010). The development of a system of categories based on the Theory of Planned Behavior (Azjen, 1991) served as the basis for analysis of the beliefs of students without disabilities. After surgery, emerging behavioral beliefs remained, except in the case of the factors identified as barriers to inclusion. In the case of normative beliefs also they remained after surgery and regarding control beliefs, students identified the teacher as the main facilitator of inclusion. Regarding PE teachers participating in the program (N = 18), the effect of the program was analyzed their attitude toward inclusion of students with disability in PE with the questionnaire "Toward Attitude inclusion of Individual with in Physical Education "(ATISDPE-R; Kudláèek, Válková, Sherrill, Myers, and French, 2002). The results showed no significant difference occurred after surgery in the general attitude, finding some differences in certain related benefits of inclusion in students without disability relating to teachers with previous experience with disability in PE before intervention. The other dimension was analyzed the effect of the intervention on self-efficacy of teachers in the teaching of PE in inclusive terms, having used the questionnaire "Self-efficacy in PE teaching even under conditions" (SEIPE; Hutzler, Zach, and Gafni, 2005). The results showed significant differences positive in issues like being able to enhance the optimal conditions for teaching students with physical disabilities as amputation and severe visual impairment in both sports situations, such as games or activities outside the school to for teachers. Regard to gender, men earned higher values regarding women about feel more able to include students with physical disabilities in both games during recess and teaching sports technique. Teachers with less than 10 years of teaching showed more positive values as you feel able to include a student with physical disabilities in sports during their leisure time. The analysis of daily teacher shows on the one hand, emerging trends as key facilitators or barrier of the inclusion elements in PE, identifying the students without disabilities themselves, the professor, contents, materials and organization. Furthermore, the analysis of daily teacher about the contents proposed in the program. In the case of students with disabilities (N=22), the impact of the intervention program on self-concept was analyzed, with the questionnaire "Self-concept form 5" (AF5, F. Garcia and Musitu, 2001). The women showed significant differences before the intervention in family dimension, while men scored higher values in the social and physical dimensions were found. In terms of age, significant differences were found before the intervention, with higher values in younger students (12-14 years) in the physical dimension, while older children (15-17 years) showed higher values the social dimension of the questionnaire. Respect disabilities, students with motor disabilities showed better values than those with hearing impairment to the physical dimension before surgery. As for the general self-concept, positive significant differences occur in the academic dimension. As for the effect of the program on self-esteem of students with disabilities Scale "Rosenberg Self-Esteem" (Rosenberg, 1989) was used, not getting significant differences in gender. Only appear significant difference before the intervention in the case of younger students as they wish to be valued more, and students with hearing disabilities who do not feel very proud of themselves. Improved self-esteem generally occurs in that they feel less useless after surgery. With regard to the aim 3 of this research, after analyzing the results and have discussed them with the authors, it emerged the proposal of guidelines for both intervention program EF for sensitization and awareness of students towards inclusion as in the face of specific training for teachers, as key in such interventions. We believe that "Inclusive Sport Schools" program becomes a transforming element of reality, as it responds to the needs identified in the light of this research and come to respond to the various elements involved in its development. On the one hand, it meets the demand of the education sector in terms of the needs of teacher training, awareness of students without disability, and facilitates opportunities for students with disabilities for active participation in PE class. On the other hand, it meets the demand of sports institutions in the field of disability regarding the promotion and dissemination of adapted and Paralympic sports. Finally, it is shown as a resource from the university level for the training of degree in Physical Activity and Sport Science students, by its direct involvement with disability. For these reasons, this work is shown as a good starting point to further advance research in this area.
Resumo:
Cuando se inició el trabajo para obtener el título de doctora, el proyecto era acerca de la financiación público privada de los clubes deportivos madrileños. El punto uno de ese primer índice, versaba sobre el origen del club deportivo en la Comunidad de Madrid (en este sentido, es preciso tener en cuenta que el territorio sufrió modificaciones, lo que antes eran pueblos hoy son distritos y lo que antes era provincia hoy es Comunidad Autónoma de Madrid, nuestro ámbito territorial de estudio). Al leer la doctrina autorizada que coincidía en su totalidad en que los primeros clubes deportivos fueron de origen inglés (el Recreativo de Huelva en el año1889 era considerado el primer club de España) y recordar dudas e inquietudes al respecto que surgieron durante la licenciatura, la investigación se tornó incómoda, por no decir temeraria. ¿Por qué había que limitarse a recoger las ideas de una doctrina, sin duda hoy y entonces prestigiosa, cuando se pensaba que aquella teoría del origen británico no podía ser, aunque fuera dentro de un marco teórico? No parecía tener sentido que no hubiera habido asociacionismo en España antes de la llegada de las compañías inglesas, pero sobre todo en Madrid, siempre bulliciosa en cuanto a participación ciudadana, por varios motivos: existían juegos y deportes populares autóctonos antes de que llegara el fútbol. ¿No se asociaban los madrileños para poder competir con otros?, ¿Se equivocó Goya al pintar estampas de juegos populares?, ¿Por qué existía entonces una Ley de Asociaciones de 1887, evidentemente anterior al Recreativo de Huelva (1889)? Las leyes se elaboran en respuesta a una necesidad social o a una costumbre anterior, o a las dos cosas. ¿Nadie pensó en la costumbre, siendo fuente del Derecho junto con la Ley y los principios generales?, ¿Nadie, estando tan cerca?, ¿Nadie, figurando en el artículo 1 del Código Civil? De esta forma, la justificación y objetivos cambiaron, la investigación se volvió otra, se tenía necesidad de probar la lógica o nada. Sólo hacían falta las pruebas documentales que aportaran luz y fueran tangibles para la argumentación jurídica. Así, entre las reglas del juego de la norma jurídica, la jurisprudencia y la doctrina, se desenvuelve el marco teórico de este trabajo. Es necesario para ello conocer cómo funciona la legislación que afecta a los clubes deportivos en la actualidad para entender las similitudes con los clubes pioneros. Es preciso comprender que una Ley nunca se encuentra aislada de otras, que todas están relacionadas, que los cruces son inevitablemente ilimitados y los resultados inmensos. Se ha realizado un análisis de una realidad compleja que trasciende de lo jurídico y lo deportivo. Respecto al material y método, no se encontraban referencias de estudios comparados, desde el punto de vista jurídico, de los Estatutos de los primeros clubes deportivos madrileños, ni nombrarlos hasta que a principios del año 2013 digitalizamos en la Biblioteca Nacional el Reglamento del Instituto de Gimnástica, Equitación y Esgrima (Villalobos, 1842); la prueba documental que se buscaba para apoyar la teoría ya era tangible. Luego se encontrarían otros para añadir a la muestra y también documentación probatoria complementaria. Tampoco había trabajos sobre la documentación emanada de la Administración Pública, por lo que se han estudiado Expedientes administrativos así como su comparativa con la legislación coetánea y la actual, lo que ha permitido concretar más la forma y tipología de las primeras formas jurídicas deportivas. Para la búsqueda de documentación se ha recurrido a bibliotecas, archivos e incluso depósitos que tenían legajos sin clasificar, habían sufrido las inundaciones y carcoma que azotaron a los sótanos de Madrid e incluso a alguno el fuego le miró de reojo. La documentación encontrada ha permitido convivir con los personajes que habitaron los clubes pioneros en los primeros domicilios sociales; historias reales con banda sonora propia. Y es que el nacimiento del asociacionismo deportivo madrileño no se podría haber gestado en mejor momento; durante el Romanticismo, ni en mejor lugar, en las encrucijadas de las callejuelas estrechas cercanas a las grandes arterias de la Capital; un paseo por las calles Libertad, Barbieri, Minas, Hortaleza y Montera. Los resultados de la investigación confirman la teoría de que el primer club deportivo madrileño nada tuvo que ver con los clubes que posteriormente vinieron en los equipajes de las compañías inglesas. Ni en tiempo, son anteriores; ni en lugar, Madrid; ni en forma, la comparativa con un club británico de la época denota diferencias o mejor, deficiencias, pero más que nada en el fondo. Los clubes madrileños tenían una naturaleza que reflejaba el sentir de los primeros socios y el espíritu de la Capital: beneficencia, espectáculo, participación ciudadana y trabajo en equipo. También se demuestra, tanto en los resultados como en la discusión, las particularidades de los primeros clubes madrileños en cuanto a su relación con la imprenta, la docencia, la prensa, las instalaciones deportivas siempre compartidas con la cultura como la terminología y las equipaciones, pero sobre todo la especial relación con el inherente derecho de reunión. Difícil pensar en un principio que la prueba de la costumbre se encontrara en la cartelería teatral, y que un programa de una competición deportiva escondiera unos Estatutos durante siglos. ABSTRACT When work for a doctorate degree began, the project was about public-private financing of sports clubs Madrid. At point one of the first index, concerned the origin of the sports club in Madrid ( Keep in mind that the territory was modified, which were towns before today are districts and what was once the province is now Community Autonomous of Madrid, our territorial area of study). When reading the authoritative doctrine which coincided entirely in the first sports clubs were of English origin (Huelva Recreation Club, 1889) and remember about questions and concerns raised during the undergraduate research became awkward, if not reckless. Why it had to be limited to collecting the ideas of a doctrine certainly prestigious now and then, when it was thought that this theory could not be British origin, albeit within a framework? It did not seem to make sense that there had been associations in Spain before the arrival of British companies, but especially in Madrid, always busy in terms of citizen participation, for several reasons; and indigenous games were popular sports before the football do the locals are not associated to compete with other?, Goya was wrong to paint pictures of popular games?, Why then was no Associations Act, 1887, clearly previous Huelva Recreation Club (1889)? The laws are developed in response to a social need or a past practice, or both. No one thought of being a source of law practice with the law and the general principles? No, being so close? No one appearing in Article 1 of the Civil? Thus the rationale and objectives of the research turned back, it was necessary to try logic or anything. Only documentary evidence was needed that provide light and were tangible to the legal arguments. Thus, among the rules of the legal rule, jurisprudence and doctrine, the theoretical framework of this work develops, we need to know how legislation affects sports clubs at present to understand the similarities with clubs works pioneers, we must understand that a law is never isolated from others, they are all related, intersections are inevitably unlimited and the immense results. It has made an analysis of a complex reality that transcends the legal and sports. Regarding the material and method, no references to studies were compared, from the legal point of view, of the Statute of the first Madrid sports clubs, or name them until early 2013 digitized at the National Library of the Institute of Regulation Gymnastics, Riding and Fencing (Villalobos, 1842); the documentary evidence that was sought to support the theory was already tangible. Then they find others to add to the sample and further supporting documentation. There was also no work on the documentation issued by the Public Administration, which have been studied administrative records and their comparison with the contemporary legislation and the current, allowing more concrete form and type of the first sports legal forms. Search for documentation we have turned to libraries, archives and even deposits that were not rated bundles, had suffered flooding and decay in the basement of Madrid and even fire some looked askance. The found documents have enabled us to live with the characters that inhabited the early clubs in the first addresses; real stories with its own soundtrack. And the birth of the Madrid sports associations could not have been gestated at a better time ; during the Romantic period , or in a better place ; at the crossroads of the nearby narrow streets of the great arteries of the Capital; a walk along the Libertad, Barbieri, Minas, Hortaleza and Montera. The research results confirm the theory that the first Madrid sports club had nothing to do with the clubs that later came in the luggage of British companies, nor in time; They predate, or rather; Madrid, or in the form; the comparison with a British club denotes the time differences or rather shortcomings, but more than anything in the background; the Madrid club had a nature that reflect the sentiments of the first members and the spirit of the Capital; charity, show, citizen participation and teamwork. It is also shown in the results and discussion the particularities of the first locals clubs in their relationship with the press, teaching, media, sports facilities always shared with the culture and terminology and the kits, but all the special relationship with the inherent right of assembly; hard to think at first that the test of habit were in the theater posters, and a program of a sports competition hide Statutes for centuries.
Resumo:
El entorno alpino de los Grisones ha sido un laboratorio donde experimentar un método arquitectónico procedente de diversas fuentes durante los años 70 en la ETHZ. Este método ha producido durante las últimas tres décadas un discurso teórico propiamente suizo alemán. La tradición continúa siendo un valor cultural para la comunidad alpina de los Grisones, que apuesta por seguir relacionando la arquitectura con su historia y su paisaje. La especificidad de cada entorno suizo alemán es un hecho obvio pero, por encima de sus rasgos característicos, hay un denominador común que les da unidad en silencio: se trata de una idea de la construcción. El fenómeno de los Grisones es territorial en su localización concreta, pero comparte el trasfondo teórico del resto de la arquitectura suizo alemana reciente. La tesis recorre transversalmente las condiciones que han dado lugar a esa trayectoria común hasta la actualidad, en que la arquitectura suizo alemana se halla precisamente en un momento de cambio generacional. La obra de Peter Märkli constituye en esta tesis un paradigma de la voluntad suizo alemana por formar parte de la continuidad cultural de la arquitectura, como una actitud de resistencia compartida frente al mundo globalizado. La tesis se articula a partir de ocho proyectos recientes, realizados por arquitectos suizo alemanes en el entorno del territorio alpino de los Grisones. Estos proyectos condensan la trayectoria arquitectónica suizo alemana durante el siglo XX, así como el fenómeno arquitectónico que ha tenido lugar en el entorno de los Grisones durante las últimas tres décadas. La tesis analiza a través de cada pareja de proyectos los episodios teóricos, artísticos y filosóficos más relevantes que se sintetizan en estas obras, así como sus referentes arquitectónicos y la dimensión trascendente de los materiales en los que la cultura suiza hunde sus raíces: la madera, la piedra y el hormigón. Las vanguardias pictóricas, el Movimiento Moderno y las corrientes humanistas y regionalistas que se fueron sucediendo durante el pasado siglo, configuran el escenario en el que tomó cuerpo la sensibilidad arquitectónica suizo alemana reciente, que emerge a través de la compleja red de relaciones establecidas entre el panorama suizo y el internacional. El mismo bagaje teórico subyace al territorio suizo alemán a nivel general, por lo que asociarlo a través de esta tesis a proyectos realizados en un entorno característico, permite acceder a una realización concreta de ese debate en un entorno tan particular como son los Grisones. La aproximación a los proyectos es de carácter fenomenológico: la experiencia directa de los mismos ha sido el sustrato fundamental del enfoque de la tesis. El trabajo de campo no se limitó a visitar los proyectos que vertebran la tesis, sino que trató de abarcar las obras más relevantes de la producción suizo alemana reciente en los Grisones, con el fin de adquirir cierto grado de sensibilidad perceptiva hacia la singularidad de su identidad territorial. La tesis hace especial hincapié en las obras de Peter Märkli y Peter Zumthor, representantes de los dos extremos del discurso suizo alemán reciente, respecto a la materialidad y al carácter de la secuencia espacial, sistemático o fluido respectivamente, pero que asimismo comparten el clasicismo formalista que subyace al fenómeno suizo alemán. Los dos proyectos que establecen el periodo 1992-2004 explorado por esta investigación constituyen dos hitos fundamentales. El Museo de La Congiunta en Giornico de Peter Märkli se construyó en 1992 y se erige a partir de entonces como un icono arquitectónico de la condensación típicamente suizo alemana de base reductiva. Este paradigma de síntesis conceptual y constructiva comenzó a forjarse en la década de 1930 de la mano del Konkrete Kunst formulado por Max Bill, que es la única manifestación artística genuinamente suiza del siglo XX y que desarrolló pictóricamente los valores de precisión, rigor, racionalismo y abstracción afines a la sensibilidad suizo alemana. En segundo lugar, el proyecto para la rehabilitación de la Villa Garbald y la construcción de la Torre Roccolo en Castasegna llevado a cabo por Miller & Maranta en 2004, supuso la consumación de la Analoge Architektur, que fue la primera corriente arquitectónica propiamente suiza, desarrollada durante la década de 1980 por Miroslav Sik. La Deutscher Tendenza es un periodo de la trayectoria suizo alemana reciente poco conocido, representado por una figura tan relevante como es Peter Zumthor. Las obras que proyectó Zumthor entre 1979 y 1985 forman parte de un periodo en que el arquitecto se encontraba profundamente influido por el neorracionalismo italiano, como ilustra la escuela de Churwalden de 1983. La arquitectura suizo alemana reciente exploró sistemáticamente los sistemas compositivos de las vanguardias pictóricas y del Movimiento Moderno, por encima de su formalismo concreto. La segunda fase de la obra de Zumthor entre 1985 y 1996 se caracteriza por la transfiguración del plano libre del sistema compositivo neoplasticista desarrollado por De Stijl, plano que adquirió grosor hasta convertirse en la caja articuladora de la fluidez de la secuencia espacial. El formalismo de Zumthor en esta fase implica la prioridad del esquema compositivo, compuesto por un perímetro regular en el que se reúnen las cajas que, como las superficies de color de las composiciones de Mondrian, articulan el espacio a su alrededor. La Residencia de Masans de Zumthor de 1993 es un proyecto canónico de este sistema compositivo, que culmina en el esquema radial de las Termas de Vals de 1996. La imagen poética se convirtió en el lenguaje propio del pensamiento de la arquitectura suizo alemana, que permitía una reflexión no verbal, a partir de unos pocos arquetipos fundamentales. Los arquitectos del Ticino buscaron en la Tendenza italiana durante la década de 1970 una alternativa al insostenible modelo territorial que estaba destruyendo su paisaje cultural. Algunos de estos arquitectos comenzaron a dar clase durante esa década en la ETHZ, por lo que transmitieron sus inquietudes al alumnado e introdujeron a Aldo Rossi en la facultad, que era uno de los máximos representantes de la Tendenza. El método analógico de Rossi, basado en la psicología analítica de Carl Jung, fue una influencia fundamental en la ETHZ durante los años 70. Rossi partía de una teoría afín al colectivo intelectual suizo que los arquitectos de la ETHZ pronto comprendieron que debían independizar del contexto italiano, desarrollando su propio método a partir de 1985 con la Analoge Architektur. El valor de la preexistencia de acuerdo a este método incipiente se hallaba en su papel articulador de la continuidad cultural de una comunidad, que Miroslav Sik definió a partir de su concepto de Altneue (literalmente, lo Nuevo-Viejo). La fusión entre lo nuevo y lo viejo era la base de la espontaneidad con la que habían crecido los asentamientos históricamente. Sik consideraba que la continuidad dependía de la comprensión de los patrones preexistentes, con el objeto de mantener su vigencia mediante la incorporación de estrategias contemporáneas, que renovarían su significado sin perder su esencia. La Casa Gugalun en Versam de Zumthor de 1994 supone una aproximación a escala doméstica a este planteamiento. La arquitectura suizo alemana reciente a menudo busca en sus referentes plásticos una manera de explorar ámbitos poco accesibles para la disciplina arquitectónica. El pensamiento arquitectónico basado en la imagen poética se implementa a partir de la tectónica de la construcción, que es el medio para comunicar una idea vertebradora del proyecto de principio a fin. La construcción como medio introduce el concepto clave de la apariencia de la arquitectura, estrechamente relacionado con la filosofía idealista de Friedrich Schiller. La apariencia debe expresar el sentido conceptual de la obra, que los arquitectos suizo alemanes denominan idea, por lo que la construcción no tiene un valor por sí misma, sino en cuanto a la apariencia. La Capilla de Oberrealta de Christian Kerez de 1993 puede ser considerada una obra escultórica en el paisaje, más próxima a las artes plásticas que a la arquitectura. La tensión que surge entre la figura ideal y la pieza sometida a una sutil deformación confiere un carácter dinámico a la composición, que intensifica el efecto perceptivo, de acuerdo a la teoría del pensamiento visual de Rudolph Arnheim. La deformación al servicio de la psicología de la percepción es un fenómeno que caracteriza la arquitectura suizo alemana reciente. El concepto de Forme Forte (forma fuerte) fue introducido por Martin Steinmann para caracterizar el objeto arquitectónico denominado internacionalmente Swiss Box. Este concepto se caracteriza por una predilección por lo monolítico, lo unitario y lo arquetípico. La condición más sustancial de una Forme Forte es, sin embargo, la de configurar un elemento estructurador del entorno. Tanto la base morfológica de una Forme Forte, como su capacidad para estructurar el lugar, se corresponden con los conceptos de arquetipo y monumento de la teoría de Rossi. La tesis explora el sentido de la deformación en la producción suizo alemana reciente, a partir de la Escuela de Paspels de Valerio Olgiati de 1998 y la Torre Roccolo de Villa Garbald de Miller&Maranta de 1998. La teoría tectónica de Gottfried Semper y la razón de la forma de Adolf Loos constituyen el sustrato teórico, que relaciona la actividad existencial de habitar con la materialidad de la arquitectura suizo alemana reciente. La teoría tectónica de Semper fundamenta las revisiones posteriores de los sistemas constructivos tradicionales suizo alemanes. Esta influencia sirvió como base a la vanguardia suiza de la Neues Bauen, que desarrolló un racionalismo funcionalista durante las décadas de 1920 y 1930, que constituye una gramática de base no simbólica. Esta gramática constituye el fundamento de la transición del orden clásico a la materialidad como instrumento compositivo durante la segunda mitad del siglo XX, consolidando el concepto de la base material de la forma. La revisión de la tradición regionalista y racionalista llevada a cabo por la generación de arquitectos suizo alemanes de la década de 1950 y 1960, constituyó una investigación lingüística sustancial. Rudolph Olgiati es la figura determinante de este periodo. La revisión de esta investigación se codificó en clave estructuralista durante los años 70 en la ETHZ, influenciada por la presencia de Roland Barthes como profesor invitado. Esta revisión constituyó la base de la articulación tectónica propiamente suizo alemana todavía vigente, como ilustra expresamente la obra de Burkhalter&Sumi en esta tesis. La obra de Gion Caminada en Vrin entre 1995 y 2002 aporta una intensa investigación sobre el Strickbau, que implementa una y otra vez variaciones sobre un sistema tradicional, ilustrando las infinitas posibilidades que ofrece un lenguaje, paradójicamente limitado por los medios disponibles en un entorno alpino aislado. Para terminar Jürg Conzett es el ingeniero con el que han desarrollado sus proyectos la mayoría de los arquitectos en el entorno de los Grisones, formado durante 8 años con Zumthor y colaborador habitual de Caminada entre otros. Conzett es el referente que relaciona la ingeniería con la arquitectura en el ámbito de esta tesis, imprescindible en el contexto de esta investigación. ABSTRACT The Alpine setting of Grisons has been a laboratory for architectural experimentation with an approach forged in the 1970s from various sources in the Swiss Federal Institute of Technology in Zurich (ETHZ). This method has produced a uniquely German-Swiss theoretical discourse over the past three decades. Tradition continues to be a cultural value for Grisons, a region committed to continue linking its architecture with the region’s history and landscape. The specificity of the German-Swiss environment is obvious, but beyond its characteristic features, there is a common denominator that gives these settings a silent unity: it is an idea of building. The phenomenon of Grisons is geographic in its specific location, but it shares the theoretical basis of the rest of the new German-Swiss architecture. This thesis transversely delves into the conditions that have shaped this common path up to the present, just as German-Swiss architecture is going through a time of generational change. In this thesis, Märkli Peter's work constitutes a paradigm of the German-Swiss will to uphold the cultural and architectural continuity of the region, exemplifying an attitude of shared resistance to the globalized world. The thesis is structured around eight recent projects carried out by German-Swiss architects in the Alpine region of Grisons. These projects represent the trajectory of twentieth century German-Swiss architectural history, as well as the architectural phenomenon that has taken place in the environs of Grisons over the past three decades. Through these projects the thesis analyzes the most relevant theoretical, artistic and philosophical references that are synthesized in the works, as well as their architectural references and the transcendental dimension of the materials in which Swiss culture is rooted: wood, stone and concrete. The artistic avant-garde, together with Modernism and the humanistic and regional movements that occurred during the last century, set the stage for present-day German-Swiss architectural sensitivity, which emerges from a complex web of relationships established between the Swiss and international panorama. This same theoretical background and experience underlies all of the German-Swiss territory in general, so associating it through this thesis to a particular context allows the description of a specific embodiment of this debate, within the unique environment of Grisons. The methodological approach to analyzing the projects was phenomenological: direct experience is the main substrate underpinning the focus of the thesis. Field work was not limited to visiting the projects featured in the thesis, but rather encompassed the most important works of recent German-Swiss construction in the Grisons in order to gain some degree of perceptual sensitivity to the uniqueness of its territorial identity. The present paper puts special emphasis on the works of Peter Märkli and Peter Zumthor, who share the formal classicist perspective of the German-Swiss context but stand on opposite sides of the philosophical spectrum with regard to the notion of materiality and the nature of space, which they conceive as systematic or fluid, respectively. The two projects that establish the boundaries of the time period 1992–2004 explored by this research represent two key milestones. The Museum La Congiunta in Giornico, by Peter Märkli, was built in 1992 and quickly established itself as an architectural icon of German-Swiss reductionism. This paradigm of conceptual and constructive synthesis began to take shape in the 1930s under the banner of Konkrete Kunst (Concrete Art), led by Max Bill. The only genuinely Swiss artistic movement of the twentieth century, Konkrete Kunst was characterized by the artistic values of precision, rigor, rationalism and abstraction, sentiments that were very close to the German-Swiss tradition. Secondly, the project for the rehabilitation of Villa Garbald and the construction of the Roccolo Tower in Castasegna, conducted by Miller&Maranta in 2004, represented the consummation of the Analoge Architektur, which was the first truly Swiss architectural movement, spearheaded in the 1980s by Miroslav Sik. The Deutscher Tendenza is a little-known period of recent German-Swiss history, represented by the important figure of Peter Zumthor. The projects that Zumthor led between 1979 and 1985 are part of a period when Italian Neo-Rationalism exercised a profound influence on the architect, as illustrated by the Churwalden School, circa 1983. Recent German-Swiss architecture systematically explored the compositional systems of the artistic avant-garde and Modernism, beyond its specific formal aspects. The second phase of Zumthor's work, between 1985 and 1996, is characterized by the transfiguration of the free plane, neoplastic compositional system developed by De Stijl, a plane that thickened until it became the box articulating fluidity from the spatial sequence. Zumthor's formalism in this phase prioritizes the compositional scheme, consisting of a regular perimeter in which the boxes that -like Mondrian’s colored surfaces- arrange the space around it. Zumthor’s Masans Residence, circa 1993, is a canonical project of this compositional system, which culminates in the radial pattern of the Therme Vals, circa 1996. The poetic image became the appropriate language of thought for German-Swiss architecture, which invited a nonverbal reflection inspired by a few fundamental archetypes. The architects of Ticino sought, through the Italian Tendenza of the 1970s, an alternative to the unsustainable territorial model that was destroying their cultural landscape. Some of these architects began to teach during that decade at ETHZ, and naturally they transmitted their unease to their students. These architects also introduced Aldo Rossi, one of the leading representatives of the Tendenza, to the school. Rossi’s analogue method, based on the analytical psychology of Carl Jung, was a major influence on the ETHZ during the 1970s. Rossi’s theoretical grounding was very much in tune with Swiss intellectualism, and it did not take long for architects from ETHZ to realize that they should break away from the Italian context, developing their own method from 1985 on with the Analoge Architektur. The value of the pre-existing conformity of this emerging method, stemmed from its role in facilitating the cultural continuity of a community, which Miroslav Sik defined in his concept of Altneue (literally, Old-new). This fusion of old and new was the basis for the spontaneity with which settlements had historically grown. Sik considered that continuity depended on understanding the existing patterns and sustaining their relevance through the incorporation of contemporary strategies, which would renew their meaning without losing their essence. Zumthor’s Gugalun House in Versam, circa 1994, is a domestic-scale approach to this philosophy. Modern German-Swiss architecture often looks to its references in visual art for a way to explore areas that are normally inaccessible to the architectural discipline. Architectural thinking based on the poetic image is achieved through a building’s tectonics, which communicate the core idea of a project from start to finish. The understanding of construction as a medium introduces the key concept of the appearance in architecture, closely related to the idealistic philosophy of Friedrich Schiller. The appearance should express the conceptual meaning of the work, which German-Swiss architects call the idea, so that the building does not have value in and of itself, but only in terms of its appearance. The Oberrealta Chapel by Christian Kerez, circa 1993, can be considered a sculpture in the landscape, closer to the visual arts than to architecture. The tension that arises between the ideal figure and the piece subjected to a subtle deformation confers a dynamic character onto the composition, intensifying the perceptual effect, according to Rudolf Arnheim’s theory of visual thought. The deformation in the service of the psychology of perception is a phenomenon that characterizes recent German-Swiss architecture. Martin Steinmann introduced the Forme Forte (Strong Form) concept to describe the architectural object known internationally as the Swiss Box. This concept is characterized by a predilection for all things monolithic, unitary and archetypal. The most substantial condition of a Forme Forte, however, is the configuration of a structuring element in the environment. Both the morphological basis of a Forme Forte and its ability to frame the place, correspond to the concepts of archetype and monument put forward by Rossi’s theory. The present thesis explores the sense of deformation in recent German-Swiss production, based on the School of Paspels by Valerio Olgiati, circa 1998 and the Roccolo Tower in Villa Garbald, by Miller&Maranta, circa 1998. Gottfried Semper’s tectonic theory and Adolf Loos’s reason for form constitute the theoretical foundation that links the existential activity of dwelling to the materiality of recent German-Swiss architecture. Semper’s tectonic theory laid the foundation for subsequent revisions of the German-Swiss traditional building systems. This influence was the basis for the Swiss avant-garde of Neues Bauen, which developed a functional rationalism during the 1920s and 30s that served as a non-symbolic grammatical foundation for the transition from classical order to materiality as a compositional tool. During the second half of the twentieth century, this architectural grammar helped consolidate the concept of the material base of the form. The revision of the regionalist and rationalist tradition, carried out by the generation of German-Swiss architects of the 1950s and 60s, constituted a substantial linguistic investigation. Rudolph Olgiati is the key figure of this period. The research was codified in terms of structuralism in the 1970s in ETHZ and influenced by the presence of Roland Barthes as a visiting professor. This revision was the basis of the uniquely German-Swiss tectonic design still in use today, as specifically illustrated by the work of Burkhalter & Sumi in this thesis. Gion Caminada's work in Vrin between 1995 and 2002 offers an extensive study on the Strickbau, which implements variations on a traditional system again and again, illustrating the endless possibilities of a language that paradoxically seems limited by the available resources in a remote Alpine setting. Finally, Jürg Conzett is the engineer with whom most architects in the Grisons region have developed their projects. Trained under Zumthor for 8 years, and a regular collaborator of Caminada, among others, Conzett is the reference point linking engineering with architecture in this thesis, essential in the context of this research.
Resumo:
Es de todos conocida la preponderancia de que gozaron las actividades deportivas en la civilización griega. En ninguna época que nos precediera se prestó tanta atención a las manifestaciones deportivas como en la sociedad helena, en estrecha relación con el arte o vida contemplativa. Hemos pretendido conocer qué era y qué significa el deporte en este período de la Antigüedad Clásica, a través del estudio de la cerámica griega como fuente imprescindible en el tema que nos ocupa. La cerámica, si bien no goza del valor estético y artístico de las artes mayores, si supone, en cambio, un testimonio inigualable de las costumbres y formas de vida de los griegos. En concreto y referente al tema deportivo, no se conoce ninguna otra manifestación artística que represente más y mejor que la cerámica griega las manifestaciones deportivas del hombre. Es notorio el interés que todas las historias deportivas han prestado y prestan por este capítulo importante de la historia de la humanidad. Sin embargo, nos ha llamado la atención el hecho de que en estas obras se encontrara ausente un pormenorizado estudio, en cuanto al tema deportivo, de los vasos griegos existentes en los museos españoles. En este sentido, hemos tomado como objeto de nuestra investigación los fondos de cerámica griega del Museo Arqueológico Nacional como museo más representativo de España. El presente trabajo consta, en primer lugar, de una exposición de los diferentes períodos en que podemos clasificar la cerámica griega y la descripción de sus más importantes caracteres estilísticos y artísticos. En segundo lugar, hemos pretendido dar a conocer los distintos tipos de vasos, según las formas, más usuales entre los griegos. En la segunda parte, hemos abordado con mayor amplitud y, también, con detalle la clasificación de los recipientes según los temas deportivos representados en su superficie. En un segundo tomo recogemos un valioso material fotográfico para complementar el estudio realizado.
Resumo:
El objetivo de esta tesis es poner de relieve cómo el desarrollo del cálculo de estructuras ha influido en la manera de concebir la forma arquitectónica y qué relaciones se establecen entre estructura (formal) y estructura resistente. Este modo de explicar el hecho arquitectónico, desde la relación arte-estructura, no es el más generalizado. Por lo que profundizar en él podría llegar a enriquecer la manera en la que se comprende la arquitectura. Por tanto, se parte de la base de que la técnica no es sólo un instrumento, un medio del que disponer, sino que es un proceso mediante el cual la abstracción se hace tangible. Con lo que se produce una retroalimentación entre lo universal, es decir, lo abstracto, y lo concreto, o sea, lo real. Además, esta investigación se centra en la estructura resistente, en tanto que se trata del único principio sine qua non de la tríada vitruviana. Sin embargo, no se incurre en el error de pensar que la arquitectura depende únicamente de la tecnología para su desarrollo; hay muchos más condicionantes que intervienen en ella, que van desde la expresión, hasta cuestiones sociológicas. La manera en la que los proyectistas diseñan se desarrolla en paralelo a la evolución de la técnica. Ahora bien, la meta de esta investigación consiste en dilucidar hasta qué punto la voluntad de los arquitectos e ingenieros es independiente de la tecnología. Para ello, se lleva a cabo un análisis desde dos puntos de vista. El primero plantea un desarrollo histórico de la evolución de la teoría del cálculo de estructuras en el que, a través del tiempo, se analizan las repercusiones formales que se han ido derivando de él, tanto en ingeniería, como en arquitectura. Se pretende, así, llevar a cabo una lectura de la historia para entender el presente y proyectar el futuro. La segunda visión que se plantea estudia el modo en el que los historiadores de la arquitectura moderna han entendido la noción de estructura resistente. Dado que se entiende que los críticos de arquitectura inf uyen en la manera de pensar y entender dicha disciplina. Para desarrollarla se tomó como referencia a Panayotis Tournikiotis y su libro La historiografía de la arquitectura moderna. Finalmente, se elabora una lectura transversal de ambos puntos de vista, con la intención de discernir la influencia de la técnica en la génesis de la arquitectura en el siglo XX. En ella se estudian algunos de los ejemplos más importantes de la arquitectura moderna, así como se intentan esclarecer las distintas maneras de proyectar en relación a la estructura resistente. A partir de todo lo anterior se pretende responder a la siguiente pregunta: ¿la manera en que los proyectistas plantean la relación entre estructura (formal) y estructura resistente ha sido la misma a lo largo de la Historia? Podría decirse que no. Dicha relación ha evolucionado desde el empirismo a la invención, pasando por la ciencia. En cada una de esas etapas el entendimiento, no sólo del comportamiento estructural de las construcciones, sino también del Imago Mundi, ha ido variando; lo que se ha plasmado en la relación entre estructura (formal) y estructura resistente en los edificios. RECENSIONE L’obiettivo della presente tesi è mettere in evidenza come lo sviluppo del calcolo strutturale ha inf uenzato il modo di concepire la forma architettonica e, che relazioni si stabiliscono tra struttura (formale) e struttura resistente. Questo modo di spiegare la questione architettonica, partendo dalla relazione arte-struttura, non è il più comune. Quindi, approfondire la ricerca su questo aspetto potrebbe arrivare ad arricchire la maniera in cui si capisce l’architettura. Per tanto, si parte da un principio di base ovvero che la tecnica non è soltanto uno strumento, un medio di cui disporre, ma che è un processo mediante il quale l’astrazione si fa tangibile. Con cui si produce una retroalimentazione tra l’universale, cioè, l’astratto e il concreto, ossia, il reale. Inoltre, questa ricerca si centra nella struttura resistente, in quanto si tratta dell’unico principio sine qua non della triade vitruviana. Eppure, non s’incorre nell’errore di pensare che l’architettura dipenda unicamente della tecnologia per il suo sviluppo; ci sono molti altri condizionanti che intervengono in essa, che vanno dalla espressione f no a questioni sociologiche. La maniera in cui i progettisti disegnano si sviluppa in parallelo alla evoluzione della tecnica. Tuttavia, l’obbiettivo della ricerca consiste nel cercare di chiarire f no che punto la volontà progettuale e ideativa degli architetti e degli ingegneri è indipendente della tecnologia. Per questo, si realizza un’analisi da due punti di vista. Il primo ipotizza uno sviluppo storico dell’evoluzione della teoria del calcolo strutturale in cui, attraverso del tempo, si analizzano le ripercussioni formali che si sono derivate da questo, sia in ingegneria sia in architettura. Si pretende così, realizzare una lettura della storia per capire il presente e progettare il futuro. La seconda visione che s’ ipotizza, studia il modo in cui gli storici dell’architettura moderna hanno capito la nozione di struttura resistente. Poiché si capisce che i critici di architettura inf uiscono nella maniera di pensare e capire questa disciplina. Per svilupparla si prese come riferimento Panayotis Tournikiotis e il suo libro La storiograf a dell’architettura moderna. Finalmente, si elabora una lettura trasversale di ambedue punti di vista, con l’intenzione di discernere l’inf uenza della tecnica nella genesi dell’architettura nel XX secolo. In questa si studiano alcuni degli esempi più importanti dell’architettura moderna, così come si tentano chiarif care le diverse maniere di progettare in relazione alla struttura resistente. Oltretutto quello precedente, si pretende rispondere alla seguente domanda: La maniera in cui i progettisti ipotizzano la relazione tra struttura (formale) e struttura resistente è stata la stessa lungo la storia? Potrebbe dirsi di no. Essa relazione si è evoluta dall’empirismo all’invenzione, passando per la scienza. In ogni una di queste tappe si cerca di comprendere, non soltanto il comportamento strutturale delle costruzioni, ma anche l’aspetto del Imago Mundi. Ció che é cambiato è la coesistenza tra struttura (formale) e struttura resistente negli edifici. ABSTRACT T e objective of this thesis is to highlight how the development of structural analysis has influenced the way of conceiving architectural form and what relationship exists between (formal) structure and resistant structure. T is way of explaining architecture, from the relationship between art and structure, is not the most generalized, which is why increasing our understanding of it can enrich the way in which architecture is understood. Therefore, the basis is that technique is not only an instrument, a medium to have, but rather a process through which abstraction becomes tangible. Because of this, a type of feedback is produced between what is universal, in other words, abstract, and concrete, real. Additionally, this research focuses on resistant structure in that it refers to the unique principal sine qua non of the Vitruvian triad. However, it does not err by accepting the idea that architecture depends only on technology for its development; there are many conditioners which intervene which include everything from expression to sociological issues. T e way in which builders design is developed parallel to the evolution of technique. T e goal of this investigation consists of explaining to what point the will of architects and engineers is independent from technology. For this, an analysis of two points of view is helpful. T e f rst proposes a historical development of the theory of structures in which, through time, formal repercussions that have derived from it, in engineering as well as in architecture, are analyzed. In this way, a historical reading is attempted in order to understand the present and predict the future. T e second vision that is proposed studies the manner in which historians of modern architecture have understood the notion of resistant structure, given that it is understood that the critics of architecture inf uence the way of thinking about and understanding this discipline. In order to develop it, Panayotis Tournikiotis and his book La historiografía de la arquitectura moderna was used as a reference. Finally, a transversal reading of both points of view is done with the intention of discerning the influence of technique in the genesis of architecture in the 20th century. In this reading, several of the most important examples of modern architecture are studied and an attempt is made at shedding light on the different ways of designing in relation to resistant structure. Using the previous discussion, one can attempt to respond to the following question: Has the way in which designers conceive the relationship between (formal) structure and resistant structure been the same throughout history? In fact, the answer is no, this relationship has evolved from empiricism into invention, while incorporating scientific elements. At each of the stages of understanding, structural behavior of constructions as well as that of the Imago Mundi has continually changed, which has been captured in the relationship between (formal) structure and resistant structure in buildings.
Resumo:
Se presenta la tesis doctoral, titulada ‘TRANS Arquitectura. Imaginación, Invención e individuación del objeto tecnico arquitectónico. Transferencia tecnológica desde la Industria del Transporte al Proyecto de Arquitectura [1900-1973]'’, que aborda la relación entre la Arquitectura y el Objeto Técnico durante la Modernidad.1 La temática de la tesis gravita en torno a la cultura técnica, la cultura material y la historia de la Tecnología del siglo XX. Hipótesis Se sostiene aquí la existencia de unas arquitecturas que se definen como Objetos Técnicos. Para demostrarlo se estudia si éstas comparten las mismas propiedades ontológicas de los objetos técnicos. Industria y Arquitectura La historia de la Arquitectura Moderna es la historia de la Industria Moderna y sus instalaciones industriales, sus productos y artefactos o sus procedimientos y procesos productivos. Fábricas, talleres, acerías, astilleros, minas, refinerías, laboratorios, automóviles, veleros, aviones, dirigibles, transbordadores, estaciones espaciales, electrodomésticos, ordenadores personales, teléfonos móviles, motores, baterías, turbinas, aparejos, cascos, chassis, carrocerías, fuselajes, composites, materiales sintéticos, la cadena de montaje, la fabricación modular, la cadena de suministros, la ingeniería de procesos, la obsolescencia programada… Todos estos objetos técnicos evolucionan constantemente gracias al inconformismo de la imaginación humana, y como intermediarios que son, cambian nuestra manera de relacionarnos con el mundo. La Arquitectura, al igual que otros objetos técnicos, media entre el hombre y el mundo. Con el objetivo de reducir el ámbito tan vasto de la investigación, éste se ha filtrado a partir de varios parámetros y cualidades de la Industria, estableciendo un marco temporal, vinculado con un determinado modo de hacer, basado en la ciencia. El inicio del desarrollo industrial basado en el conocimiento científico se da desde la Segunda Revolución Industrial, por consenso en el último tercio del siglo XIX. Este marco centra el foco de la tesis en el proceso de industrialización experimentado por la Arquitectura desde entonces, y durante aproximadamente un siglo, recorriendo la Modernidad durante los 75 primeros años del siglo XX. Durante este tiempo, los arquitectos han realizado transferencias de imágenes, técnicas, procesos y materiales desde la Industria, que ha servido como fuente de conocimiento para la Arquitectura, y ha evolucionado como disciplina. Para poder abordar más razonablemente un periodo tan amplio, se ha elegido el sector industrial del transporte, que históricamente ha sido, no sólo fuente de inspiración para los Arquitectos, sino también fuente de transferencia tecnológica para la Arquitectura. Conjuntos técnicos como los astilleros, fábricas de automóviles o hangares de aviones, individuos técnicos como barcos, coches o aviones, y elementos técnicos como las estructuras que les dan forma y soporte, son todos ellos objetos técnicos que comparten propiedades con las arquitecturas que aquí se presentan. La puesta en marcha de la cadena móvil de montaje en 1913, se toma instrumentalmente como primer foco temporal desde el que relatar la evolución de numerosos objetos técnicos en la Primera Era de la Máquina; un segundo foco se sitúa en 19582, año de la creación de la Agencia Espacial norteamericana (NASA), que sirve de referencia para situar la Segunda Era de la Máquina. La mayoría de los objetos técnicos arquitectónicos utilizados para probar la hipótesis planteada, gravitan en torno a estas fechas, con un rango de más menos 25 años, con una clara intención de sincronizar el tiempo de la acción y el tiempo del pensamiento. Arquitectura y objeto técnico Los objetos técnicos han estado siempre relacionados con la Arquitectura. En el pasado, el mismo técnico que proyectaba y supervisaba una estructura, se ocupaba de inventar los ingenios y máquinas para llevarlas a cabo. Los maestros de obra, eran verdaderos ‘agentes de transferencia tecnológica’ de la Industria y su conocimiento relacionaba técnicas de fabricación de diferentes objetos técnicos. Brunelleschi inventó varia grúas para construir la cúpula de Santa Maria dei Fiori (ca.1461), seguramente inspirado por la reedición del tratado de Vitruvio, De Architectura (15 A.C.), cuyo último capítulo estaba dedicado a las máquinas de la arquitectura clásica romana, y citaba a inventores como Archimedes. El arquitecto florentino fue el primero en patentar un invento en 1421: una embarcación anfibia que serviría para transportar mármol de Carrara por el río Arno, para su obra en Florencia. J. Paxton. Crystal Palace. London 1851. Viga-columna. Robert McCormick. Cosechadora 1831. 2ª patente, 1845. La Segunda Revolución Industrial nos dejó un primitivo ejemplo moderno de la relación entre la Arquitectura y el objeto técnico. El mayor edificio industrializado hasta la fecha, el Crystal Palace de Londres, obra de Joseph Paxton, fue montado en Londres con motivo de la Gran Exposición sobre la Industria Mundial de 1851, y siempre estará asociado a la cosechadora McCormick, merecedora del Gran Premio del Jurado. De ambos objetos técnicos, podrían destacarse características similares, como su origen industrial, y ser el complejo resultado de un ensamblaje simple de elementos técnicos. Desde la entonces, el desarrollo tecnológico ha experimentado una aceleración continuada, dando lugar a una creciente especialización y separación del conocimiento sobre las técnicas antes naturalmente unidas. Este proceso se ha dado a expensas del conocimiento integrador y en detrimento de la promiscuidad entre la Industria y la Arquitectura. Este es, sin lugar a dudas, un signo consustancial a nuestro tiempo, que provoca un natural interés de los arquitectos y otros tecnólogos, por las transferencias, trans e inter-disciplinareidades que tratan de re-establecer los canales de relación entre los diferentes campos del conocimiento. La emergencia de objetos técnicos como los vehículos modernos a principios del siglo XX (el automóvil, el trasatlántico, el dirigible o el aeroplano) está relacionada directamente con la Arquitectura de la Primera Era de la Máquina. La fascinación de los arquitectos modernos por aquellas nuevas estructuras habitables, se ha mantenido durante más de un siglo, con diferente intensidad y prestando atención a unos objetos técnicos u otros, oscilando entre el dominio del valor simbólico de los vehículos como objetosimágenes, durante el periodo heroico de la Primera Era de la Máquina, y la mirada más inquisitiva durante la Segunda, que perseguía un conocimiento más profundo de la organización de los mismos y del sistema técnico en el que estaban incluidos. La relación homóloga que existe entre arquitecturas y vehículos, por su condición de estructuras habitables, es algo de sobra conocido desde que Le Corbusier utilizara aquellas imágenes de barcos, coches y aviones para ilustrar su manifiesto Vers une architecture, de 1923. Los vehículos modernos han sido los medios con los que transmitir los conceptos que ansiaban transformar las propiedades tradicionales de la Arquitectura, relativas a su factura, su habitabilidad, su duración, su funcionalidad o su estética. Destaca particularmente el caso del automóvil en las décadas de los años 30 y 50, y los vehículos del programa espacial en las décadas de los 60 y 70. El conocimiento y la documentación previa de estos hechos, fueron un buen indicio para identificar y confirmar que el sector industrial del transporte, era un especialmente trascendente y fértil proveedor de casos de transferencia tecnológica para la Arquitectura. La tradición Moderna inaugurada por Le Corbusier en los años 20, ha sido mantenida y defendida por una multitud de arquitectos modernos como Albert Frey, Richard Neutra, Ralph Soriano, Charles Eames o Craig Ellwood, cuyo trabajo, animado por el legado de anteriores tecnólogos como Bucky Fuller o Jean Prouvé, fue fundamental y referencia obligada para la siguiente generación de arquitectos como Cedric Price, Archigram, Norman Foster, Richard Rogers, Renzo Piano, Jean Kaplicky o Richard Horden, entre otros. Todos ellos han contribuido a engrosar el imaginario del objeto técnico, aportando sus obras arquitectónicas. Estos arquitectos que aparecen repetidamente en el discurrir de la tesis, pertenecen a un mismo linaje, y son agrupados según una estructura ‘genealógica’, que se ha denominado ‘Estirpe Técnica’. Unidos por intereses comunes y similares enfoques o actitudes ante el proyecto de arquitectura, entendida como objeto Técnico, han operado mediante la práctica de la transferencia tecnológica, sin limitarse a las técnicas compositivas propias de la disciplina arquitectónica. Durante la investigación, se ha recopilado una selección de menciones explícitas -hechas por arquitectos- sobre otros objetos técnicos para referirse a la Arquitectura, mostrando las constantes y las variaciones de sus intereses a lo largo del siglo, lo que nos ha llevado a conclusiones como por ejemplo, que los conjuntos técnicos (fábricas de zepelines, aviones, automóviles o trasatlánticos) eran tomados por los arquitectos de la primera Modernidad, como un modelo imaginario, formal y compositivo, mientras que los de la Segunda Era de la Máquina los tomaban como modelo espacial y organizativo para la arquitectura. La mencionada estirpe de tecnólogos incluye líneas de descendencia conocidas, como: EiffelSuchovBehrens GropiusMiesLeCorbusierLodsProuve, en la Europa continental, o una rama británica como: LoudonPaxtonWilliamsStirlingGowan SmithsonsPriceArchigramFosterRogersPiano KaplickyHorden. También podemos encontrar conexiones intercontinentales como Fuller EamesRudolphFosterRogers, o ramificaciones menos previsibles como: LeRicolaisKahn PianoKaplicky, o LeCorbusierFreyLacaton Vassal… Seguramente muchos más merecerían incluirse en esta lista, y de hecho, la tesis asume la imposibilidad de incluirlo todo (por motivos prácticos) aunque contempla la posibilidad de ser ampliada en un futuro. Con lo aquí incluido, se pretende mostrar la continuidad en los enfoques, planteamientos y técnicas de proyectos aplicadas, de los que podemos deducir algunas conclusiones, como por ejemplo, que en los periodos inmediatamente posteriores a las dos Guerras Mundiales, aumentó la intensidad de aportaciones de nuevas imágenes de vehículos, al imaginario del objeto técnico utilizado por los arquitectos, a través de publicaciones y exposiciones. Hoy, cien años después de que Ford pusiera en marcha la cadena móvil de montaje, aún encontramos viva esta tradición en las palabras de un arquitecto, Richard Horden, cuyo trabajo porta consigo –como la información embebida en los elementos técnicos- toda una cultura técnica de una tradición moderna. Horden representa uno de los exponentes de la que he denominado estirpe de tecnólogos. Es por ello que he querido concluir la tesis con una entrevista, realizada en Mayo de 2015, en su estudio de Berkeley Square en Londres (ver Apéndices). Guías Para el desarrollo de la presente tesis, se ha tomado, como principal obra de referencia, otra tesis, titulada El modo de existencia de los objetos técnicos, leída y publicada en 1958 por el filósofo francés Gilbert Simondon [1924-89], dedicada a la ontología del objeto técnico. Esta obra enmarca el enfoque intelectual de la tesis, que entronca con la fenomenología, para movilizar una visión particular de la Arquitectura, a la que sirve como modelo de análisis ontológico para estudiar sus procesos de génesis, invención e individuación. Para el desarrollo de éstos, se ha utilizado como complemento bibliográfico, otra obra del mismo autor, titulada Imaginación e invención 1965-66. En cuanto a las fuentes historiográficas disciplinares, se ha elegido utilizar a Reyner P. Banham [1922-1988] y a Martin E. Pawley [1938-2008] como guías a través de la arquitectura del siglo XX. Sus crónicas sobre la Primera y Segunda Era de la Máquina3 y su obra crítica, han servido como índices desde los que reconstruir el imaginario del objeto técnico moderno, y del que aprovisionarse de proyectos y obras de Arquitectura como casos de estudio para la tesis. Estas obras han servido además como índices de otra bibliografía, que ha sido complementaria a la de éstos. Objetivos de la Tesis El principal objetivo de la tesis es demostrar la hipótesis: si una obra de arquitectura puede ser considerada un objeto técnico y bajo qué condiciones, construyendo un criterio que permita reconocer cuándo una obra de Arquitectura responde a la definición de objeto técnico. Otro objetivo es demostrar la importancia y potencia de la Transferencia tecnológica en el proceso evolutivo de la Arquitectura, y para ello se presentan ejemplos de una metodología de proyecto por ensamblaje, que Martin Pawley denominaba ‘Design by Assembly’. También es un objetivo el de reconstruir un Atlas del Imaginario del objeto técnico moderno, con el fin de conocer mejor las causas, razones y finalidades que llevaron a los arquitectos modernos a perseguir una arquitectura como objeto técnico. Este Atlas permite relacionar panópticamente los distintos objetos técnicos entre sí, revelando la verdadera importancia y trascendencia de aquéllos y las arquitecturas con las que se relacionan. En él, las arquitecturas vuelven a situarse en el contexto más extenso y complejo de la industria y la historia de la tecnología, al que siempre pertenecieron. De este modo, éstas son capaces de desvelar todo el conocimiento -en forma de información- que portan en su propio código ‘genético’, desplegando capítulos completos de cultura tecnológica, tan antigua como la Humanidad y en constante y creciente evolución. Estructura de la tesis Tras una Introducción en la que se presentan algunos de los conceptos principales que se instrumentalizan en la tesis sobre la ontología Simondoniana del objeto técnico y sobre la transferencia tecnológica aplicada al proyecto de Arquitectura, el texto principal de la tesis consta de tres partes: La primera se dedica a la Imaginación, una segunda parte a la Invención y una tercera a Individuación o evolución del objeto técnico. Se termina con una Discusión de la tesis y un apartado de Conclusiones. En la Introducción al objeto técnico, éste se define ontológicamente y se distinguen sus diferentes categorías (conjuntos técnicos, individuos técnicos y elementos técnicos). Se explica el proceso de génesis del objeto técnico y sus fases de imaginación, invención e individuación. También se presentan los conceptos de transducción, tecnicidad y sistema técnico, fundamentales para entender el concepto de transferencia tecnológica que se desarrollará después. La concretización, explica el modo particular de individuación y evolución de los objetos técnicos, un proceso por el que las diferentes partes de un objeto técnico, se integran y tienden hacia la propia convergencia. Aquí se comprueba la efectividad del concepto simondoniano de Transducción, como señal o información transmitida y transformada, y se relaciona con la Transferencia Tecnológica - un proceso sinergético, por el que un sector industrial se beneficia del desarrollo de otro sector- a la que se han referido explícitamente arquitectos e historiadores para explicar sus obras, durante la Segunda Era de la Máquina, y que es determinante para el desarrollo de la Industria. La transferencia tecnológica sería la transmisión del conjunto de conocimientos sobre la técnica, que incluyen su esfera fáctica, pero también la esfera sensible de la experiencia. En su aplicación a la arquitectura, las transferencias se han clasificado según tres tipos: Eidéticas, Tectónicas, Orgánicas. En la primera parte dedicada a la Imaginación del objeto técnico arquitectónico se realiza una reconstrucción ‘arqueológica’ –y parcial- del imaginario del objeto técnico moderno, con la intención de conocer mejor su génesis y la relación con otros objetos técnicos. Las fuentes de ese imaginario se buscan en las instalaciones de la Industria de principios de siglo XX, en particular en las fábricas de vehículos, con la finalidad de comprobar hasta qué punto, esos objetos técnicos fueron importantes para imaginar la Arquitectura moderna. La reconstrucción se continúa hasta la Segunda Era de la Máquina, cuando una nueva mirada más inquisitiva y precisa, se dirige a otras fábricas, vehículos y componentes, interesándose por sus cualidades materiales y organizativas. Transferencias Eidéticas, que operan desde un conocimiento intuitivo y son útiles para transmitir información sobre la esencia de un objeto técnico que sirve de fuente. Conceptos abstractos se transmiten por medio de las imágenes—objeto, para producir una transformación en su equivalente arquitectónico. Fruto de la investigación, se han detectado un grupo de conceptos que han sido objeto de transferencias tecnológicas de naturaleza eidética, provenientes del imaginario del objeto técnico moderno: FABRICADO, HABITABLE, FUNCIONAL, EFICIENTE, OBSOLESCENTE y BELLO. En la segunda parte dedicada a la Invención del objeto técnico arquitectónico, las transferencias también pueden ser Tectónicas, cuando lo que se transmite es una técnica constructiva o estructural aplicada mediante MATERIALES artificiales (como los metales, los composites como el ferrocemento, y el plywood, o las aleaciones como el aluminio) o mediante el ensamblaje de ESTRUCTURAS o partes componentes de otro objeto técnico, (como cascos, fuselajes, carrocerías o aparejos) y tiene como resultado la invención de un nuevo objeto técnico arquitectónico. En la tercera parte dedicada a la individuación, se abordan las transferencias ORGÁNICAS, lo que se transfiere es una técnica organizativa, aplicada a través de PROCEDIMIENTOS que definen la actividad del arquitecto como tecnólogo e inventor de objetos técnicos. Estos procedimientos tienen un efecto transformador en tres instituciones tradicionales para la Arquitectura: la Escuela, el Estudio y la Obra, y sus resultados se resumen en nuevos modelos de organización de la Educación de la Arquitectura, con la aparición de los Talleres de proyectos; nuevos modelos de organización del ejercicio de arquitecto: la Oficina técnica; nuevos modelos de organización del espacio, basados en la organización espacial de la Industria, que da lugar a patrones o Matrices espaciales; un nuevo modelo de organización del proyecto, que utiliza las herramientas gráficas de la industria y el ensamblaje como metodología; y un nuevo modelo de producción arquitectónica, basado en la Industrialización. Tras explicar los conceptos y la génesis del ensamblaje y el montaje, se presenta el proyecto por ensamblaje (Design by assembly) como un método que promueve la invención arquitectónica. Se demuestra utilizando algunos casos analizados en la tesis, en los que se ha realizado alguna transferencia conceptual, constructiva u organizativa. Tras analizar las arquitecturas estudiadas en la tesis, se ha utilizado el método genético propuesto por Simondon para comprender cada evolución particular, reconstruyendo las líneas genealógicas hasta sus ancestros, e identificando una serie de linajes genéticos, que corresponderían con los conjuntos técnicos estudiados en la tesis: el astillero, la fábrica de coches, y la fábrica de aeronaves: los Ancestros de la Modernidad. Los sistemas de organización espacial de estos conjuntos técnicos, están directamente relacionados con el objeto técnico que se produce en él. A partir de ellos se definen una serie de matrices operativas (MILL, SHOP, SHED), que sirven para hacer una taxonomía del objeto técnico arquitectónico. Esto se ejemplifica con algunos proyectos de Norman Foster, Richard Rogers, Renzo Piano, Nicholas Grimshaw, Jean Kaplicky y Richard Horden. Tesis: Comprobación de la hipótesis Simondon definía ontológicamente el Objeto técnico como aquello de lo que existe génesis y que desarrolla una tendencia hacia la solidaridad y unidad. Para que una Arquitectura pueda ser reconocida como un Objeto técnico, se deben dar una serie de condiciones, en las sucesivas fases que intervienen en su modo de existencia: Imaginación. Estas arquitecturas remiten a un imaginario protagonizado por imágenes-objeto de otros objetos técnicos (conjuntos técnicos, individuos técnicos y elementos técnicos). Esas imágenes-objeto vehiculizan una transferencia eidética de los objetos técnicos que simbolizan. Invención. Estas arquitecturas son el resultado de transferencias tectónicas, que se producen durante el proceso de proyecto, mediante el ensamblaje de materiales, componentes o procedimientos, utilizados en la industria para la producción de otros objetos técnicos. Individuación. Estas arquitecturas evolucionan y se individualizan por concretización, un proceso por el que los objetos técnicos se organizan para seguir su tendencia hacia la integración de sus partes, con el fin de alcanzar la convergencia de funciones en una única estructura. Esta integración tiende hacia la naturalización del objeto técnico, mediante la inclusión simbiótica de sus medios naturales asociados. En este caso, veremos cómo se ha producido transferencias orgánicas, o lo que es lo mismo, cómo los objetos técnicos –en el nivel de los conjuntos técnicos- se han tomado como modelo de organización por la arquitectura. Tras comprobar que de ellas existe una génesis, que evoluciona por las fases de imaginación e invención y concretización, se analiza su imaginario, su materialidad, sus estructuras y su organización, con el fin de detectar patrones y principios organizativos comunes a otros objetos técnicos. Interés de la tesis Desde el comienzo del nuevo siglo, diversos autores han demostrado un renovado interés por definir qué es el proyecto, qué lo constituye para qué sirve. Las aproximaciones al tema provienen de la filosofía analítica (Galle, 2008) o de la filosofía de la tecnología (Verbeek, 2005; Vermaas, 2009) y a menudo versan sobre la relación entre diseño y la cultura material (Dorschel 2003, Boradkar 2010 o Preston 2012). Es importante indicar el reciente y también creciente interés suscitado por la obra del filósofo francés, Gilbert Simondon [1924-1989], reconocida por su importante contribución a la filosofía de la técnica y la fenomenología, y por la influencia en el pensamiento de filósofos como Gilles Deleuze, autor presente en multitud de tesis doctorales e investigaciones teóricas llevadas a cabo en las principales escuelas de Arquitectura de todo el mundo desde los años 90 hasta el presente. La reedición y traducción de la obra de Simondon (ing. 1980, esp. 2008) ha recibido la atención de filósofos actuales como Paolo Virno, Bruno Latour o Bernard Stiegler, que siguen recurriendo a su estudio y análisis para avanzar en su pensamiento, estando por tanto presente en el debate contemporáneo sobre la técnica. Tras su reciente traducción al español, el pensamiento de Simondon ha despertado un gran interés en América Latina, como demuestra la organización de varios congresos y simposios, así como la proliferación de publicaciones en torno a su obra y pensamiento. Las futuras traducciones del resto de sus principales obras, asegurarán una introducción cada vez mayor en la comunidad académica. Se ha procurado presentar una mirada alternativa de la Historia de la Arquitectura Moderna, utilizando como guía a un cronista como Reyner Banham. La Era de la Máquina se ha cruzado con la Mecanología y el “vitalismo técnico” de Simondon, obteniendo como resultado una interpretación fresca, renovada y optimista de algunas de las más importantes obras de Arquitectura del siglo XX, que seguro contribuirán al desarrollo de la del siglo XXI, inmerso ya en el cambio de paradigma hacia la sostenibilidad y la ecología. ABSTRACT 'TRANS architecture. Imagination, invention and technical individuation of the architectural technical object. Technology transfer from the Transport Industry to Architectural Design [1900- 1973]' is a thesis dealing with the relationship between Architecture and the Technical Object during Modernity5. The theme of the thesis revolves around the technical culture, material culture and the history of twentieth-century technology. Hypothesis Held here is the existence of some architectures defined as technical objects. A study has been developed to prove if those architectures share the ontological properties of a technical object. Industry and Architecture The history of Modern Architecture is also the history of modern industry and its facilities, its products and devices, its procedures and production processes. Factories, workshops, steel mills, shipyards, mines, refineries, laboratories, cars, yachts, airplanes, airships, shuttles, space stations, home appliances, personal computers, mobile phones, motors, batteries, turbines, rigs, hulls, chassis, bodies, fuselages , composites and synthetic materials, the assembly line, modular manufacturing, the supply chain, process engineering, the planned obsolescence ... All these technical objects are constantly evolving thanks to the inconsistency of the human imagination and, as our intermediates, keep changing our way of relating and being in the world. Architecture, alike other technical objects, mediates between man and the World. In order to frame the vast field of the research, it has been filtered according to various parameters and qualities of Industry, establishing also a time frame which is related to a particular science-based way of making. The start of an industrial development, based on scientific knowledge is given from the Second Industrial Revolution -by consensus on the last third of the nineteenth century. This frame puts the focus of the thesis in the process of industrialization experienced by the Architecture of at least one century, and tours through Modernity during the first 75 years of the twenieth century. During this time, architects have made transfers of images, techniques, processes and materials from Industry, serving as a source of knowledge and thus allowing Architecture to evolve as a discipline. To reasonably address the enormous scope of the thesis, the industrial sector of transportation has ben chosen. It is not only a historical source of inspiration for architects, but also a traditional source of technology transfer for Modern Architecture. Technical sets such as shipyards, automobile factories or aircraft hangars, technical individuals as boats, cars or planes, and technical elements like the structures shaping and supporting them, are all technical objects which share properties with the architectures here presented. The launch of the moving assembly line in 1913, is instrumentally taken as a first time focus, from which to describe the evolution of many technical objects in the First Machine Age; a second focus could be found in 19586, year of the creation of the North American Space Agency (NASA), serving as a reference to the Second Machine Age. Most architectural technical objects used to test the hypothesis, gravitate around this second focus, in a range of plus or minus 25 years, with a clear intention to synchronize the time for action and time of thought. Architecture and Technical Object Technical objects have always been related to Architecture. In the past, the same technician who planned and oversaw a building structure, invented the devices and machines to carry them out. The foremen were the true 'technology transfer agents' from Industry. Their knowledge naturally related different manufacturing techniques to make diverse technical objects. Brunelleschi invented various cranes to build the dome of Santa Maria dei Fiori in Florence (ca.1461). Probably inspired by the reedition of Vitruvius’ treaty De Architectura (15 BC), whose last chapter was dedicated to the machines of classical Roman architecture and quoted inventors as Archimedes, the florentine architect was the first to patent an invention in 1421: an amphibious craft serving as a means of transportation for Carrara marble along the Arno river. At the daw of the Second Industrial Revolution, whose development was based on the scientific knowledge, we find a primitive modern example of the relationship between Architecture and a Technical Object: The Crystal Palace, built in London for the Great Exhibition of 1851 World Industry and designed by Joseph Paxton, was the largest to date industrialized building, and it will be always associated with the McCormick Reaper, worthy of the Grand Jury’s Prize. Similar characteristics could be emphasized of both technical objects, such as their industrial origin and for being be the complex result of a simple assembly of technical elements. Since then, technological development has experienced a continued acceleration, resulting in an increasing specialization and separation of knowledge about techniques which were naturally attached in the past. This process has happened at the expense of an integrative knowledge and against promiscuity between Industry and Architecture. This is, undoubtedly, an inherent sign of our time, which causes the natural and interest of architects and other technicians about transfers, trans-disciplinarity and inter-disciplinarity, as a reaction to reestablish channels of relationships between these different fields of knowledge. The emergence of technical objects as modern vehicles in the early twentieth century (the car, the Ocean liner, the airship or the airplane) is directly related to the Architecture of the First Machine Age. Modern architects’ fascination for those new ‘inhabitable’ structures has been maintained for over a century, with different intensity and paying attention to one and other technical objets, ranging from the domain of the symbolic value of the vehicles as objectsimages, during heroic period of the First Machine Age, to the more inquisitive glance characterizing the Second Machine Age, which sought a deeper understanding of the organization of such objects and the technical system to which they belonged. The periods immediately following both World Wars, showed a concentrated effort to bring new images of vehicles to the imaginary of architects, by means of publications and exhibitions. The homologous relationship between architectures and vehicles, in their capacity as living structures, is something well known since Le Corbusier used the images of cars, boats and airplanes to illustrate his manifesto, Towards an architecture in 1923. Modern vehicles have been the means by which to convey the concepts eager to transform the traditional attributes of Architecture: those relating to its manufacture, habitability, duration, functionality or aesthetics. The automobile stands out during the 30s and 50s, and the new vehicles of the Space Program satnd in the 60s and 70s. The prior knowledge and documentation of these events were a good indication to identify the industrial sector of Transportation as one of especial importance and as a fertile provider of technology transfer cases for Architecture. The Modern tradition, inaugurated by Le Corbusier in the 20s, has been maintained and defended by a host of modern architects like Albert Frey, Richard Neutra, Ralph Soriano, Charles Eames and Craig Ellwood, whose work - inspired by the legacy of previous technologists as Bucky Fuller or Jean Prouvé- was fundamental and a mandatory reference for the next generation of architects like Cedric Price, Archigram, Norman Foster, Richard Rogers, Renzo Piano, Jean and Richard Horden Kaplicky, among others. They have all contributed to increase the imaginary of the technical object, adding to it their architectural works. In the passage of the thesis, we repeatedly find a number of architects, who have been grouped according to a 'genealogical' structure, which has been called 'Technical Lineage'. Gathered by common interests and similar views or attitudes to the architectural design, understood as a technical object, they have operated through the practice of technology transfer, without limiting itself to specific compositional techniques of the architectural discipline. During the investigation, a selection of explicit references made by those architects, about other technical objects referring to their Architecture, has been compiled, showing constants and variations in their interests throughout the century, which has led to conclusions such as, having technicians sets (zeppelins factories, airships factories, car factories and shipyards) been taken by the architects of the first Modernity, as their main formal, compositional and imaginary models, while the Second Machine Age had taken them as a spatial and organizational model for their architecture. The above mentioned lineage of technologists includes weel-known ‘seed lines’ as: Eiffel- Suchov-Behrens, Gropius-Mies-LeCorbusier- Lods-Prouve, in continental Europe; British branches as Loudon-Paxton-Williams-Stirling- Gowan-Smithsons-Price-Archigram-Foster- Rogers-Piano-Kaplicky-Horden. And we could also find intercontinental connections as Fuller- Eames-Rudolph-Foster-Rogers, or other less predictable ramifications as LeRicolais-Kahn Piano-Kaplicky, or LeCorbusier-Frey-Lacaton & Vassal... Many more would surely deserve to be included in this list, and indeed, the thesis assumes the impossibility of including them all (for practical reasons) and even contemplates possible future extensions. The material included herein is to demonstrate the continuity in the approaches, statements and in the applied architectural design techniques, from which we can draw some conclusions. Today, one hundred years after Ford put up the moving assembly line, we still find this tradition alive in the words of the architect Richard Horden, whose work carries with it –as with the information embedded in every technical element- the whole techncial culture of a modern tradition. Horden is represented here as one of the exponents of what I have called the lineage of technologists. That is why I wanted to conclude the thesis with an interview to Richard Horden, held in May 2015 in his studio in London's Berkeley Square (see Appendices). Guides For the development of this thesis, another thesis, entitled: The mode of existence of technical objects, is taken as the main reference work. Read and published in 1958 by the French philosopher Gilbert Simondon [1924- 1989], it was dedicated to the ontology of the technical object. This work frames the intellectual approach of the thesis, which connects with phenomenology to mobilize a particular vision of Architecture. It is used as a model of ontological analysis to study its genesis, invention and evolutionary processes. To develop these, another work by the same author, titled Imagination and Invention (1965- 1966) has been used as a bibliographical complement. As for the disciplinary historical sources, Reyner P. Banham [1922-1988] and Martin E. Pawley [1938-2008] have been chosen as guides through the modern Architecture of the twentieth century. Their cronical reports on the First and Second Machine Age and their critical works have served as an index from which to reconstruct the imaginary of the modern technical object in the Machine Age7, and to stock up on projects and works of architecture, used as case studies for the thesis. These works have also been used as triggers for other literatures, which has been complementary to the former. Objectives of the Thesis The main objective of the thesis is to prove its hypothesis: if a work of architecture can be considered a technical object and under what conditions, building then a criterion for recognizing when a work of architecture meets the definition of a technical object. Another aim is to demonstrate the importance and power of Technology Transfer in the evolutionary process of Architecture, and to do it, some examples of a methodology for architectural design that Martin Pawley called 'Design by Assembly' are presented. It is also an objective to reconstruct an Atlas of the imaginary of the modern technical object, in order to better understand the causes, reasons and purposes that led modern architects to pursue architecture as a technical object. This Atlas allows to panoptically relate the various technical objects, revealing the true importance and significance of those and the architecture with whom they interact. Architectures are again at the largest and most complex industrial context and the history of technology, which always belonged. Thus, they are able to reveal all the knowledge-in the shape of information-carried in their own 'genetic' code, displaying full chapters of technological culture as old as mankind and constantly growing and evolving. Thesis: Proving the Hypothesis Simondon ontologically defined the technical object as ‘that of which genesis exists’ and that develops ‘a tendency towards solidarity and unity’. For an architecture to be recognized as a technical object, a number of conditions should be given, in the successive phases involved in their mode of existence: Imagination. These architectures refer to an imaginary featuring images-object other technical objects (technical sets, technical individuals and technical elements). These images are the means to an eidetic transfer of the technical objects which they symbolize. Invention. These architectures are the result of tectonic transfers, which occur during the architectural design process, by assembling materials, components or procedures used in industry for the production of other technical objects. Individuation. These architectures evolve and are individualized by ‘concretization’, a process leading to the full integration of its parts and aiming the full convergence of its functions into a single structure. This integration tends towards the naturalization of the technical object, by means of a symbiotic incorporation of their associated milieus. After checking if there is a genesis of them, which evolves through the phases of imagination and invention and concretization, their imaginary, materiality, structure and organization are analyzed in order to detect patterns and common organizational principles to other technical objects counterparts. Structure The main text of the thesis consists of three parts. Before there is an Introduction to the main concepts that are exploited in the thesis on ontology Simondonian technical object, and technology transfer applied to Architecture. Then a first part covers the Imaginary of the modern technical object, a second part is dedicated to the Invention and a third part to the individuation process The thesis ends with a section for the Discussion and the Conclusions. The Introduction to the technical object, this is ontologically defined and its different categories are distinguished. The process of genesis of the technical object and the phases of imagination, invention and indivuation are explained. Concepts as Transduction, Technicality and Technical system are presented for being fundamental to understand the concept of Technology Transfer that will take place later. The concretization is explained as the particular mode of individuation and evolution of technical objects, a process by which the different parts of a technical object, are integrated and begin a tendency towards a convergence in itself. The first part, dedicated to the Imagination of the architectural technical object presents a parcial "archaeological" reconstruction the imaginary of the modern technical object, intended to better understand its genesis and the relationship with other technical objects. The imaginary sources are searched in the premises of the Industry of the early twentieth century, and particularly in the factories of modern vehicles, in order to see, to what extent these technical objects were important to imagine modern architecture. The reconstruction is continued until the Second Machine Age, when a new, more inquisitive and precise gaze turns to other factories, other vehicles and other components and materials, inquiring now about their organizational qualities. The second part is devoted to the Invention of the architectural technical object. The effectiveness of the simondonian concept of Transduction is checked: a transmitted and transformed sign or information, which relates to Technology Transfer, a synergetic process by which an industrial sector benefits from the development of another sector, to which some architects and historians have explicitly referred to explain their works during Machine Age, and which is crucial for the development of the industry. Technology transfer would be the transmission of a set of information or knowledge about technique, including the factual sphere of technique, but also the sensitive sphere of experience. In their application to Architecture, these transfers have been classified according to three types: Eidetic, Tectonic and Organic. Eidetic Transfers operate from an intuitive knowledge and are useful for transmitting information about the essence of the technical object serving as a source. Abstract concepts are transmitted through the object-images to produce an equivalent transformation in Architecture. A group of concepts that have been the subject of technology transfers of eidetic nature, and have been originated in the imaginary of the modern technical object, have been detected as a result of the research: FABRICATED, INHABITABLE, FUNCTIONAL, EFFICIENT, OBSOLESCENT, and BEAUTIFUL. The transfers can also be Tectonic when, that which is transferred is a constructive or structural technique, applied through artificial MATERIALS such as metals, composites as the ferrocement, or plywood, or alloys such as aluminum; or by means of the assembly of STRUCTURES or parts of other technical objects such as hulls, fuselages, car bodies or rigs, resulting in the invention of a new architectural technical object. In the case of ORGANIC transfers, what is transferred is an organizational technique, applied by means of a set of PROCEDURES defining the activity of the architect as a technologist and inventor of technical objects. These procedures have a transformative effect on three traditional institutions for Architecture: the School, the Atelier and the Work, and the results are summarized in new models of organization of the Education of Architecture, with the onset of the Architectural Design Studios or workshops; new models of organization of the practice of architect: the technical office; and new models of space organization, based on the spatial organization of the industry, resulting in spatial patterns or spatial matrices; a new model of organization of the project, which uses graphical tools and industrail protocols as the assembly as a methodology; a new model of architectural production based on the industrialization. After explaining the concepts and the genesis of assembly and montage, Design by assembly is presented as a method that promotes architectural invention, and is shown using some case studies analyzed in the thesis, in which there has been made some conceptual, constructive or organizational transfer. After analyzing the architectures studied in the thesis, genetic method proposed by Simondon was used to understand every particular evolution, reconstructing their genealogical lines up to their ancestors, identifying a series of genetic lineages, which correspond to the technical sets studied in the thesis : the shipyard, the car factory, and aircraft factory. The real ancestors of Modernity. The spatial organization systems of these technical sets are directly related to the technical object that is fabricated within them. From that point, a number of operational matrices are defined (MILL, SHOP, SHED) and used to make a taxonomy of the architectural technical object. This is exemplified by some projects by architects as Norman Foster, Richard Rogers, Renzo Piano, Nicholas Grimshaw, Jean and Richard Horden Kaplicky. Interest of the thesis Since the beginning of the new century, several authors have shown a renewed interest in defining what a project is, how it is constituted and what it is for. The approaches to the subject are brought from analytic philosophy (Galle, 2008) or from the philosophy of technology (Verbeek, 2005; Vermaas, 2009) and they often speak about the relationship between design and material culture (Dorschel 2003, 2010 or Preston Boradkar 2012). It is also important to note the recent and growing interest in the work of French philosopher Gilbert Simondon [1924-1989], mainly known for its important contribution to the philosophy of technology and phenomenology of the technical object, and the influence on the thinking of contemporary philosophers as Paolo Virno, Bruno Latour or Gilles Deleuze, being the latter a author present in many doctoral theses and theoretical research conducted at major architecture schools around the world since the 90s to the present. The republication and translation of the work of Simondon (eng. 1980, spn. 2008) has received the attention from current philosophers such as Bernard Stiegler who continues to use its study and analysis to advance his thinking, thus being present in the contemporary debate about the technique. After its recent translation into Spanish, the thought of Simondon has aroused great interest in Latin America, as evidenced by the organization of various conferences and symposia, as well as the proliferation of publications about his work and thought8. Future translations of the rest of his major works, will ensure increased introduction in the academic community. Efforts have been made to present an alternative view of the History of Modern Architecture, using a reporter as Reyner P.Banham as a guide. The Machine Age intersects Simondon’s mechanology and his "technical vitalism", resulting in a fresh, renewed and optimistic interpretation of some of the most important works of Architecture of the twentieth century, which will surely contribute to the development of this century’s Architecture, already immersed in the paradigm shift towards sustainability and ecology.
Resumo:
La Tesis estudia un tipo de refugio ganadero de la Cuenca Alta del río Tajo, conocidos como chozones. Singular arquitectura ligada a la ganadería extensiva ovina que servía de abrigo al ganado durante la noche invernal y umbráculo en estío. Construcciones de muros bajos de mampuesto colocados a hueso de planta circular o rectangular, levantadas alrededor de una estructura leñosa o un árbol en posición de vida que soportan una cubierta de ramas de la poda de la sabina. Son cientos diseminados por toda la región, si bien concentrados en la Sesma del sabinar, una de las cuatro divisiones históricas del Señorío de Molina. La decadencia de la ganadería en la comarca, sumada a otras causas de sociales y económicas, ha llevado a que estén cada vez en peor estado de conservación; con todo lo que ello supone de pérdida de una memoria histórica inseparable del paisaje del que son parte. Mi primera aproximación a estos refugios fue una oferta que aceptó el equipo de dirección del Parque Natural del Alto Tajo para catalogar los que se encontraban en su área de protección, un paisaje de Alto Valor Natural donde la ganadería ha sido el sustento tradicional. Tras terminar el inventario se produjo el gran incendio en Riba de Saélices (2005). Además de calcinar a 11 retenes voluntarios, quemó parte de las chozones inventariados. Tomé entonces consciencia de la fragilidad de este patrimonio popular y del valor que cobraba el trabajo realizado, pues en muchos casos era el único testimonio que había de los chozones desaparecidos. De ahí nació esta investigación. Al comienzo el enfoque analítico fue eminentemente disciplinar, como recoge la primera parte del título de la tesis: arquitectura y construcción. Pronto comprendí que este enfoque no era suficiente para entender las preguntas dejadas abierta por el análisis espacial, tales como su origen, razón de ser, función social, etc. Profundizando en estos temas la investigación fue haciéndose más amplia y transversal, hasta llegar a lo indicado en la segunda parte del título: paisaje y territorio. En síntesis, la tesis pasó del análisis de un objeto en sí a su entendimiento como parte de una sociedad y un paisaje del que es indisoluble. Para lograr estos objetivos transversales, los refugios ganaderos se estudiaron considerando desde sus aspectos geográficos e históricos a los propios de la arquitectura y del sistema ganadero que acoge. A cada enfoque se dedica un capítulo de la Tesis, lo que nos obligó a utilizar distintas metodologías de análisis: de un amplio trabajo de campo para catalogar y levantar los casi un centenar de chozones inventariados a la búsqueda de información documental en archivos históricos. Por el carácter del estudio fue también fundamental la revisión del material etnográfico de la zona, así como las entrevistas con vecinos y los pocos pastores que quedaban en los municipios estudiados. Los resultados de la Tesis muestran que los refugios ganaderos son construcciones con una serie de valores de distinto tipo. Entre ellos destacaría: (a) ambientales, porque son arquitecturas integradas en el medio ambiente, con empleo de materiales del territorio y adaptación a sus condiciones físicas; (b) históricos, porque son testimonio de un patrimonio arquitectónico que al menos desde la Edad Media se mantiene sin apenas modificaciones; (c) etnográficos, porque son un elemento arquitectónico con usos estrechamente ligados a la cultura tradicional, ganadera y rural de la cuenca del Alto Tajo. Tan clara es la relación entre estos tres aspectos que no es exagerado afirmar que desde el comienzo hasta su final, pasando por las distintas actividades cotidianas, la vida de los habitantes de la comarca giraba en torno al patrimonio vernáculo estudiado. Por ello, entendemos que todos estos elementos son lo suficientemente relevantes como para intentar evitar su destrucción, fomentar una reutilización que contribuya a un desarrollo sostenible de este singular paisaje etnológico. ABSTRACT My first approach to these refugees was commissioned by the management of the Alto Tajo Natural Park to catalog those who were in their protection area, a landscape of high natural value where livestock has been the traditional livelihood. After completing the inventory came the great fire in Riba de Saelices (2005). Besides calcine 11 firefighters, burned many of these popular architectures. I took then awareness of the fragility of this vernacular heritage and the value of the work charged, since in many cases it was the only witness who had disappeared from the shelters. At that time, this research was born. At the begging our study was eminently from the point of view of our discipline, as it picks up the first part of the title of the Thesis: architecture and construction. Soon I realized that this approach was not sufficient to understand the questions left open by the spatial analysis, such as its origin, purpose, social function, etc. By studying topics, my research become to be more comprehensive and transversal, up to coming to the indicated in the second part of the title: landscape and territory. In synthesis, the Thesis went on from the analysis of an object in itself to its understanding like part of a society and a landscape of which it is indissoluble. To achieve these cross-cutting objectives, livestock shelters were studied considering from its geographic and historic aspects to this relating to his architecture own the livestock system to which they belong. To each approach we devoted a chapter of the Thesis, which forced us to use different methodologies of analysis: an extensive field work in cataloguing and lift the nearly a hundred chozones inventoried to the search of documentary information in historical archives. By the nature of the study, the review of the ethnographic material in the area was also essential, as well as interviews with neighbors and the few remaining shepherds in the municipalities studied. The results of our Thesis show that livestock shelters are constructions with a series of values of different types. Among them I would highlight three: (a) environmental, because they are architectures integrated in the territory, with the use of materials of the location and adapted to their physical conditions; (b) historical, because they are testimony of an architectural heritage that at least since the Middle Ages remains with little modifications; (c) ethnographic, because they are architectural elements closely linked to livestock, rural and traditional culture of the Alto Tajo basin. So clear is the relationship between these three aspects, that is not an exaggeration to say that from the beginning until the end, passing through the various daily activities, the life of the inhabitants of the region was in completed connection with the studied vernacular heritage. For it, we understand that all these elements are relevant enough to try to prevent their destruction and promote a recycling that contributes to a sustainable development of this unique ethnological landscape.
Resumo:
Como punto de partida para el desarrollo de la Tesis, se mantiene la hipótesis de que es posible establecer métodos de evaluación global sobre el grado de utilidad de los sistemas constructivos correspondientes a los cerramientos de la edificación. Tales métodos habrían de posibilitar, de entre una serie finita de sistemas alternativos, cuáles de ellos son los objetivamente más adecuados para su selección en un entorno de decisión concreto, y habrían de permitir fundamentar la justificación objetiva de tal decisión. Paralelamente a esta hipótesis de carácter general, se planteó desde el inicio la necesidad de comprobación de una hipótesis de partida particular según la cual los sistemas constructivos basados en la utilización de componentes prefabricados, o procesos de puesta en obra con un alto grado de industrialización arrojarían valores de utilidad mayores que los sistemas tradicionales basados en la albañilería. Para la verificación de estas dos hipótesis de partida se ha procedido inicialmente a la selección de un conjunto coherente de doce sistemas de cerramientos de la edificación que pudiese servir como testigo de su diversidad potencial, para proceder a su valoración comparativa. El método de valoración propuesto ha entrado a considerar una serie de factores de diversa índole que no son reducibles a un único parámetro o magnitud que permitiese una valoración de tipo lineal sobre su idoneidad relativa, ni que permitiese establecer un grado de prelación entre los distintos sistemas constructivos alternativos de manera absoluta. Para resolver este tour de force o desafío metodológico se ha acudido a la aplicación de metodologías de valoración que nos permitiesen establecer de forma racional dicha comparativa. Nos referimos a una serie de metodologías provenientes en primera instancia de las ciencias exactas, que reciben la denominación de métodos de ayuda a la decisión multicriterio, y en concreto el denominado método ELECTRE. Inicialmente, se ha planteado la aplicación del método de análisis sobre doce sistemas constructivos seleccionados de tal forma que representasen de forma adecuada las tres categorías establecidas para caracterizar la totalidad de sistemas constructivos posibles; por peso, grado de prefabricación y grado de ventilación. Si bien la combinación de las tres categorías básicas anteriormente señaladas produce un total de 18 subcategorías conceptuales, tomamos finalmente doce subcategorías dado que consideramos que es un número operativo suficiente por extenso para el análisis propuesto y elimina tipos no relevantes. Aplicado el método propuesto, a estos doce sistemas constructivos “testigo”, se constata el mayor grado de utilidad de los sistemas prefabricados, pesados y no ventilados. Al hilo del análisis realizado en la Parte II de la Tesis sobre los doce sistemas constructivos “testigo”, se ha realizado un volcado de los sistemas constructivos incluidos en el Catalogo de Elementos Constructivos del CTE (versión 2010) sobre las dieciocho subcategorías definidas en dicha Parte II para caracterizar los sistemas constructivos “testigo”. Posteriormente, se ha procedido a una parametrización de la totalidad de sistemas constructivos para cerramientos de fachadas incluidos en este Catálogo. La parametrización sistemática realizada ha permitido establecer, mediante el cálculo del valor medio que adoptan los parámetros de los sistemas pertenecientes a una misma familia de las establecidas por el Catálogo, una caracterización comparativa del grado de utilidad de dichas familias, tanto en lo relativo a cada uno de los parámetros como en una valoración global de sus valores, de carácter indicativo. Una vez realizada una parametrización completa de la totalidad de sistemas constructivos incluidos en el Catálogo, se ha realizado una simulación de aplicación de la metodología de validación desarrollada en la Parte II de la presente Tesis, con el objeto de comprobar su adecuación al caso. En conclusión, el desarrollo de una herramienta de apoyo a la decisión multicriterio aplicada al Catálogo de Elementos constructivos del CTE se ha demostrado técnicamente viable y arroja resultados significativos. Se han diseñado dos sistemas constructivos mediante la aplicación de la herramienta desarrollada, uno de fachada no ventilada y otro de fachada ventilada. Comparados estos dos sistemas constructivos mejorados con otros sistemas constructivos analizados Se comprueba el alto grado de utilidad objetiva de los dos sistemas diseñados en relación con el resto. La realización de este ejercicio de diseño de un sistema constructivo específico, que responde a los requerimientos de un decisor concreto viene a demostrar, así pues, la utilidad del algoritmo propuesto en su aplicación a los procesos de diseño de los sistemas constructivos. La tesis incorpora dos innovaciones metodológicas y tres innovaciones instrumentales. ABSTRACT The starting point for the thesis is the hypothesis that it is possible to devise suitability degree evaluation methods of building enclosure systems. Such methods should allow optimizing appraisal, given a specific domain of decision, among a finite number of alternative systems, and provide objective justification of such decision. Along with the above mentioned general assumption, a second hypothesis whereby constructive systems based on the use of prefabricated components, or high industrialization degree work processes, would throw efficiency values higher than traditional masonry systems needed to be tested. In order to validate these two hypothesis a coherent set of twelve enclosure systems that could serve as a reference sample of their potential diversity was selected and a comparative evaluation was carried out. The valuation method proposed has considered several different factors that are neither reducible to a single parameter or magnitude that would allow a linear evaluation of their relative suitability nor allow to establishing an absolute priority ranking between different alternative constructive systems. In order to resolve this tour de force or methodological challenge, valuation methodologies that enable use establishing rational assessments were used. We are referring to a number of methodologies taken from the exact sciences field, usually known as aid methods for multi-criteria decision, in particular the so-called ELECTRE method. Even though the combination of the mentioned three basic categories result in eighteen conceptual sub categories, we are finally considering just twelve since we deem it adequately extended for the our intended purpose and eliminates non relevant instances. The method of analysis was initially applied to the set of twelve selected constructive systems is a way that they could represent adequately the three previously established categories set out to characterize all possible enclosure systems, namely weight, prefabrication degree and ventilation degree. Once the proposed method is applied to the sample systems, the higher efficiency of the prefabricated, heavy and not ventilated systems was confirmed. In line with the analysis in Part II of the thesis on the twelve chosen enclosure systems, it has done an uploading data of construction systems listed in the Catalogue of constructive elements of the CTE (version 2010) according the eighteen subcategories used in this part II to characterize the construction systems taken as sample. Subsequently, a parameterization of all enclosure facade systems included in this catalog has been undertaken. The systematic parameterization has allowed to set, by means of calculating the average values of the parameters of the systems belonging to the same family of those established by the Catalog, a comparative characterization of the efficiency degree of these families, both in relation to each parameter as to an overall evaluation of its values, in a indicative way. After the parameterization of all enclosure systems included in the Catalog, a simulation of validation methodology application developed in Part II of this Thesis has been made, in order to assess its consistency to the referred case. In conclusion, the development of a multi-criteria decision aid tool, applied to the CTE Catalog of constructive elements, has proved to be technically feasible and yields significant results. Two building systems through the application of the developed tool, a non-ventilated façade and a ventilated façade have been designed. Comparing these two improved construction systems with other building systems analyzed, we were able to assess the high degree of objective efficiency of the two systems designed in relation to the rest. The exercise of designing a specific enclosure system that meets the requirements of a particular decision-maker hence shows the suitability of the proposed algorithm applied to the process of enclosure systems design. This Thesis includes two methodological innovations and three instrumental innovations.
Resumo:
El padre Vicente tosca, arquitecto, filósofo, matemático, y astrónomo, Y comienza su Tratado de Arquitectura (que forma parte de su Compendio matemático, 9 vols. 1701-1715) abordando el tema de la traza o proyecto de bóvedas: Lo más sutil y primoroso de la Arquitectura... es la construcción de todo género de arcos y bóvedas, cortando sus piedras, y ajustándolas con tal artificio, que la misma gravedad y peso que las había de precipitar hácia la tierra, las mantenga constantes en el ayre, sustentándose las unas á las otras en virtud de la mutua complicación que las enlaza, con lo que cierran por arriba las fábricas con toda seguridad y firmeza. El equilibrio se alcanza a través de la geometría y, de este modo es posible la construcción de edificios de fábrica seguros. Las antiguas reglas tradicionales para el proyecto de bóvedas y estribos de fábrica tienen un carácter geométrico, ya que establecen ciertas relaciones entre las dimensiones de los elementos estructurales. Regulan, por ejemplo, que el grosor de un estribo debe ser una cierta fracción entera de la luz de las bóvedas. De hecho en la afirmación del padre Tosca encontramos la esencia misma del proyecto de estructuras de fábrica (Huerta 2004). Sin embargo para nosotros, arquitectos e ingenieros del siglo XXI, todo esto nos parece demasiado ingenuo, la demostración de la ignorancia de los antiguos maestros; de hecho, hasta el siglo XVIII no se desarrolló una teoría científica de las estructuras, basada en la Resistencia de Materiales y las leyes de la Mecánica (Huerta 1996). De cualquier forma estos *ignorantes+ maestros constructores levantaron el Pantheon de Roma, Santa Sofía y las catedrales góticas. Por tanto, puede que, después de todo, el enfoque geométrico tradicional no esté demasiado equivocado. Es posible que los antiguos maestros tuvieran una teoría, distinta de nuestra teoría científica, pero basada en un profundo conocimiento de la naturaleza y comportamiento de las estructuras de fábrica. Si fuera así, sería interesante conocer algo sobre esta teoría, la cual, si juzgamos por los resultados, era extraordinaria. Sin embargo, aunque podemos ampliar nuestros conocimientos, no podemos sustraernos a los que ya tenemos. Estamos forzados a abordar el tema del análisis de arcos y bóvedas desde un enfoque científico, dentro del marco de la teoría de estructuras actual. Antes de proseguir se deben hacer dos observaciones. La primera se refiere al objetivo de la Teoría de Estructuras. El objetivo de la teoría estructural es el proyecto de construcciones seguras o el análisis de la seguridad de las que ya existen. Es una ciencia aplicada no una ciencia pura. Como Rankine (1858) señaló, si la pregunta que se hace el científico es *qué quiero saber+, la del arquitecto o ingeniero es *qué quiero hacer+. Todas las consideraciones teóricas están condicionadas por la necesidad de una respuesta a un problema sin demora. La segunda observación hace referencia a nuestra propia ignorancia respecto al tema. Ya no se construyen bóvedas y toda la tradición de la construcción en fábrica se ha perdido en el mundo occidental. Esta parte de la arquitectura, que fue considerada *lo más sutil y primoroso+, nos es ajena. La mayor parte de los arquitectos e ingenieros nunca han visto construir una sencilla bóveda. Carecemos del oficio y experiencia del antiguo constructor, que seleccionaba la piedra, dibujaba las plantillas para cortarla, trazaba la cimbra, dirigía el proceso de construcción y, finalmente, supervisaba el descimbrado. Rodrigo Gil de Hontañón (Tratado de arquitectura, ca. 1540, copiado en García, 1681) después de describir la construcción de una bóveda gótica de crucería advierte que: . . . estas cosas, podran ser difiçiles de comprehender faltando en quien las procura la experiencia, la practi¬ca, la profesion de la canteria, y la execuçion, o el aberse allado presente a algunos çierres de cruçeria, para haçerse capaz en el asiento de ella. Esta es precisamente la situación de cualquier arquitecto o ingeniero de la actualidad. A partir de aquí trataremos de mostrar que los enfoques tradicional y moderno del cálculo de estructuras de fábrica llevan a la misma conclusión fundamental: la absoluta importancia de la geometría. Se demostrará que la moderna teoría del Análisis Límite de las estructuras de Fábrica, que ha sido desarrollada por el profesor Heyman, es la herramienta más apropiada para comprender y analizar las construcciones de fábrica. Esta teoría conduce al *enfoque del equilibrio+; el calculista necesita sólo estudiar posible estados de equilibrio con la fábrica trabajando a compresión. La existencia de estos posibles estados de equilibrio depende de la geometría. Una construcción segura es una construcción en equilibrio: la teoría moderna conduce a las mismas disposiciones geométricas que la tradicional. No podía ser de otro modo, los espectaculares logros de los antiguos arquitectos no pudieron ser fruto de la casualidad. Se harán numerosas referencias históricas con la intención de dejar claro que existe una antigua tradición en el cálculo científico de las estructuras de fábrica según el enfoque del equilibrio. Tenemos mucho que aprender de los arquitectos e ingenieros de la antigüedad. Pudieron no tener una profunda comprensión de la teoría, pero poseían los conocimientos esenciales, ésos que proporciona la reflexión sobre la práctica. Ars sine scientia nihil est, la práctica no es nada sin la teoría, pero la teoría sin la práctica es simplemente peligrosa. La experiencia, en nuestro caso, debemos buscarla en los edificios construidos y en lo que podemos extraer de la lectura crítica de los antiguos tratados de arquitectura e ingeniería.
Resumo:
Esta tesis doctoral busca estudiar el espacio desde la premisa de que el espacio es, fundamentalmente, lo intermedio. El entre, lo que hay entre las cosas mismas y que les da, precisamente, su definición como cosas en un constante proceso de delimitación. Este entre, lo que hay entre las cosas, no es sin embargo un resto que queda, sino bien al contrario el principio activo que hace que las cosas, desde lo que hay alrededor, se configuren en su ser sensible y puedan percibirse. El entre, lo intermedio, no es así una línea, un corte puro, sino un intervalo, un espacio en sí mismo, un ámbito en que se desarrolla un proceso. Es por tanto un espacio de formación, en el que las cosas aún no son y ya están siendo, un intervalo ambiguo pleno de virtualidades, unas desplegadas otras que permanecen en espera, siempre en movimiento. Es la hipótesis principal de esta tesis que en el llamado Movimiento Moderno en la arquitectura del siglo veinte esta condición ambigua del límite se pone de manifiesto como la raíz articuladora de los cambios espaciales y formales que definen su ser y su estética. Para desarrollar esta hipótesis, se parte de una doble premisa: por una parte, como un entre que es en sí misma, la arquitectura se encuentra delimitada por las disciplinas artísticas contemporáneas, especialmente pintura y escultura y a la vez las delimita. Por tanto, se explorarán una serie de momentos claves en las vanguardias de comienzos del siglo veinte en paralelo a una serie de arquitecturas contemporáneas para estudiar esta doble dialéctica entre límites. Por otra parte, y entendiendo que lo propio de la arquitectura es el espacio, se estudiarán en profundidad las concepciones espaciales que en la física y la estética del finales del siglo diecinueve y principios del veinte se desarrollan, para comprender cómo estas nuevas concepciones, centradas en las ideas de relatividad y de espacio-tiempo como magnitudes interlimitadas, determinan a su vez las concepciones espaciales que se desarrollan simultáneamente en las artes plásticas y en la arquitectura. La tríada espacio/tiempo/luz regirá este recorrido, en un doble camino: a través de la física y la teoría del arte, y a través de la arquitectura y las artes plásticas. Se trata por tanto de incardinar la arquitectura en su contexto artístico y científico, y comprobar cómo la comprensión del espacio como un entre, como un intervalo del límite y no como un absoluto trascendente, se generaliza en dichos ámbitos en una exploración paralela que condiciona los resultados en todos ellos y que define, por tanto, la arquitectura de la modernidad como una arquitectura del entre. El encuadre enmarca como motivo principal el Movimiento Moderno a través de la figura de Le Corbusier. Se muestra el modo en que los recursos y mecanismos empleados provocan el encuentro del espacio indecible a través de la polifonía de las artes. Desde el espaciamiento del límite, su borradura, su ambigüedad, producidos mediante el entrelazamiento de los recursos artísticos, la continuidad de lo lineal, el encabalgamiento, el maridaje, la ambivalencia, la relatividad del color y la luz, el intersticio. Ello se analiza a través de la obra de le Corbusier, destacando la dialéctica entre Le Cheminée y Nature morte aux nombreux objets; Ma maison y el pabellón del Zurichhorn; Unité y L’espace indicible. Aclaradas las premisas fundamentales y las consecuencias inmediatas para la arquitectura del Movimiento Moderno, la cuarta parte y final de la tesis, mucho más breve que las anteriores, expone una primera aproximación a las consecuencias que todo esto ha tenido en un momento liminal también: el comienzo de la postmodernidad. En realidad se trata de una apertura a lo que ha de venir, pues establecida la operatividad de la hipóteisi inicial, se trata aquí solamente de abrir el camino a una interpretación que en realidad escapa del alcance de esta tesis. Así se deja apuntado cómo, a través de la obra de tres arquitectos, teóricos y artistas trabajando en los años setenta y comienzos de los ochenta del pasado siglo, una comprensión más clara de la revolución moderna precipitada por esta nueva comprensión del espacio como límite-entre queda patente. Chamberworks de Daniel Libeskind, Wexner Center for the Visual Arts de Peter Eisenman y Manhattan Transcripts de Bernard Tschumi servirían de privilegiados ejemplo. Como queda patente que las consecuencias de todo ello aún las estamos sintiendo en nuestra contemporaneidad. ABSTRACT This thesis aims to study the space from the premise that space is mainly the in-between. The in-between, what is in-between the things themselves and gives them precisely its definition as things in a constant process of delimitation. This in-between, what is in between things, is not a remnant that remains, but on the contrary it is the active ingredient that produces things from what is around, that configures them in a sensitive to be perceived. The in-between, the intermediate, is not a line, a pure cut, but an interval, a space in itself, an area in which a process is developed. It is therefore a space in development, where things are still not and already been, delimiting an ambiguous range full of potentialities, some present and others that remain only as virtualities. It is the main hypothesis of this thesis that in the so-called Modern Movement in the architecture of the twentieth century this ambiguous boundary condition is revealed as the result of the articulatation of spatial and formal changes. To develop this hypothesis, I posit this double premise: On the one hand, as an in-between which is in itself, architecture is defined by contemporary artistic disciplines, especially painting and sculpture and simultaneously defines them. Therefore, a number of key moments in the avantgarde of the early twentieth century in parallel with a number of contemporary architecture to study this double dialectic between boundaries will be explored. On the other hand, and considering that the “essence” of the architecture is space, I will study in depth the spatial concepts in physics and aesthetics of late-nineteenth century and early twentieth century to understand how these new concepts centered on the ideas of relativity and space-time as interlimited magnitudes in turn determine the spatial conceptions that take place simultaneously in the visual arts and architecture. The space / time / light triad governs this journey in a double way: through physics and theory of art, and through architecture and the arts. The aim is to anchor architecture in its artistic and scientific context, and to see how the understanding of space as an in-between interval and not as an absolute transcendent determines the results in all of them, defining, therefore, the architecture of modernity as an architecture of the in-between. The frame of the study is centered in the modern movement through the figure of Le Corbusier and how rthe different resources and mechanisms employed provoke an unspeakable space of encounter through the polyphony of the arts. From the spacing of the limit, its erasure, its ambiguity, produced by the intertwining of artistic resources to continuity of the linear, the marriage, the ambivalence, the relativity of color and light, the gap. All this is analyzed through the work of Le Corbusier, highlighting the dialectic between Le Cheminée and Nature morte aux nombreux objets, Ma maison and Zürichhorn pavilion, Unité and L’espace indicible. Once the basic premises and immediate consequences for the architecture of the Modern Movement are set, the fourth and final part of the thesis aims to explore the impact that all this has had in another liminal time: the beginning of postmodernism. Of course, this part is shorter, in fact it is more a prospective survey and an opening of possibilities than a truly articulated body of theory, since the conceptual core of this thesis has been developed in the central part. Hence, through the work of three architects, theorists and artists working in the seventies and early eighties of last century, a clearer understanding of the modern revolution precipitated by this new understanding of space as a boundary- between is proposed. Chamberworks by Daniel Libeskind, Wexner Center for the Visual Arts by Peter Eisenman and Manhattan Transcripts by Bernard Tschumi will exemplify this approach. The consequences of all this are still haunting our contemporaneity.
Resumo:
Este artículo presenta un análisis de la noción de hegemonía tal como es desarrollada por Ernesto Laclau en investigaciones que comprenden desde trabajos previos a su clásico Hegemonía y estrategia socialista. Hacia una radicalización de la democracia (1985, en colaboración con Chantal Mouffe) hasta su obra importante más reciente La razón populista (2004). La hipótesis de lectura que guía el articulo es que hegemonía -desde sus orígenes en la teoría política de Laclau- funciona como una categoría que plantea la relación entre la universalidad y la particularidad pero también como tres conceptos -en tanto esta categoría adquiere un contenido particular cuando se la utiliza en diferentes campos: lo político y la lógica de constitución de lo social; el funcionamiento de una/la lógica de la política; y la constitución de las identidades colectivas