826 resultados para Evangelización en Nueva España
Resumo:
En la España de fines del siglo XIX, la erudición se proyectó como espacio de controversia. Inmerso en plena crisis de confianza en el método cientificista, Unamuno creyó encontrar en Clarín un aliado. Sin intuir el respeto bifronte que Alas mantuvo con respecto a las posturas críticas enfrentadas por entonces -y que La Regenta ya había ilustrado- en vano buscó Unamuno su apoyo para erosionar el espacio de saber que veía personificado en Menéndez y Pelayo. En medio de esas tensiones oblicuas e irónicas, la intimidad se torna espacio de contienda crítica. Las cartas, los artículos burlescos, las lecturas recíprocas: la literatura misma se torna entonces instancia de auto legitimación
Resumo:
Objetivos: este trabajo tiene como objetivo analizar los niveles de actividad fisicas en estudiantes de escuelas secundarias y estudiantes universitarios; estimar su percepción del entorno contruído en relación con la actividad física, y evaluar la relación entre la educación física y el entorno contruído. Metodología: Se aplicó un estudio sociológico trasversal con diseño no experimental. Se completaron el cuestionario internacional de actividad física y el cuestionario de caraterísticas de entorno contruído con una muestra de 1.862 alumnos de escuelas secundarias y universidad en Granada, España. Resultados: los alumnos de la escuela secundaria fueron significativamente más activos que los estudiantes universitarios, quienes alcanzaron niveles insuficientes de actividad física. Sin embargo, consideraron Granada un buen contexto para hacer ejercicio al aire libre. No se encontraron relaciones entre los niveles de actividad física y el entorno contruído. Conclusión: la discrepancia de resultados entre los niveles de actividad física y la percepción del entorno contruído sugieren la necesidad de intervenciones focalizadas en hacer que los jóvenes se den cuenta de las posibilidades que el medio les ofrece para ejercitarse. En consecuencia, el medio puede tener un impacto en la salud al mismo tiempo que los jóvenes aprenden a respetarlo
Resumo:
El presente trabajo se enmarca en el proceso de acreditación de carreras de Psicología y Lic. en Psicología de la República Argentina. Ante el actual proceso de acreditación de dichas carreras, se torna necesario poder pensar al mismo desde diversas perspectivas. Hace más de diez años que la Comunidad Europea está llevando adelante un gran y complejo emprendimiento de evaluación de carreras a nivel superior. Esta experiencia es un punto más pero de importancia desde el cual poder pensarnos, tomando en cuenta los resultados allí obtenidos, aquí en nuestro país. La Argentina también es parte de un armado Geopolítico, el Mercosur, en cuyo seno se han confeccionado y acordado ejes en materia de Educación. Entre las múltiples cuestiones que vienen aparejadas en Europa, se encuentra el Modelo por Competencias como uno de sus bastiones. Este trabajo pretende analizar y explorar la existencia y condiciones de posibilidad del Modelo por Competencias en el diseño curricular de las carreras de psicología argentinas, a sabiendas del lugar protagónico que el mismo tiene en el marco de los procesos de acreditación de carreras de ES de la Comunidad Europea. Competencias, más allá de ser es un concepto en boga en materia de educación, no deja de entrecruzarse con visiones críticas del mismo que van desde planteos sobre cuestiones ideológicas y sus consecuencias en la educación, pasando por el carácter confuso del términos, hasta llegar al otro extremos del abanico de críticas que encuentran en dicho modelo la oportunidad para un cambio revolucionario en pos de la excelencia formativa. Sobre la base de trabajos realizados por investigadores de nuestro país en Formación del Psicólogo y de catedráticos e investigadores Europeos en materia de Competencias, se analizará material bibliográfico, documentos e informes especializados de los procesos de acreditación de carreras de psicología en Argentina, España y Europa. Se tomará en cuenta: las declaraciones de Bologna 'junto a sus antecedentes y sucesores-; el Proyecto Tuning Europeo; El Libro Blanco para El Título de Grado de Psicología de España; Currículas de Grado en Psicología de España; Documentos base e informes generados por la Asociación de Unidades Académicas en Psicología (AUAPsi) y por la Unidad de Vinculación Académica de Psicología de Universidades de Gestión Privada (UVAPSI); la Resolución Ministerial 343/09 de Estándares para la acreditación de las carreras correspondientes a los títulos de Psicólogo y Licenciado en Psicología'; y los casos de los planes de estudios de la Facultad de Psicología de la UNMdP. Para detectar la presencia del Modelo de Competencias, se comparan todos estos elementos. Considerando estos aspectos como diversos planos, es que se observa una marcada ausencia de dicho Modelo por Competencias en la formación psicológica de nuestro país, inclusive en tiempos de acreditación de carreras, lo que genera interrogantes de cara a un futuro cercano tanto por la formación del psicólogo y los caminos que empieza a transcurrir este proceso evaluativo, como también la capacidad o no- de respuesta crítica que tengan las Universidades y la comunidad psi, en caso de presentarse abruptamente una exigencia estatal de reforma educativa a nivel superior basado en este modelo
Resumo:
Esta propuesta se vale de la expresión poscolonialismo para considerar la semejanza de procedimientos ocurrida en el discurso europeo sobre el Oriente, al catalogar y clasificar al otro según parámetros propios para contener la diferencia y asimilarlo a la realidad europea, procedimiento comparable al adoptado por el franquismo, que buscaba homogeneizar España para mantenerla unida y fuerte, modelo para el mundo. Para ello, se reprimió todo lo que escapara a los patrones mantenidos a sangre y fuego por la dictadura franquista. Al considerar la expresión literaria del posfranquismo como una manifestación poscolonial, en ella se reconoce una respuesta al modelo hegemónico, especialmente si se busca dialogar con la voz de la alteridad expresada en idiomas que, prohibidos durante el franquismo, se volvieron, en la España redemocratizada, el vehículo para la implementación de una política reivindicadora del derecho a la diferencia, de otras formas de decir el mundo. Así, se visitarán algunas cuestiones específicas y complejas de España situándolas en la obra de un escritor gallego que escribe en su lengua materna, sin intención de revancha: Manuel Rivas (1957), escritor, periodista, ensayista, poeta, quien, a su tiempo, fornecerá los elementos necesarios para corroborar la propuesta de esta ponencia
Resumo:
El término Homecasting hace referencia a la producción casera de contenidos audiovisuales puestos a circular en Internet. Estos procesos a través de los cuales personas sin conocimientos previos construyen a partir de la experiencia y el aprendizaje cotidiano una relación particular con la tecnología que en muchas ocasiones les abre otras perspectivas de vida será de especial interés para esta ponencia. Se describirán algunas practicas de apropiación tecnológica a través del análisis del canal de video 'la receta de la abuelita' creado por Yéssica Pérez, mexicana migrante, residente en el Bronx en Nueva York, ama de casa, casada y con dos hijas, quien se define como una persona normal a la que le interesan las computadoras, la costura y las recetas. El caso de Yéssica Pérez será tomado como punto de partida para intentar reflexionar acerca de la importancia de pensar a la tecnología como elemento sustancial de la interacción social contemporánea, planteando la necesidad de reflexionar acerca de los lugares y las maneras en los que se produce y distribuye el conocimiento, los cuales actualmente se han desplazado hacia la cotidianidad y al denominado 'tiempo de ocio' el que pareciera ser núcleo central de la producción simbólica contemporánea
Resumo:
Abordamos en este trabajo la cuarta y última entrega de los Tipos de Instalaciones de Ordeño, correspondiente a la 2ª parte de un conjunto de artículos que hemos denominado globalmente SALAS DE ORDEÑO. En esta cuarta entrega describiremos la sala que quizá tenga mayor rendimiento, expresado en vacas ordeñadas/hora, la SALA ROTATIVA, aunque, como trataremos de demostrar, el rendimiento no es tan elevado cuando se expresa en vacas orde- ñadas/hora y hombre. Esta sala suele utilizarse en grandes rebaños, donde se precisa ordeñar un gran número de vacas, 2 ó 3 veces al día. En estos casos, incluso las grandes salas paralelo 2 x 40 (80 unidades) pueden quedarse algo cortas en rendimiento, aunque una posible solución sería instalar 2 salas de ordeño paralelo. No obstante, existen salas rotativas de menor número de plazas, que se utilizan en rebaños de tamaño medio con notable eficiencia. Aunque la primera sala rotativa se diseñó en Estados Unidos en 1930, no fue hasta los años sesenta del pasado siglo cuando se popularizó en Europa Occidental, Gran Bretaña, Australia; nueva Zelanda y los propios EE.UU. La nueva generación de salas rotativas fue desarrollada en Nueva Zelanda hacia 1970. También fueron muy habituales en los años 60 y 70 en las grandes granjas estatales de los países de Europa del Este
Resumo:
RESUMEN La dispersión del amoniaco (NH3) emitido por fuentes agrícolas en medias distancias, y su posterior deposición en el suelo y la vegetación, pueden llevar a la degradación de ecosistemas vulnerables y a la acidificación de los suelos. La deposición de NH3 suele ser mayor junto a la fuente emisora, por lo que los impactos negativos de dichas emisiones son generalmente mayores en esas zonas. Bajo la legislación comunitaria, varios estados miembros emplean modelos de dispersión inversa para estimar los impactos de las emisiones en las proximidades de las zonas naturales de especial conservación. Una revisión reciente de métodos para evaluar impactos de NH3 en distancias medias recomendaba la comparación de diferentes modelos para identificar diferencias importantes entre los métodos empleados por los distintos países de la UE. En base a esta recomendación, esta tesis doctoral compara y evalúa las predicciones de las concentraciones atmosféricas de NH3 de varios modelos bajo condiciones, tanto reales como hipotéticas, que plantean un potencial impacto sobre ecosistemas (incluidos aquellos bajo condiciones de clima Mediterráneo). En este sentido, se procedió además a la comparación y evaluación de varias técnicas de modelización inversa para inferir emisiones de NH3. Finalmente, se ha desarrollado un modelo matemático simple para calcular las concentraciones de NH3 y la velocidad de deposición de NH3 en ecosistemas vulnerables cercanos a una fuente emisora. La comparativa de modelos supuso la evaluación de cuatro modelos de dispersión (ADMS 4.1; AERMOD v07026; OPS-st v3.0.3 y LADD v2010) en un amplio rango de casos hipotéticos (dispersión de NH3 procedente de distintos tipos de fuentes agrícolas de emisión). La menor diferencia entre las concentraciones medias estimadas por los distintos modelos se obtuvo para escenarios simples. La convergencia entre las predicciones de los modelos fue mínima para el escenario relativo a la dispersión de NH3 procedente de un establo ventilado mecánicamente. En este caso, el modelo ADMS predijo concentraciones significativamente menores que los otros modelos. Una explicación de estas diferencias podríamos encontrarla en la interacción de diferentes “penachos” y “capas límite” durante el proceso de parametrización. Los cuatro modelos de dispersión fueron empleados para dos casos reales de dispersión de NH3: una granja de cerdos en Falster (Dinamarca) y otra en Carolina del Norte (EEUU). Las concentraciones medias anuales estimadas por los modelos fueron similares para el caso americano (emisión de granjas ventiladas de forma natural y balsa de purines). La comparación de las predicciones de los modelos con concentraciones medias anuales medidas in situ, así como la aplicación de los criterios establecidos para la aceptación estadística de los modelos, permitió concluir que los cuatro modelos se comportaron aceptablemente para este escenario. No ocurrió lo mismo en el caso danés (nave ventilada mecánicamente), en donde el modelo LADD no dio buenos resultados debido a la ausencia de procesos de “sobreelevacion de penacho” (plume-rise). Los modelos de dispersión dan a menudo pobres resultados en condiciones de baja velocidad de viento debido a que la teoría de dispersión en la que se basan no es aplicable en estas condiciones. En situaciones de frecuente descenso en la velocidad del viento, la actual guía de modelización propone usar un modelo que sea eficaz bajo dichas condiciones, máxime cuando se realice una valoración que tenga como objeto establecer una política de regularización. Esto puede no ser siempre posible debido a datos meteorológicos insuficientes, en cuyo caso la única opción sería utilizar un modelo más común, como la versión avanzada de los modelos Gausianos ADMS o AERMOD. Con el objetivo de evaluar la idoneidad de estos modelos para condiciones de bajas velocidades de viento, ambos modelos fueron utilizados en un caso con condiciones Mediterráneas. Lo que supone sucesivos periodos de baja velocidad del viento. El estudio se centró en la dispersión de NH3 procedente de una granja de cerdos en Segovia (España central). Para ello la concentración de NH3 media mensual fue medida en 21 localizaciones en torno a la granja. Se realizaron también medidas de concentración de alta resolución en una única localización durante una campaña de una semana. En este caso, se evaluaron dos estrategias para mejorar la respuesta del modelo ante bajas velocidades del viento. La primera se basó en “no zero wind” (NZW), que sustituyó periodos de calma con el mínimo límite de velocidad del viento y “accumulated calm emissions” (ACE), que forzaban al modelo a calcular las emisiones totales en un periodo de calma y la siguiente hora de no-calma. Debido a las importantes incertidumbres en los datos de entrada del modelo (inputs) (tasa de emisión de NH3, velocidad de salida de la fuente, parámetros de la capa límite, etc.), se utilizó el mismo caso para evaluar la incertidumbre en la predicción del modelo y valorar como dicha incertidumbre puede ser considerada en evaluaciones del modelo. Un modelo dinámico de emisión, modificado para el caso de clima Mediterráneo, fue empleado para estimar la variabilidad temporal en las emisiones de NH3. Así mismo, se realizó una comparativa utilizando las emisiones dinámicas y la tasa constante de emisión. La incertidumbre predicha asociada a la incertidumbre de los inputs fue de 67-98% del valor medio para el modelo ADMS y entre 53-83% del valor medio para AERMOD. La mayoría de esta incertidumbre se debió a la incertidumbre del ratio de emisión en la fuente (50%), seguida por la de las condiciones meteorológicas (10-20%) y aquella asociada a las velocidades de salida (5-10%). El modelo AERMOD predijo mayores concentraciones que ADMS y existieron más simulaciones que alcanzaron los criterios de aceptabilidad cuando se compararon las predicciones con las concentraciones medias anuales medidas. Sin embargo, las predicciones del modelo ADMS se correlacionaron espacialmente mejor con las mediciones. El uso de valores dinámicos de emisión estimados mejoró el comportamiento de ADMS, haciendo empeorar el de AERMOD. La aplicación de estrategias destinadas a mejorar el comportamiento de este último tuvo efectos contradictorios similares. Con el objeto de comparar distintas técnicas de modelización inversa, varios modelos (ADMS, LADD y WindTrax) fueron empleados para un caso no agrícola, una colonia de pingüinos en la Antártida. Este caso fue empleado para el estudio debido a que suponía la oportunidad de obtener el primer factor de emisión experimental para una colonia de pingüinos antárticos. Además las condiciones eran propicias desde el punto de vista de la casi total ausencia de concentraciones ambiente (background). Tras el trabajo de modelización existió una concordancia suficiente entre las estimaciones obtenidas por los tres modelos. De este modo se pudo definir un factor de emisión de para la colonia de 1.23 g NH3 por pareja criadora por día (con un rango de incertidumbre de 0.8-2.54 g NH3 por pareja criadora por día). Posteriores aplicaciones de técnicas de modelización inversa para casos agrícolas mostraron también un buen compromiso estadístico entre las emisiones estimadas por los distintos modelos. Con todo ello, es posible concluir que la modelización inversa es una técnica robusta para estimar tasas de emisión de NH3. Modelos de selección (screening) permiten obtener una rápida y aproximada estimación de los impactos medioambientales, siendo una herramienta útil para evaluaciones de impactos en tanto que permite eliminar casos que presentan un riesgo potencial de daño bajo. De esta forma, lo recursos del modelo pueden Resumen (Castellano) destinarse a casos en donde la posibilidad de daño es mayor. El modelo de Cálculo Simple de los Límites de Impacto de Amoniaco (SCAIL) se desarrolló para obtener una estimación de la concentración media de NH3 y de la tasa de deposición seca asociadas a una fuente agrícola. Está técnica de selección, basada en el modelo LADD, fue evaluada y calibrada con diferentes bases de datos y, finalmente, validada utilizando medidas independientes de concentraciones realizadas cerca de las fuentes. En general SCAIL dio buenos resultados de acuerdo a los criterios estadísticos establecidos. Este trabajo ha permitido definir situaciones en las que las concentraciones predichas por modelos de dispersión son similares, frente a otras en las que las predicciones difieren notablemente entre modelos. Algunos modelos nos están diseñados para simular determinados escenarios en tanto que no incluyen procesos relevantes o están más allá de los límites de su aplicabilidad. Un ejemplo es el modelo LADD que no es aplicable en fuentes con velocidad de salida significativa debido a que no incluye una parametrización de sobreelevacion del penacho. La evaluación de un esquema simple combinando la sobreelevacion del penacho y una turbulencia aumentada en la fuente mejoró el comportamiento del modelo. Sin embargo más pruebas son necesarias para avanzar en este sentido. Incluso modelos que son aplicables y que incluyen los procesos relevantes no siempre dan similares predicciones. Siendo las razones de esto aún desconocidas. Por ejemplo, AERMOD predice mayores concentraciones que ADMS para dispersión de NH3 procedente de naves de ganado ventiladas mecánicamente. Existe evidencia que sugiere que el modelo ADMS infraestima concentraciones en estas situaciones debido a un elevado límite de velocidad de viento. Por el contrario, existen evidencias de que AERMOD sobreestima concentraciones debido a sobreestimaciones a bajas Resumen (Castellano) velocidades de viento. Sin embrago, una modificación simple del pre-procesador meteorológico parece mejorar notablemente el comportamiento del modelo. Es de gran importancia que estas diferencias entre las predicciones de los modelos sean consideradas en los procesos de evaluación regulada por los organismos competentes. Esto puede ser realizado mediante la aplicación del modelo más útil para cada caso o, mejor aún, mediante modelos múltiples o híbridos. ABSTRACT Short-range atmospheric dispersion of ammonia (NH3) emitted by agricultural sources and its subsequent deposition to soil and vegetation can lead to the degradation of sensitive ecosystems and acidification of the soil. Atmospheric concentrations and dry deposition rates of NH3 are generally highest near the emission source and so environmental impacts to sensitive ecosystems are often largest at these locations. Under European legislation, several member states use short-range atmospheric dispersion models to estimate the impact of ammonia emissions on nearby designated nature conservation sites. A recent review of assessment methods for short-range impacts of NH3 recommended an intercomparison of the different models to identify whether there are notable differences to the assessment approaches used in different European countries. Based on this recommendation, this thesis compares and evaluates the atmospheric concentration predictions of several models used in these impact assessments for various real and hypothetical scenarios, including Mediterranean meteorological conditions. In addition, various inverse dispersion modelling techniques for the estimation of NH3 emissions rates are also compared and evaluated and a simple screening model to calculate the NH3 concentration and dry deposition rate at a sensitive ecosystem located close to an NH3 source was developed. The model intercomparison evaluated four atmospheric dispersion models (ADMS 4.1; AERMOD v07026; OPS-st v3.0.3 and LADD v2010) for a range of hypothetical case studies representing the atmospheric dispersion from several agricultural NH3 source types. The best agreement between the mean annual concentration predictions of the models was found for simple scenarios with area and volume sources. The agreement between the predictions of the models was worst for the scenario representing the dispersion from a mechanically ventilated livestock house, for which ADMS predicted significantly smaller concentrations than the other models. The reason for these differences appears to be due to the interaction of different plume-rise and boundary layer parameterisations. All four dispersion models were applied to two real case studies of dispersion of NH3 from pig farms in Falster (Denmark) and North Carolina (USA). The mean annual concentration predictions of the models were similar for the USA case study (emissions from naturally ventilated pig houses and a slurry lagoon). The comparison of model predictions with mean annual measured concentrations and the application of established statistical model acceptability criteria concluded that all four models performed acceptably for this case study. This was not the case for the Danish case study (mechanically ventilated pig house) for which the LADD model did not perform acceptably due to the lack of plume-rise processes in the model. Regulatory dispersion models often perform poorly in low wind speed conditions due to the model dispersion theory being inapplicable at low wind speeds. For situations with frequent low wind speed periods, current modelling guidance for regulatory assessments is to use a model that can handle these conditions in an acceptable way. This may not always be possible due to insufficient meteorological data and so the only option may be to carry out the assessment using a more common regulatory model, such as the advanced Gaussian models ADMS or AERMOD. In order to assess the suitability of these models for low wind conditions, they were applied to a Mediterranean case study that included many periods of low wind speed. The case study was the dispersion of NH3 emitted by a pig farm in Segovia, Central Spain, for which mean monthly atmospheric NH3 concentration measurements were made at 21 locations surrounding the farm as well as high-temporal-resolution concentration measurements at one location during a one-week campaign. Two strategies to improve the model performance for low wind speed conditions were tested. These were ‘no zero wind’ (NZW), which replaced calm periods with the minimum threshold wind speed of the model and ‘accumulated calm emissions’ (ACE), which forced the model to emit the total emissions during a calm period during the first subsequent non-calm hour. Due to large uncertainties in the model input data (NH3 emission rates, source exit velocities, boundary layer parameters), the case study was also used to assess model prediction uncertainty and assess how this uncertainty can be taken into account in model evaluations. A dynamic emission model modified for the Mediterranean climate was used to estimate the temporal variability in NH3 emission rates and a comparison was made between the simulations using the dynamic emissions and a constant emission rate. Prediction uncertainty due to model input uncertainty was 67-98% of the mean value for ADMS and between 53-83% of the mean value for AERMOD. Most of this uncertainty was due to source emission rate uncertainty (~50%), followed by uncertainty in the meteorological conditions (~10-20%) and uncertainty in exit velocities (~5-10%). AERMOD predicted higher concentrations than ADMS and more of the simulations met the model acceptability criteria when compared with the annual mean measured concentrations. However, the ADMS predictions were better correlated spatially with the measurements. The use of dynamic emission estimates improved the performance of ADMS but worsened the performance of AERMOD and the application of strategies to improved model performance had similar contradictory effects. In order to compare different inverse modelling techniques, several models (ADMS, LADD and WindTrax) were applied to a non-agricultural case study of a penguin colony in Antarctica. This case study was used since it gave the opportunity to provide the first experimentally-derived emission factor for an Antarctic penguin colony and also had the advantage of negligible background concentrations. There was sufficient agreement between the emission estimates obtained from the three models to define an emission factor for the penguin colony (1.23 g NH3 per breeding pair per day with an uncertainty range of 0.8-2.54 g NH3 per breeding pair per day). This emission estimate compared favourably to the value obtained using a simple micrometeorological technique (aerodynamic gradient) of 0.98 g ammonia per breeding pair per day (95% confidence interval: 0.2-2.4 g ammonia per breeding pair per day). Further application of the inverse modelling techniques for a range of agricultural case studies also demonstrated good agreement between the emission estimates. It is concluded, therefore, that inverse dispersion modelling is a robust technique for estimating NH3 emission rates. Screening models that can provide a quick and approximate estimate of environmental impacts are a useful tool for impact assessments because they can be used to filter out cases that potentially have a minimal environmental impact allowing resources to be focussed on more potentially damaging cases. The Simple Calculation of Ammonia Impact Limits (SCAIL) model was developed as a screening model to provide an estimate of the mean NH3 concentration and dry deposition rate downwind of an agricultural source. This screening tool, based on the LADD model, was evaluated and calibrated with several experimental datasets and then validated using independent concentration measurements made near sources. Overall SCAIL performed acceptably according to established statistical criteria. This work has identified situations where the concentration predictions of dispersion models are similar and other situations where the predictions are significantly different. Some models are simply not designed to simulate certain scenarios since they do not include the relevant processes or are beyond the limits of their applicability. An example is the LADD model that is not applicable to sources with significant exit velocity since the model does not include a plume-rise parameterisation. The testing of a simple scheme combining a momentum-driven plume rise and increased turbulence at the source improved model performance, but more testing is required. Even models that are applicable and include the relevant process do not always give similar predictions and the reasons for this need to be investigated. AERMOD for example predicts higher concentrations than ADMS for dispersion from mechanically ventilated livestock housing. There is evidence to suggest that ADMS underestimates concentrations in these situations due to a high wind speed threshold. Conversely, there is also evidence that AERMOD overestimates concentrations in these situations due to overestimation at low wind speeds. However, a simple modification to the meteorological pre-processor appears to improve the performance of the model. It is important that these differences between the predictions of these models are taken into account in regulatory assessments. This can be done by applying the most suitable model for the assessment in question or, better still, using multiple or hybrid models.
Resumo:
El premio Nobel Herbert Simon en un ensayo de 1969, definía la ingeniería como la ciencia de lo artificial, cosa que treinta años antes ya estaba contenida an la "Meditación de la Técnica" de Ortega. Simon explica también que la tarea de la ingeniería es cómo diseñar y fabricar artefactos que tengan ciertas propiedades. Al establecer la relación entre el carácter del artefacto y su objetivo surge la necesidad de considerar la influencia del medio ambiente en el que aquél va a funcionar y por eso se puede ver el artefacto como una interfase entre el ambiente exterior y su estructura interior. Las ciencias naturales influyen directamente en estos dos términos y por ello la ingeniería moderna surge cuando se aplican de forma sistemática los conocimientos generados por la ciencia positiva que permiten analizar éxitos y fracasos desde un punto de vista nacional y predecir los efectos de las alteraciones que se introduzcan sobre los diseños iniciales. En España el patriarca de la ingeniería moderna es Agustín de Betancourt, personaje extraordinario al que recientemente la Real Academia de Ingeniería acaba de declarar Summa Auctoritates Academiae y en cuyo honor le ha dedicado un altorrelieve en el Puerto de la Cruz, lugar donde nació en 1758. Pero la ingeniería sólo es grande cuando coincide la calidad de cada uno de los tres factores que intervienen en la misma: proyectistas con imaginación y conocimientos, industria capaz de ofrecer los materiales más adecuados y llevar adelante los procesos de construcción o montaje que áquel imagine y promotores con la solvencia económica capaces de calibrar las ventajas de las soluciones que se ofrecen y apreciar factores imponderables como la innovación, la estética o la sostenibilidad que tanto añaden al cumplimiento de los fines utilitarios que se encuentran en el origen de las intervenciones. El capítulo está organizado en tres bloques: en el primero se muestran brevísimamente algunos arquetipos históricos de la ingeniería más antigua, así como la progresiva influencia de los conocimientos científicos hasta llegar a Betancourt. A continuación se marca la evolución de éste desde su etapa de formación a su transformación en un influyente inventor, pero también en un reformador de los cuerpos de la Administración y de la enseñanza. Finalmente dedicaré un tiempo a hablar del mantenimiento de su espíritu, a pesar de guerras y revoluciones, a lo largo del siglo XX, para concluir con una breve reflexión sobre las enseñanzas a extraer de su ejemplo.
Resumo:
La complejidad en los proyectos y la complejidad de la dirección de proyectos son conceptos cuyo interés va en aumento. En el ámbito de los proyectos, dado que la gestión de recursos y las actividades suceden en interacción con las personas, la complejidad en dirección de proyectos resulta ser una práctica inherentemente social. Esto ha hecho que en la actualidad se haya convertido en una necesidad profundizar en el concepto. En el primer capítulo de esta investigación, se hace una revisión del estado del arte del concepto y se construye un marco teórico que permite establecer y justificar las dimensiones de la complejidad en esta disciplina. De igual manera, con una revisión similar de los estándares internacionales existentes, se descubren las herramientas y modelos para el análisis de la complejidad en dirección de proyectos, con la que se pretende, a través de la práctica profesional desde organismos y alianzas internacionales, ayudar a contrastar la utilidad e interés de los conceptos propuestos. En el segundo capítulo, se presenta un marco conceptual sobre la certificación de competencias, se analizan y comparan los principales sistemas de certificación de competencias vigentes en el ámbito de la dirección de proyectos. En el tercer capítulo, se presenta un proceso metodológico novedoso para valorar, desde la integración del conocimiento experto y experimentado, dos aspectos complementarios de la complejidad de la dirección de proyectos: (a) la valoración del nivel de complejidad del proyecto; y (b), la valoración de los efectos en el desarrollo de las competencias de comportamiento de las partes implicadas. La metodología propuesta se aplica a la Comunidad de Regantes LASESA en Huesca (España), proceso que se presenta en el cuarto capítulo. LASESA es un proyecto complejo que gestiona los recursos hídricos de 10.000 hectáreas y con más de 600 propietarios implicados. Los resultados evidencian como la gestión de un proyecto complejo genera efectos positivos en el desarrollo de las competencias de comportamiento de las personas que se implican y participan en los trabajos….. ABSTRACT The complexity of the projects and the complexity of project management are concepts whose interest is increasing. In terms of projects, since the management of resources and activities occur in interaction with people, the project management complexity makes an inherently social practice. This has now has become a necessity to deepen the concept. In the first chapter of this study, we review the state of art of the concept and builds a theoretical framework that allows to establish and justify the dimensions of the complexity in this discipline. Likewise, a similar review of existing international standards, we discover the tools and models for the analysis of complexity in project management, with which it is intended, through professional practice from agencies and international alliances, help to compare the usefulness and interest of the proposed concepts. In the second chapter, we present a conceptual framework for the certification of competences, are analyzed and compared the main skills certification systems in force in the field of project management. In the third chapter, we present a novel methodological process to assess, since the integration of expert knowledge and experienced, complementary aspects of the complexity of project management: (a) the assessment of the level of complexity of the project, and (b ), the assessment of the effects on the development of behavioral competencies of the parties involved. The proposed methodology is applied to the Community Irrigation LASESA in Huesca (Spain), a process that is presented in the fourth chapter. LASESA is a complex project that manages the water resources of 10,000 acres and more than 600 landowners involved. The results show as managing a complex project generates positive effects on the development of behavioral competencies of people who are involved and participate in the work.
El método de José Antonio Corrales y Ramón Vázquez Molezún. Influencias y escenarios arquitectónicos
Resumo:
El siguiente texto plantea un novedoso enfoque sobre el método de trabajo de José Antonio Corrales (1921-2010) y Ramón Vázquez Molezún (1922-1993), enfocado en la primera parte de su obra, la que culminaría con la Casa Huarte en el año 1966. Desarrollaron dos tipologías de proyectos: el pabellón abierto y la arquitectura concentrada. Ambas estrategias combinaban un comprometido diálogo con el lugar con una evidente influencia de diversas referencias arquitectónicas y artísticas de la primera mitad del siglo XX. Corrales y Molezún recibieron una educación clásica, falta de maestros, en una España situada en la autarquía y aislada del exterior, por lo que tuvieron que buscar referencias válidas en el extranjero. La arquitectura de Corrales y Molezún se alimentó de referentes diversos, que abarcan desde la primera Modernidad hasta los revisionistas de los años cincuenta (Team X, Reyner Banham, Ernesto Rogers), pasando por el Nuevo Empirismo nórdico, que representaba un equilibrio entre el racionalismo maquinista de la primera modernidad y las corrientes teóricas rupturistas de italianos y renovadoras de los ingleses. Las distintas corrientes y posicionamientos surgidos en Europa llegaban a España con cuenta gotas, pero resultaban estimulantes para los arquitectos nacionales de posguerra. Corrales y Molezún desarrollaron, desde sus primeros trabajos, un método alimentado por un lado por la influencia de los grandes arquitectos de la Modernidad y por otro por su convencimiento firme de que la arquitectura, además de atender a las necesidades de las personas, debía responder al lugar y dialogar con el paisaje. Este método se basaba en el ejercicio de una práctica teórica, alimentada por la experiencia y comprometida con el oficio. Esta estrategia implicaba un posicionamiento intelectual ante la arquitectura de igual valor que una aproximación teórica. Sus obras son sus manifiestos.
Resumo:
La caracterización de los cultivos cubierta (cover crops) puede permitir comparar la idoneidad de diferentes especies para proporcionar servicios ecológicos como el control de la erosión, el reciclado de nutrientes o la producción de forrajes. En este trabajo se estudiaron bajo condiciones de campo diferentes técnicas para caracterizar el dosel vegetal con objeto de establecer una metodología para medir y comparar las arquitecturas de los cultivos cubierta más comunes. Se estableció un ensayo de campo en Madrid (España central) para determinar la relación entre el índice de área foliar (LAI) y la cobertura del suelo (GC) para un cultivo de gramínea, uno de leguminosa y uno de crucífera. Para ello se sembraron doce parcelas con cebada (Hordeum vulgare L.), veza (Vicia sativa L.), y colza (Brassica napus L.). En 10 fechas de muestreo se midieron el LAI (con estimaciones directas y del LAI-2000), la fracción interceptada de la radiación fotosintéticamente activa (FIPAR) y la GC. Un experimento de campo de dos años (Octubre-Abril) se estableció en la misma localización para evaluar diferentes especies (Hordeum vulgare L., Secale cereale L., x Triticosecale Whim, Sinapis alba L., Vicia sativa L.) y cultivares (20) en relación con su idoneidad para ser usadas como cultivos cubierta. La GC se monitorizó mediante análisis de imágenes digitales con 21 y 22 muestreos, y la biomasa se midió 8 y 10 veces, respectivamente para cada año. Un modelo de Gompertz caracterizó la cobertura del suelo hasta el decaimiento observado tras las heladas, mientras que la biomasa se ajustó a ecuaciones de Gompertz, logísticas y lineales-exponenciales. Al final del experimento se determinaron el C, el N y el contenido en fibra (neutrodetergente, ácidodetergente y lignina), así como el N fijado por las leguminosas. Se aplicó el análisis de decisión multicriterio (MCDA) con objeto de obtener un ranking de especies y cultivares de acuerdo con su idoneidad para actuar como cultivos cubierta en cuatro modalidades diferentes: cultivo de cobertura, cultivo captura, abono verde y forraje. Las asociaciones de cultivos leguminosas con no leguminosas pueden afectar al crecimiento radicular y a la absorción de N de ambos componentes de la mezcla. El conocimiento de cómo los sistemas radiculares específicos afectan al crecimiento individual de las especies es útil para entender las interacciones en las asociaciones, así como para planificar estrategias de cultivos cubierta. En un tercer ensayo se combinaron estudios en rhizotrones con extracción de raíces e identificación de especies por microscopía, así como con estudios de crecimiento, absorción de N y 15N en capas profundas del suelo. Las interacciones entre raíces en su crecimiento y en el aprovisionamiento de N se estudiaron para dos de los cultivares mejor valorados en el estudio previo: uno de cebada (Hordeum vulgare L. cv. Hispanic) y otro de veza (Vicia sativa L. cv. Aitana). Se añadió N en dosis de 0 (N0), 50 (N1) y 150 (N2) kg N ha-1. Como resultados del primer estudio, se ajustaron correctamente modelos lineales y cuadráticos a la relación entre la GC y el LAI para todos los cultivos, pero en la gramínea alcanzaron una meseta para un LAI>4. Antes de alcanzar la cobertura total, la pendiente de la relación lineal entre ambas variables se situó en un rango entre 0.025 y 0.030. Las lecturas del LAI-2000 estuvieron correlacionadas linealmente con el LAI, aunque con tendencia a la sobreestimación. Las correcciones basadas en el efecto de aglutinación redujeron el error cuadrático medio del LAI estimado por el LAI-2000 desde 1.2 hasta 0.5 para la crucífera y la leguminosa, no siendo efectivas para la cebada. Esto determinó que para los siguientes estudios se midieran únicamente la GC y la biomasa. En el segundo experimento, las gramíneas alcanzaron la mayor cobertura del suelo (83-99%) y la mayor biomasa (1226-1928 g m-2) al final del mismo. Con la mayor relación C/N (27-39) y contenido en fibra digestible (53-60%) y la menor calidad de residuo (~68%). La mostaza presentó elevadas GC, biomasa y absorción de N en el año más templado en similitud con las gramíneas, aunque escasa calidad como forraje en ambos años. La veza presentó la menor absorción de N (2.4-0.7 g N m-2) debido a la fijación de N (9.8-1.6 g N m-2) y escasa acumulación de N. El tiempo térmico hasta alcanzar el 30% de GC constituyó un buen indicador de especies de rápida cubrición. La cuantificación de las variables permitió hallar variabilidad entre las especies y proporcionó información para posteriores decisiones sobre la selección y manejo de los cultivos cubierta. La agregación de dichas variables a través de funciones de utilidad permitió confeccionar rankings de especies y cultivares para cada uso. Las gramíneas fueron las más indicadas para los usos de cultivo de cobertura, cultivo captura y forraje, mientras que las vezas fueron las mejor como abono verde. La mostaza alcanzó altos valores como cultivo de cobertura y captura en el primer año, pero el segundo decayó debido a su pobre actuación en los inviernos fríos. Hispanic fue el mejor cultivar de cebada como cultivo de cobertura y captura, mientras que Albacete como forraje. El triticale Titania alcanzó la posición más alta como cultiva de cobertura, captura y forraje. Las vezas Aitana y BGE014897 mostraron buenas aptitudes como abono verde y cultivo captura. El MCDA permitió la comparación entre especies y cultivares proporcionando información relevante para la selección y manejo de cultivos cubierta. En el estudio en rhizotrones tanto la mezcla de especies como la cebada alcanzaron mayor intensidad de raíces (RI) y profundidad (RD) que la veza, con valores alrededor de 150 cruces m-1 y 1.4 m respectivamente, comparados con 50 cruces m-1 y 0.9 m para la veza. En las capas más profundas del suelo, la asociación de cultivos mostró valores de RI ligeramente mayores que la cebada en monocultivo. La cebada y la asociación obtuvieron mayores valores de densidad de raíces (RLD) (200-600 m m-3) que la veza (25-130) entre 0.8 y 1.2 m de profundidad. Los niveles de N no mostraron efectos claros en RI, RD ó RLD, sin embargo, el incremento de N favoreció la proliferación de raíces de veza en la asociación en capas profundas del suelo, con un ratio cebada/veza situado entre 25 a N0 y 5 a N2. La absorción de N de la cebada se incrementó en la asociación a expensas de la veza (de ~100 a 200 mg planta-1). Las raíces de cebada en la asociación absorbieron también más nitrógeno marcado de las capas profundas del suelo (0.6 mg 15N planta-1) que en el monocultivo (0.3 mg 15N planta-1). ABSTRACT Cover crop characterization may allow comparing the suitability of different species to provide ecological services such as erosion control, nutrient recycling or fodder production. Different techniques to characterize plant canopy were studied under field conditions in order to establish a methodology for measuring and comparing cover crops canopies. A field trial was established in Madrid (central Spain) to determine the relationship between leaf area index (LAI) and ground cover (GC) in a grass, a legume and a crucifer crop. Twelve plots were sown with either barley (Hordeum vulgare L.), vetch (Vicia sativa L.), or rape (Brassica napus L.). On 10 sampling dates the LAI (both direct and LAI-2000 estimations), fraction intercepted of photosynthetically active radiation (FIPAR) and GC were measured. A two-year field experiment (October-April) was established in the same location to evaluate different species (Hordeum vulgare L., Secale cereale L., x Triticosecale Whim, Sinapis alba L., Vicia sativa L.) and cultivars (20) according to their suitability to be used as cover crops. GC was monitored through digital image analysis with 21 and 22 samples, and biomass measured 8 and 10 times, respectively for each season. A Gompertz model characterized ground cover until the decay observed after frosts, while biomass was fitted to Gompertz, logistic and linear-exponential equations. At the end of the experiment C, N, and fiber (neutral detergent, acid and lignin) contents, and the N fixed by the legumes were determined. Multicriteria decision analysis (MCDA) was applied in order to rank the species and cultivars according to their suitability to perform as cover crops in four different modalities: cover crop, catch crop, green manure and fodder. Intercropping legumes and non-legumes may affect the root growth and N uptake of both components in the mixture. The knowledge of how specific root systems affect the growth of the individual species is useful for understanding the interactions in intercrops as well as for planning cover cropping strategies. In a third trial rhizotron studies were combined with root extraction and species identification by microscopy and with studies of growth, N uptake and 15N uptake from deeper soil layers. The root interactions of root growth and N foraging were studied for two of the best ranked cultivars in the previous study: a barley (Hordeum vulgare L. cv. Hispanic) and a vetch (Vicia sativa L. cv. Aitana). N was added at 0 (N0), 50 (N1) and 150 (N2) kg N ha-1. As a result, linear and quadratic models fitted to the relationship between the GC and LAI for all of the crops, but they reached a plateau in the grass when the LAI > 4. Before reaching full cover, the slope of the linear relationship between both variables was within the range of 0.025 to 0.030. The LAI-2000 readings were linearly correlated with the LAI but they tended to overestimation. Corrections based on the clumping effect reduced the root mean square error of the estimated LAI from the LAI-2000 readings from 1.2 to less than 0.50 for the crucifer and the legume, but were not effective for barley. This determined that in the following studies only the GC and biomass were measured. In the second experiment, the grasses reached the highest ground cover (83- 99%) and biomass (1226-1928 g/m2) at the end of the experiment. The grasses had the highest C/N ratio (27-39) and dietary fiber (53-60%) and the lowest residue quality (~68%). The mustard presented high GC, biomass and N uptake in the warmer year with similarity to grasses, but low fodder capability in both years. The vetch presented the lowest N uptake (2.4-0.7 g N/m2) due to N fixation (9.8-1.6 g N/m2) and low biomass accumulation. The thermal time until reaching 30% ground cover was a good indicator of early coverage species. Variable quantification allowed finding variability among the species and provided information for further decisions involving cover crops selection and management. Aggregation of these variables through utility functions allowed ranking species and cultivars for each usage. Grasses were the most suitable for the cover crop, catch crop and fodder uses, while the vetches were the best as green manures. The mustard attained high ranks as cover and catch crop the first season, but the second decayed due to low performance in cold winters. Hispanic was the most suitable barley cultivar as cover and catch crop, and Albacete as fodder. The triticale Titania attained the highest rank as cover and catch crop and fodder. Vetches Aitana and BGE014897 showed good aptitudes as green manures and catch crops. MCDA allowed comparison among species and cultivars and might provide relevant information for cover crops selection and management. In the rhizotron study the intercrop and the barley attained slightly higher root intensity (RI) and root depth (RD) than the vetch, with values around 150 crosses m-1 and 1.4 m respectively, compared to 50 crosses m-1 and 0.9 m for the vetch. At deep soil layers, intercropping showed slightly larger RI values compared to the sole cropped barley. The barley and the intercropping had larger root length density (RLD) values (200-600 m m-3) than the vetch (25-130) at 0.8-1.2 m depth. The topsoil N supply did not show a clear effect on the RI, RD or RLD; however increasing topsoil N favored the proliferation of vetch roots in the intercropping at deep soil layers, with the barley/vetch root ratio ranging from 25 at N0 to 5 at N2. The N uptake of the barley was enhanced in the intercropping at the expense of the vetch (from ~100 mg plant-1 to 200). The intercropped barley roots took up more labeled nitrogen (0.6 mg 15N plant-1) than the sole-cropped barley roots (0.3 mg 15N plant-1) from deep layers.
Resumo:
El siglo xx ha sido testigo en España de profundas transformaciones sociales, económicas y políticas. Ha sido, además, espejo de los cambios que experimentaron las diversas corrientes arquitectónicas que discurrieron a lo largo de este periodo por Europa y el resto del mundo. Este libro constituirá seguramente una sorpresa para muchos, pues presenta un animado fresco de estilos a través de su recorrido por los edificios más singulares y creativos de todos los puntos de nuestro país, sin ideas preconcebidas, de iglesias a mercados; de edificios archiconocidos hasta pequeñas joyas escondidas.
Resumo:
Como es bien sabido, actualmente la Unión Europea pasa por un momento de crisis energética y en concreto España tiene el problema de su gran dependencia energética de otros países, al mismo tiempo que el consumo de gas natural ha aumentado. El hecho de que Estados Unidos se haya autoabastecido energéticamente gracias al gas de esquisto extraído por fracturación hidráulica, hace que en Europa y consecuentemente en España, se vea esta técnica de forma favorable dado que reduciría esta dependencia energética. Pero en contra, la fracturación hidráulica ha dado lugar en Estados Unidos a una serie de accidentes cuyas consecuencias han tenido impacto en el medio ambiente y esto ha provocado un gran debate social a cerca de las consecuencias medioambientales de la extracción de gas de esquisto. Es inevitable, que al igual que ocurre con la extracción de hidrocarburos convencionales, también durante la extracción de hidrocarburos no convencionales existan unos riesgos asociados. Este Trabajo Fin de Máster se engloba dentro de un proyecto titulado “Seguridad en un proyecto de gas de esquisto” concretamente en la convocatoria de 2014 de “Proyectos I+D+I, del Programa Estatal de Investigación y Desarrollo e Innovación orientado a los retos de la sociedad”, por el Ministerio de Economía y Competitividad. Se ha realizado un estudio de incidentes ocurridos en Estados Unidos que es donde más experiencia hay en la práctica de la técnica de la fracturación hidráulica y una vez conocidas sus causas y el tipo de impacto se ha asignado las probabilidades de que ocurran y en qué fase del proyecto de extracción de gas de esquisto es más probable que tengan lugar. Las principales preocupaciones en relación con el medio ambiente que se plantean respecto a la explotación del gas no convencional mediante la técnica de la fracturación hidráulica son: contaminación de los acuíferos (bien sea por el fluido de fracturación empleado o por el metano); consumo de agua necesaria durante la fracturación hidráulica; el tratamiento, control y posible radiactividad de las aguas de retorno; sismicidad inducida por la fracturación hidráulica y contaminación atmosférica por emisiones incontroladas, especialmente metano. Con el objetivo de controlar, prevenir o mitigar los riesgos que conlleva el desarrollo de estas prácticas, la Unión Europea estableció la Recomendación (2014/70/UE), de 22 de enero de 2014. Del mismo modo, debido al incremento del número de permisos de investigación de esta técnica que se solicitaron en España, las actividades de fracturación hidráulica se regularon en el artículo 9.5 de la Ley 17/2013 del Sector de Hidrocarburos y por la Ley 21/2013 de Evaluación de Impacto Ambiental. Consecuentemente se han propuesto en este trabajo una serie de recomendaciones para minimizar los incidentes que pudiesen ocurrir en España provocados por esta técnica. Las más destacadas son: correcto diseño del pozo, realización de estudios hidrológicos y redes de control, reducción del consumo de agua mediante reutilización de las aguas de retorno y de producción después de que se traten en plantas de tratamiento de aguas residuales, utilización de equipos de medida de sustancias químicas en la planta, monitorización sísmica en tiempo real 3D del pozo, así como planes de vigilancia de tipo semáforo para reducir la sismicidad inducida por la aplicación de la técnica.
Resumo:
El establecimiento de políticas de vigilancia y protección del suelo exige la validación de métodos de análisis eficaces para determinar la calidad del suelo y hacer posible su evaluación en relación con su estado de contaminación. Para poder caracterizar el suelo desde el punto de vista de su vitalidad, se han investigado los Métodos de Formación de Imágenes (Bildschaffende Methode) y en particular los métodos de Dinamolisis Capilar (Steigbild Methode) desarrollados por L. Kolisko. Partiendo de la configuración horizontal conocida como Chroma-Test, propuesta por E. Pfeiffer, se han identificado las modificaciones del método original que hacen posible su validación. A continuación se han verificado realizando ensayos ciegos colaborativos y comparando los resultados con los obtenidos por otros métodos experimentales utilizados para evaluar la fertilidad del suelo. Como caso práctico se presenta una investigación en el antiguo distrito minero de plomo de Linares, situado en Jaén, España. Esta investigación sienta las bases para un avance significativo en la evaluación de los suelos y su posible calificación como contaminados. El método Horizontal de Dinamolisis Capilar propuesto permite identificar de forma simple y directa los efectos inhibidores de las funciones del suelo debidas tanto a la contaminación puntual o local como a la contaminación difusa. AB S TRACT Establishing policies for Soil protection and monitoring, requires the validation of effective analytical methods for determining soil quality and assess the state of contamination. The possibilities of Image Forming Methods (Bildschaffende Methode), and in particular the methods of Capillary Dynamolysis (Steigbild Methode) of L. Kolisko have been investigated in order to characterize soil quality from the point of view of its vitality. Based on the horizontal configuration known as Chroma-Test, proposed by E. Pfeiffer, the amendments to the original method that enable validation have been identified, and then verified through collaborative blind tests and through comparison with results provided by other experimental methods often used in agriculture to assess soil quality. As a case study the investigation at the former lead mining district of Linares, located in Jaen, Spain, is presented. This research lays the groundwork for significant progress in the assessment of soils and their possible declaration as contaminated. The proposed Horizontal Capyllary Dynamolysis Method allows to identify in a simple and direct way the inhibiting effects on soil functions due to both local contamination and/or diffuse contamination.
Resumo:
Como no pocos proyectos, el origen de esta tesis es fruto de una casualidad. Hace unos años me topé en Londres, en la librería Walden Books del 38 de Harmood St., con una primera edición de la conocida monografía de Mies a cargo de Philip Johnson. El librito, en realidad catálogo de la exposición que en 1947 el MoMA de Nueva York dedicara a la obra de Mies Van der Rohe a los diez años del desembarco del arquitecto en Estados Unidos, tiene un tamaño de 10 x 7,5 pulgadas, es decir, la mitad del formato americano Crown (20x15 pulgadas), equivalente a 508 x 381 mm. Se imprimieron, en su primera tirada, editada por The Plantin Press, 12.000 ejemplares. Ese mismo año, con edición al cuidado de Reynal y Hitchcock, se publicaría la primera traducción al inglés de Cuando las catedrales eran blancas de Le Corbusier y una selección de poemas de Lorca, siete años después de su Poeta en Nueva York. En la monografía, en la página 109, aparece el conocido croquis de Mies Sketch for a glass house on a hillside. c. 1934, escasamente unas líneas, aunque precisas y llenas de matices, de la casa en una ladera que rápidamente nos remite a aquella primera propuesta de Saarinen para una casa en el aire, primero en 1941 en Pensilvania y después, en 1945, con Charles Eames, en Los Angeles, que nunca llegarían a construirse, sino en su aliteraciones posteriores realizadas por Harry Seidler (Julian Rose House, Wahroonga, Sydney, 1949), Philip Johnson (Leonhardt house, Long Island, Nueva York, 1956) o Craig Ellwood (Smith House, Crestwood Hills, 1958; Frank & Polly Pierson House, Malibú, 1962; Chamorro House, Hollywood Hills, 1963, o la serie Weekend House, con Gerald Horn, entre 1964 y 1970, hasta el magnífico Art Center College of Design de Pasadera, su puente habitado de 1977). El relato que da origen al texto discurre en un estricto período de tiempo, desde los primeros dibujos de la Case Study House nº8, dentro del programa promovido por John Entenza y su revista Arts & Architecture en California, realizados en el estudio de Saarinen en Bloomfield Hills, Michigan, hasta que el proyecto de la casa Eames finaliza cinco años después de acabar la obra en 1955, en la versión conocida, radicalmente distinta al proyecto original, cuando la pareja Charles y Ray Eames edita el corto House After Five Years of Living. La discusión original en torno a esta casita, o mejor, a las circunstancias, casualidades controladas, que rodean su construcción, se produce estrictamente cuando rastreamos aquellos invariantes que se mantienen en las dos versiones y las reconcilian. En este corto período de tiempo se producen en el proyecto una serie de decisiones que permiten descubrir, tanto en la forma como en el mismo proceso transformador del proyecto, en su obsesivo registro, en los nuevos referentes asumidos y propuestos, la primera visibilidad del cambio del paradigma moderno. Pero este momento germinal que cristaliza el paso a la postmodernidad no es inédito en la historia de la arquitectura americana. Así, el relato abre su ámbito temporal hasta un nuevo período de cincuenta años que arranca en 1893, año de la celebración en Chicago de la Exposición Internacional Colombina. En la White City de Hunt & McKim y del traidor Burham, Louis Sullivan construye su Golden Doorway en el pabellón de los Transportes. Aquella que visitará Adolf Loos antes de volver, renovado, a Viena; la misma que admirará André Bouillet, representante de la Union Centrale des Arts Decoratifs de Paris, y que deslumbrará en los museos de toda Europa, de París a Moscú en grandes fotografías y maquetas. Hasta que en Finlandia alguien muestra una de esas fotografías a un joven estudiante de diecinueve años en el Instituto Politécnico. Eliel Saarinen queda fascinado por la poderosa novedad de la imagen. Cuelga la fotografía frente a su tablero de dibujo, consciente de que la Golden Doorway, esa puerta de la aventura y la catarsis que Sullivan acuñaría como distintivo y que resolvería como único elemento complejo sus proyectos más maduros, desprovistos de todo ornamento; la misma que repetirían más tarde, con profundo reconocimiento, Ladovsky, Wright, Scarpa o Moneo, puerta dentro de puerta, fuelle y umbral, contenía, en sus propias palabras emocionadas, todo el futuro de la arquitectura. Desde ahí, pasando por el año 1910, momento de la huida de Wright a La Toscana y el descubrimiento de su arquitectura en Europa, entre otros por un joven Mies van der Rohe, meritorio en el estudio de Peter Behrens, a través del Wasmuth Portfolio; y así como algo después, en 1914, Schindler y en 1923 Neutra, harán el camino inverso, hasta que Mies les siga en 1937, animado por un Philip Johnson que había viajado a Europa en 1930, volviendo a 1945 y el inicio del programa Case Study House en California, hasta 1949, momento de la construcción de la CSH#8, y, por fin, al año 1955, after 5 years of living, en el que Julius Shulman fotografía la casa de Ray y Charles Eames en el prado de Chautauqua sobre las Pacific Palisades de Los Angeles, lanzando sus finas líneas amarillas hasta Alison y Peter Smithson y su tardomoderno heroico, hasta el primer Foster y su poético hightech y hasta el O-riginal Ghery, deconstruyendo el espacio esencial de su casa desde el espacio mismo, abiertas ya las puertas al nuevo siglo. Y en estos cambios de paradigma, desde el rígido eclecticismo de los estilos al lirismo moderno en el gozne secular y de ahí a la frivolidad, ligereza, exhibicionismo y oportunismo cultos del hecho postmoderno, hay algo que se mantiene invariante en los bandazos de la relación del hombre contemporáneo con su entorno. Como la escultura, que según Barnett Newman no es sino aquello contra lo que uno choca cuando retrocede para mirar un cuadro, en estos prístinos lugares, comunes y corrientes, recorrido, puerta, umbral, recinto y vacío, te topas con la arquitectura antes de darte cuenta de que es arquitectura. ABSTRACT As with many other projects, the origin of this doctoral thesis is the result of a chance. A few years ago I found in a bookstore in London, 38 Harmood st., Walden Books, a first edition of the well-known monograph about Mies by Philip Johnson. The tiny book, in fact a catalog of the exhibition that the MoMA of New York devoted to the work of Mies van der Rohe in 1947, ten years after his landing in the United States, has a size of 10 x 7.5 inches, that is, half of Crown American format (20 x 15 inches), equivalent to 508 x 381 mm. In the first printing, published by The Plantin Press, 12,000 copies were released. That same year, produced by Reynal and Hitchcock, both the first English translation of When the cathedrals were white by Le Corbusier and a selection of poems by Lorca were published, seven years after his Poet in New York. Inside the book, the famous drawing from Mies Sketch for a glass house on a hillside c. 1934 appears on page 109, barely a few lines, precise and nuanced though, the house on a hillside that quickly reminds us of the proposals of Eero Saarinen for a house in the air, first in 1941, in Pennsylvania, and later, in 1945, with Charles Eames, in Los Angeles, that would never be built, but in their later alliterations made by Harry Seidler (Julian Rose House, Wahroonga, Sydney, 1949), Philip Johnson (Leonhardt house, Long Island, New York, 1956) or Craig Ellwood (Smith House, Crestwood Hills, 1958; Frank Pierson & Polly House, Malibu, 1962, Chamorro House, Hollywood Hills, 1963, or the Weekend House series, with Gerald Horn, between 1964 and 1970, to the magnificent Art Center College of Design Pasadena, the inhabited bridge, in 1977). The story that gives rise to the text flows in a short amount of time, from the first drawings of the Case Study House No. 8, within the program promoted by John Entenza and his magazine Arts & Architecture in California, made in the study of Saarinen in Bloomfield Hills, Michigan, until the project of the Eames house is completed five years after finishing the construction in 1955, in the final version we know, radically different from the initial state, when the couple, Charles and Ray, published the film House after Five Years of Living. The original discussion around this house, or better, about the circumstances, controlled coincidences, regarding its construction, appears when one takes account of those that remain, the invariants, in the two versions, drawn and built, which precisely allow the reconciliation between both projects. In this short period of time a series of decisions made in the transformation process of the project reveal, in the obsessive record made by Charles Eames and in the new proposed references, the first visibility of the changing of the modern paradigm. But this germinal moment that crystallizes the transition to postmodernism is not unprecedented in the history of American architecture. So, the story opens its temporal scope to a fifty-year period that started in 1893, date of the celebration of the Chicago World´s Columbian Exposition. In the White City by Hunt & McKim and Burnham, the traitor, Louis Sullivan builds his Golden Doorway in the Transportation Building. That visited by a renovated Adolf Loos before his coming back to Vienna; the same that André Bouillet, Head of the Union Centrale des Arts Decoratifs in Paris, admired and dazzled in museums all over Europe, from Paris to Moscow, in large photographs and models. Until someone in Finland showed one of those photos to a young nineteen-years-old student at the Polytechnic Institute. Eliel Saarinen became fascinated by the powerful new image: he hanged the picture in front of his drawing board, aware that the Golden Doorway, that door of adventure and catharsis Sullivan coined as distinctive and as a single complex element which would solve their most mature projects, devoid of all ornament; the same that would repeat later, with deep appreciation, Ladovsky, Wright, Scarpa, or Moneo, a door inside a door, a threshold, a gap that contained, in its own moving words, the whole future of architecture. From there, through 1910, when Wright's flight to Tuscany allows Europe to discover his architecture, including a young Mies van der Rohe, meritorious in the studio of Peter Behrens, via the Wasmuth Portfolio; and as a little bit later, in 1914, Schindler and Neutra in 1923, made the travel in opposite direction, until Mies follows them in 1937, led by a Philip Johnson who had traveled to Europe in 1930, we return to 1945 and the beginning of the program Case Study House in California, and from 1949, when construction of the CSH # 8 begins, and finally, to 1955, after five years of living, when Julius Shulman photographs the inside of the house with Ray and Charles Eames, and all their belongins, at the Chautauqua meadows on Pacific Palisades in Los Angeles, launching its fine yellow lines to Alison and Peter Smithson and his heroic late modern, up to the first Foster and his poetic hightech and even the O-riginal Gehry, deconstructing the essential space of his home from the space itself, opening the doors to the new century. And these paradigm shifts, from the hard eclectic styles to modern secular lyricism in the hinge and then overcoming the cultured frivolity, lightness, exhibitionism, and opportunism of the postmodern skeptical focus, something remains intense, invariant in the lurching relationship of contemporary man and his environment. As the sculpture, which according to Barnett Newman is what you bump into when you back up to see a painting, in these pristine, ordinary places, promenade, door, threshold, enclosure and emptiness, you stumble upon the architecture even before realizing that it is architecture.