889 resultados para También la luz es un abismo


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Una vez más, la luz ha sido protagonista de un Premio Nobel. Con el concedido a Charles Kao, son ya 15 los científicos o tecnólogos en este campo que, desde 1964, han visto recompensado su trabajo con este galardón. Han sido necesarios 33 años para que la obra de Kao alcance el reconocimiento público con el Nobel, pero, para los profesionales de las comunicaciones, ese reconocimiento surgió tras la publicación de su artículo más emblemático en una prestigiosa revista británica. En 1966 mostró a todos que el material más idóneo para transmitir la luz a su través era la sílice, uno de los materiales más abundantes en la corteza terrestre

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo principal está recogido en el título de la Tesis. Ampliando éste para hacerlo más explícito, puede decirse que se trata de “desarrollar un sistema de control para que una instalación fotovoltaica de bombeo directo con una bomba centrífuga accionada por un motor de inducción trabaje de la forma más eficiente posible”. Para lograr ese propósito se establecieron los siguientes objetivos específicos: 1. Diseñar y construir un prototipo de instalación fotovoltaica de bombeo directo que utilice principalmente elementos de bajo coste y alta fiabilidad. Para cumplir esos requisitos la instalación consta de un generador fotovoltaico con módulos de silicio monocristalino, una bomba centrífuga accionada por un motor de inducción y un inversor que controla vectorialmente el motor. Los módulos de silicio monocristalino, el motor asíncrono y la bomba centrífuga son, en sus respectivas categorías, los elementos más robustos y fiables que existen, pudiendo ser adquiridos, instalados e incluso reparados (el motor y la bomba) por personas con una mínima formación técnica en casi cualquier lugar del mundo. El inversor no es tan fiable ni fácil de reparar. Ahora bien, para optimizar la potencia que entrega el generador y tener algún tipo de control sobre el motor se necesita al menos un convertidor electrónico. Por tanto, la inclusión del inversor en el sistema no reduce su fiabilidad ni supone un aumento del coste. La exigencia de que el inversor pueda realizar el control vectorial del motor responde a la necesidad de optimizar tanto la operación del conjunto motor-bomba como la del generador fotovoltaico. Como más adelante se indica, lograr esa optimización es otro de los objetivos que se plantea. 2. Reducir al mínimo el número de elementos de medida y control que necesita el sistema para su operación (sensorless control). Con ello se persigue aumentar la robustez y fiabilidad del sistema y reducir sus operaciones de mantenimiento, buscando que sea lo más económico posible. Para ello se deben evitar todas las medidas que pudieran ser redundantes, tomando datos sólo de las variables eléctricas que no pueden obtenerse de otra forma (tensión e intensidad en corriente continua y dos intensidades en corriente alterna) y estimando la velocidad del rotor (en vez de medirla con un encoder u otro dispositivo equivalente). 3. Estudiar posibles formas de mejorar el diseño y la eficiencia de estas instalaciones. Se trata de establecer criterios para seleccionar los dispositivos mas eficientes o con mejor respuesta, de buscar las condiciones para la operación óptima, de corregir problemas de desacoplo entre subsistemas, etc. Mediante el análisis de cada una de las partes de las que consta la instalación se plantearán estrategias para minimizar pérdidas, pautas que permitan identificar los elementos más óptimos y procedimientos de control para que la operación del sistema pueda alcanzar la mayor eficiente posible. 4. Implementar un modelo de simulación del sistema sobre el que ensayar las estrategias de control que sean susceptibles de llevar a la práctica. Para modelar el generador fotovoltaico se requiere un conjunto de parámetros que es necesario estimar previamente a partir de datos obtenidos de los catálogos de los módulos a utilizar o mediante ensayos. Igual sucede con los parámetros para modelar el motor. Como se pretende que el motor trabaje siempre con la máxima eficiencia será necesario realizar su control vectorial, por lo que el modelo que se implemente debe ser también vectorial. Ahora bien, en el modelo vectorial estándar que normalmente se utiliza en los esquemas de control se consideran nulas las pérdidas en el hierro, por lo que sólo se podrá utilizar ese modelo para evaluar la eficiencia del motor si previamente se modifica para que incluya el efecto de dichas pérdidas. 5. Desarrollar un procedimiento de control para que el inversor consiga que el motor trabaje con mínimas pérdidas y a la vez el generador entregue la máxima potencia. Tal como se ha mencionado en el primer objetivo, se trata de establecer un procedimiento de control que determine las señales de consigna más convenientes para que el inversor pueda imponer en cada momento al motor las corrientes de estator para las que sus pérdidas son mínimas. Al mismo tiempo el procedimiento de control debe ser capaz de variar las señales de consigna que recibe el inversor para que éste pueda hacer que el motor demande más o menos potencia al generador fotovoltaico. Actuando de esa forma se puede lograr que el generador fotovoltaico trabaje entregando la máxima potencia. El procedimiento de control desarrollado se implementará en un DSP encargado de generar las señales de referencia que el inversor debe imponer al motor para que trabaje con mínimas pérdidas y a la vez el generador fotovoltaico entregue la máxima potencia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Al igual que la poesía necesita de la materialidad de la palabra para llegar a conmovernos en lo más hondo, la luz, el material central de la arquitectura necesita de la gravedad, de la masa, para poder ser atrapada por ella y mover el corazón de los hombres.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los arquitectos se han sentido progresivamente inclinados a incorporar superficies de vidrio cada vez mayores en sus proyectos de arquitectura, en correspondencia con una percepción socio-cultural del vidrio vinculada al progreso, la contemporaneidad y el bienestar, así como por la versatilidad de este material para expresar aspectos de la identidad del proyecto, establecer comunicación con el entorno y actuar como un escaparate para las tecnologías emergentes. A pesar de esta receptividad para acoger los sistemas tecnológicos más avanzados, la envolvente de vidrio contemporánea muy raramente integra tecnología avanzada para el control de la luz natural. Desde la arquitectura, el proyecto de la luz natural a través de la superficie de vidrio se ha explorado muy escasamente, aún cuando en las últimas tres décadas se haya producido una gran diversidad de soluciones tecnológicas para este propósito. Uno de los motivos principales para esta falta de sinergia es la inconsistencia conceptual que impulsa a los procesos proyectuales de la arquitectura y a los desarrollos tecnológicos para la sostenibilidad. Por un lado, las especificaciones de las tecnologías del control de la luz natural se determinan fundamentalmente desde una perspectiva científica de la eficiencia, que no tiene en consideración otros intereses y preocupaciones arquitectónicos. Por otro lado, la práctica arquitectónica no ha asimilado un pensamiento técnico en torno a la luz natural que lo determine como un agente clave del proceso proyectual, incluso cuando la sostenibilidad se perfile como la fuerza que ha de liderar la arquitectura del futuro y, en este sentido, sea una prioridad absoluta minimizar las consecuencias económicas y ecológicas del impacto negativo del vidrio. Por medio del escrutinio de valores culturales, proyectuales, funcionales y ecológicos, esta tesis aborda el estudio del precario diálogo transdisciplinar entre la evolución de la envolvente de vidrio en la arquitectura contemporánea y el desarrollo de soluciones tecnológicas para el proyecto de la luz natural, e identifica sus principales puntos de divergencia como los temas centrales desde los que proyectar con vidrio en una arquitectura sostenible futura. Desde una perspectiva energética, este ejercicio es un paso crítico para concienciar sobre la gravedad de la situación presente y establecer los cimientos para líneas de intervención esenciales para hacer a ambos mundos converger. Desde la óptica arquitectónica, este estudio representa además de una oportunidad para entender los potenciales proyectuales de estas tecnologías y reflexionar sobre la relación vidrio-luz, un escenario desde el que comprender el estatus incongruente de la sostenibilidad tecnológica en la arquitectura actual, contribuyendo a que se genere una contextualización recíproca entre la investigación en energía y la práctica de la arquitectura futura. ABSTRACT Architects are increasingly demanded to incorporate extensive glazed areas in buildings in correspondence with a socio-cultural perception of glass linked with progress, contemporaneity and welfare, as well as for this material’s versatility to express identity features, establish communication with its environment, and perform as a showroom for emergent technologies. Despite this disposition to take cutting-edge technology in, the contemporary glass envelope very scarcely integrates advanced daylight control technology. From an architectural standpoint, the exploration of the manipulation of natural light through the glass surface has been very swallow, even though a wide range of technical solutions has being produced in the last three decades for this purpose. One of the core issues behind this inconsistency is the lack of established synergy between architectural design processes and sustainable technological developments. From one side, the specifications of daylighting technologies are primarily determined by a scientific perspective of efficiency and disregard fundamental architectural concerns and interests. From another, architectural practice does not conceive sustainable technologies as key active agents in the design process, despite the fact the concept of sustainability is constantly regarded as the driving force of the leading-edge architecture of the future, and in this sense, it becomes an absolute priority to minimize the ecological and economical consequences of glass decisive impact in buildings. Through the scrutiny of cultural, functional and ecological values, this thesis analyses the precarious transdisciplinary dialogue between the evolution of the glass envelope in contemporary architecture and the development of daylighting technological solutions, and identifies the core affairs necessary to a sustainable integration of glass facades into future architecture. From an energy point of view, this exercise is a critical step to raise awareness about the severity of the present situation, and to establish the underpinnings for new lines of intervention essential to make both worlds efficiently converge. Architecturally speaking, in addition to the opportunity to understand the design potentials of these technologies and reflect on the relationship glasslight, this study contributes with a scenario from which generate the reciprocal contextualization of energy building research to future architectural practices.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El aumento de la temperatura media de la Tierra durante el pasado siglo en casi 1 ºC; la subida del nivel medio del mar; la disminución del volumen de hielo y nieve terrestres; la fuerte variabilidad del clima y los episodios climáticos extremos que se vienen sucediendo durante las ultimas décadas; y el aumento de las epidemias y enfermedades infecciosas son solo algunas de las evidencias del cambio climático actual, causado, principalmente, por la acumulación de gases de efecto invernadero en la atmósfera por actividades antropogénicas. La problemática y preocupación creciente surgida a raíz de estos fenómenos, motivo que, en 1997, se adoptara el denominado “Protocolo de Kyoto” (Japón), por el que los países firmantes adoptaron diferentes medidas destinadas a controlar y reducir las emisiones de los citados gases. Entre estas medidas cabe destacar las tecnologías CAC, enfocadas a la captura, transporte y almacenamiento de CO2. En este contexto se aprobó, en octubre de 2008, el Proyecto Singular Estratégico “Tecnologías avanzadas de generación, captura y almacenamiento de CO2” (PSE-120000-2008-6), cofinanciado por el Ministerio de Ciencia e Innovación y el FEDER, el cual abordaba, en su Subproyecto “Almacenamiento Geológico de CO2” (PSS-120000-2008-31), el estudio detallado, entre otros, del Análogo Natural de Almacenamiento y Escape de CO2 de la cuenca de Ganuelas-Mazarrón (Murcia). Es precisamente en el marco de dicho Proyecto en el que se ha realizado este trabajo, cuyo objetivo final ha sido el de predecir el comportamiento y evaluar la seguridad, a corto, medio y largo plazo, de un Almacenamiento Geológico Profundo de CO2 (AGP-CO2), mediante el estudio integral del citado análogo natural. Este estudio ha comprendido: i) la contextualización geológica e hidrogeológica de la cuenca, así como la investigación geofísica de la misma; ii) la toma de muestras de aguas de algunos acuíferos seleccionados con el fin de realizar su estudio hidrogeoquímico e isotópico; iii) la caracterización mineralógica, petrográfica, geoquímica e isotópica de los travertinos precipitados a partir de las aguas de algunos de los sondeos de la cuenca; y iv) la medida y caracterización química e isotópica de los gases libres y disueltos detectados en la cuenca, con especial atención al CO2 y 222Rn. Esta información, desarrollada en capítulos independientes, ha permitido realizar un modelo conceptual de funcionamiento del sistema natural que constituye la cuenca de Ganuelas-Mazarrón, así como establecer las analogías entre este y un AGP-CO2, con posibles escapes naturales y/o antropogénicos. La aplicación de toda esta información ha servido, por un lado, para predecir el comportamiento y evaluar la seguridad, a corto, medio y largo plazo, de un AGP-CO2 y, por otro, proponer una metodología general aplicable al estudio de posibles emplazamientos de AGP-CO2 desde la perspectiva de los reservorios naturales de CO2. Los resultados más importantes indican que la cuenca de Ganuelas-Mazarrón se trata de una cubeta o fosa tectónica delimitada por fallas normales, con importantes saltos verticales, que hunden al substrato rocoso (Complejo Nevado-Filabride), y rellenas, generalmente, por materiales volcánicos-subvolcánicos ácidos. Además, esta cuenca se encuentra rellena por formaciones menos resistivas que son, de muro a techo, las margas miocenas, predominantes y casi exclusivas de la cuenca, y los conglomerados y gravas pliocuaternarias. El acuífero salino profundo y enriquecido en CO2, puesto de manifiesto por la xx exploración geotérmica realizada en dicha cuenca durante la década de los 80 y objeto principal de este estudio, se encuentra a techo de los materiales del Complejo Nevado-Filabride, a una profundidad que podría superar los 800 m, según los datos de la investigación mediante sondeos y geofísica. Por ello, no se descarta la posibilidad de que el CO2 se encuentre en estado supe critico, por lo que la citada cuenca reuniría las características principales de un almacenamiento geológico natural y profundo de CO2, o análogo natural de un AGP-CO2 en un acuífero salino profundo. La sobreexplotación de los acuíferos mas someros de la cuenca, con fines agrícolas, origino, por el descenso de sus niveles piezométricos y de la presión hidrostática, el ascenso de las aguas profundas, salinas y enriquecidas en CO2, las cuales son las responsables de la contaminación de dichos acuíferos. El estudio hidrogeoquímico de las aguas de los acuíferos investigados muestra una gran variedad de hidrofacies, incluso en aquellos de litología similar. La alta salinidad de estas aguas las hace inservibles tanto para el consumo humano como para fines agrícolas. Además, el carácter ligeramente ácido de la mayoría de estas aguas determina que tengan gran capacidad para disolver y transportar, hacia la superficie, elementos pesados y/o tóxicos, entre los que destaca el U, elemento abundante en las rocas volcánicas ácidas de la cuenca, con contenidos de hasta 14 ppm, y en forma de uraninita submicroscópica. El estudio isotópico ha permitido discernir el origen, entre otros, del C del DIC de las aguas (δ13C-DIC), explicándose como una mezcla de dos componentes principales: uno, procedente de la descomposición térmica de las calizas y mármoles del substrato y, otro, de origen edáfico, sin descartar una aportación menor de C de origen mantélico. El estudio de los travertinos que se están formando a la salida de las aguas de algunos sondeos, por la desgasificación rápida de CO2 y el consiguiente aumento de pH, ha permitido destacar este fenómeno, por analogía, como alerta de escapes de CO2 desde un AGP-CO2. El análisis de los gases disueltos y libres, con especial atención al CO2 y al 222Rn asociado, indican que el C del CO2, tanto disuelto como en fase libre, tiene un origen similar al del DIC, confirmándose la menor contribución de CO2 de origen mantélico, dada la relación R/Ra del He existente en estos gases. El 222Rn sería el generado por el decaimiento radiactivo del U, particularmente abundante en las rocas volcánicas de la cuenca, y/o por el 226Ra procedente del U o del existente en los yesos mesinienses de la cuenca. Además, el CO2 actúa como carrier del 222Rn, hecho evidenciado en las anomalías positivas de ambos gases a ~ 1 m de profundidad y relacionadas principalmente con perturbaciones naturales (fallas y contactos) y antropogénicas (sondeos). La signatura isotópica del C a partir del DIC, de los carbonatos (travertinos), y del CO2 disuelto y libre, sugiere que esta señal puede usarse como un excelente trazador de los escapes de CO2 desde un AGPCO2, en el cual se inyectara un CO2 procedente, generalmente, de la combustión de combustibles fósiles, con un δ13C(V-PDB) de ~ -30 ‰. Estos resultados han permitido construir un modelo conceptual de funcionamiento del sistema natural de la cuenca de Ganuelas-Mazarrón como análogo natural de un AGP-CO2, y establecer las relaciones entre ambos. Así, las analogías mas importantes, en cuanto a los elementos del sistema, serian la existencia de: i) un acuífero salino profundo enriquecido en CO2, que seria análoga a la formación almacén de un AGPxxi CO2; ii) una formación sedimentaria margosa que, con una potencia superior a 500 m, se correspondería con la formación sello de un AGP-CO2; y iii) acuíferos mas someros con aguas dulces y aptas para el consumo humano, rocas volcánicas ricas en U y fallas que se encuentran selladas por yesos y/o margas; elementos que también podrían concurrir en un emplazamiento de un AGP-CO2. Por otro lado, los procesos análogos mas importantes identificados serian: i) la inyección ascendente del CO2, que seria análoga a la inyección de CO2 de origen antropogénico, pero este con una signatura isotópica δ13C(V-PDB) de ~ -30 ‰; ii) la disolución de CO2 y 222Rn en las aguas del acuífero profundo, lo que seria análogo a la disolución de dichos gases en la formación almacén de un AGP-CO2; iii) la contaminación de los acuíferos mas someros por el ascenso de las aguas sobresaturadas en CO2, proceso que seria análogo a la contaminación que se produciría en los acuíferos existentes por encima de un AGP-CO2, siempre que este se perturbara natural (reactivación de fallas) o artificialmente (sondeos); iv) la desgasificación (CO2 y gases asociados, entre los que destaca el 222Rn) del acuífero salino profundo a través de sondeos, proceso análogo al que pudiera ocurrir en un AGP-CO2 perturbado; y v) la formación rápida de travertinos, proceso análogo indicativo de que el AGP-CO2 ha perdido su estanqueidad. La identificación de las analogías más importantes ha permitido, además, analizar y evaluar, de manera aproximada, el comportamiento y la seguridad, a corto, medio y largo plazo, de un AGP-CO2 emplazado en un contexto geológico similar al sistema natural estudiado. Para ello se ha seguido la metodología basada en el análisis e identificación de los FEPs (Features, Events and Processes), los cuales se han combinado entre sí para generar y analizar diferentes escenarios de evolución del sistema (scenario analysis). Estos escenarios de evolución identificados en el sistema natural perturbado, relacionados con la perforación de sondeos, sobreexplotación de acuíferos, precipitación rápida de travertinos, etc., serian análogos a los que podrían ocurrir en un AGP-CO2 que también fuera perturbado antropogénicamente, por lo que resulta totalmente necesario evitar la perturbación artificial de la formación sello del AGPCO2. Por último, con toda la información obtenida se ha propuesto una metodología de estudio que pueda aplicarse al estudio de posibles emplazamientos de un AGP-CO2 desde la perspectiva de los reservorios naturales de CO2, sean estancos o no. Esta metodología comprende varias fases de estudio, que comprendería la caracterización geológico-estructural del sitio y de sus componentes (agua, roca y gases), la identificación de las analogías entre un sistema natural de almacenamiento de CO2 y un modelo conceptual de un AGP-CO2, y el establecimiento de las implicaciones para el comportamiento y la seguridad de un AGP-CO2. ABSTRACT The accumulation of the anthropogenic greenhouse gases in the atmosphere is the main responsible for: i) the increase in the average temperature of the Earth over the past century by almost 1 °C; ii) the rise in the mean sea level; iii) the drop of the ice volume and terrestrial snow; iv) the strong climate variability and extreme weather events that have been happening over the last decades; and v) the spread of epidemics and infectious diseases. All of these events are just some of the evidence of current climate change. The problems and growing concern related to these phenomena, prompted the adoption of the so-called "Kyoto Protocol" (Japan) in 1997, in which the signatory countries established different measurements to control and reduce the emissions of the greenhouse gases. These measurements include the CCS technologies, focused on the capture, transport and storage of CO2. Within this context, it was approved, in October 2008, the Strategic Singular Project "Tecnologías avanzadas de generación, captura y almacenamiento de CO2" (PSE-120000-2008-6), supported by the Ministry of Science and Innovation and the FEDER funds. This Project, by means of the Subproject "Geological Storage of CO2" (PSS- 120000-2008-31), was focused on the detailed study of the Natural Analogue of CO2 Storage and Leakage located in the Ganuelas-Mazarron Tertiary basin (Murcia), among other Spanish Natural Analogues. This research work has been performed in the framework of this Subproject, being its final objective to predict the behaviour and evaluate the safety, at short, medium and long-term, of a CO2 Deep Geological Storage (CO2-DGS) by means of a comprehensive study of the abovementioned Natural Analogue. This study comprises: i) the geological and hydrogeological context of the basin and its geophysical research; ii) the water sampling of the selected aquifers to establish their hydrogeochemical and isotopic features; iii) the mineralogical, petrographic, geochemical and isotopic characterisation of the travertines formed from upwelling groundwater of several hydrogeological and geothermal wells; and iv) the measurement of the free and dissolved gases detected in the basin, as well as their chemical and isotopic characterisation, mainly regarding CO2 and 222Rn. This information, summarised in separate chapters in the text, has enabled to build a conceptual model of the studied natural system and to establish the analogies between both the studied natural system and a CO2-DGS, with possible natural and/or anthropogenic escapes. All this information has served, firstly, to predict the behaviour and to evaluate the safety, at short, medium and long-term, of a CO2-DGS and, secondly, to propose a general methodology to study suitable sites for a CO2-DGS, taking into account the lessons learned from this CO2 natural reservoir. The main results indicate that the Ganuelas-Mazarron basin is a graben bounded by normal faults with significant vertical movements, which move down the metamorphic substrate (Nevado-Filabride Complex), and filled with acid volcanic-subvolcanic rocks. Furthermore, this basin is filled with two sedimentary formations: i) the Miocene marls, which are predominant and almost exclusive in the basin; xxiv and ii) the Plio-Quaternary conglomerates and gravels. A deep saline CO2-rich aquifer was evidenced in this basin as a result of the geothermal exploration wells performed during the 80s, located just at the top of the Nevado-Filabride Complex and at a depth that could exceed 800 m, according to the geophysical exploration performed. This saline CO2-rich aquifer is precisely the main object of this study. Therefore, it is not discarded the possibility that the CO2 in this aquifer be in supercritical state. Consequently, the aforementioned basin gathers the main characteristics of a natural and deep CO2 geological storage, or natural analogue of a CO2-DGS in a deep saline aquifer. The overexploitation of the shallow aquifers in this basin for agriculture purposes caused the drop of the groundwater levels and hydrostatic pressures, and, as a result, the ascent of the deep saline and CO2-rich groundwater, which is the responsible for the contamination of the shallow and fresh aquifers. The hydrogeochemical features of groundwater from the investigated aquifers show the presence of very different hydrofacies, even in those with similar lithology. The high salinity of this groundwater prevents the human and agricultural uses. In addition, the slightly acidic character of most of these waters determines their capacity to dissolve and transport towards the surface heavy and/or toxic elements, among which U is highlighted. This element is abundant in the acidic volcanic rocks of the basin, with concentrations up to 14 ppm, mainly as sub-microscopic uraninite crystals. The isotopic study of this groundwater, particularly the isotopic signature of C from DIC (δ13C-DIC), suggests that dissolved C can be explained considering a mixture of C from two main different sources: i) from the thermal decomposition of limestones and marbles forming the substrate; and ii) from edaphic origin. However, a minor contribution of C from mantle degassing cannot be discarded. The study of travertines being formed from upwelling groundwater of several hydrogeological and geothermal wells, as a result of the fast CO2 degassing and the pH increase, has allowed highlighting this phenomenon, by analogy, as an alert for the CO2 leakages from a CO2-DGS. The analysis of the dissolved and free gases, with special attention to CO2 and 222Rn, indicates that the C from the dissolved and free CO2 has a similar origin to that of the DIC. The R/Ra ratio of He corroborates the minor contribution of CO2 from the mantle degassing. Furthermore, 222Rn is generated by the radioactive decay of U, particularly abundant in the volcanic rocks of the basin, and/or by 226Ra from the U or from the Messinian gypsum in the basin. Moreover, CO2 acts as a carrier of the 222Rn, a fact evidenced by the positive anomalies of both gases at ~ 1 m depth and mainly related to natural (faults and contacts) and anthropogenic (wells) perturbations. The isotopic signature of C from DIC, carbonates (travertines), and dissolved and free CO2, suggests that this parameter can be used as an excellent tracer of CO2 escapes from a CO2-DGS, in which CO2 usually from the combustion of fossil fuels, with δ13C(V-PDB) of ~ -30 ‰, will be injected. All of these results have allowed to build a conceptual model of the behaviour of the natural system studied as a natural analogue of a CO2-DGS, as well as to establish the relationships between both natural xxv and artificial systems. Thus, the most important analogies, regarding the elements of the system, would be the presence of: i) a deep saline CO2-rich aquifer, which would be analogous to the storage formation of a CO2-DGS; ii) a marly sedimentary formation with a thickness greater than 500 m, which would correspond to the sealing formation of a CO2-DGS; and iii) shallow aquifers with fresh waters suitable for human consumption, U-rich volcanic rocks, and faults that are sealed by gypsums and/or marls; geological elements that could also be present in a CO2-DGS. On the other hand, the most important analogous processes identified are: i) the upward injection of CO2, which would be analogous to the downward injection of the anthropogenic CO2, this last with a δ13C(V-PDB) of ~ -30 ‰; ii) the dissolution of CO2 and 222Rn in groundwater of the deep aquifer, which would be analogous to the dissolution of these gases in the storage formation of a CO2-DGS; iii) the contamination of the shallow aquifers by the uprising of CO2-oversaturated groundwater, an analogous process to the contamination that would occur in shallow aquifers located above a CO2-DGS, whenever it was naturally (reactivation of faults) or artificially (wells) perturbed; iv) the degassing (CO2 and associated gases, among which 222Rn is remarkable) of the deep saline aquifer through wells, process which could be similar in a perturbed CO2- DGS; v) the rapid formation of travertines, indicating that the CO2-DGS has lost its seal capacity. The identification of the most important analogies has also allowed analysing and evaluating, approximately, the behaviour and safety in the short, medium and long term, of a CO2-DGS hosted in a similar geological context of the natural system studied. For that, it has been followed the methodology based on the analysis and identification of FEPs (Features, Events and Processes) that have been combined together in order to generate and analyse different scenarios of the system evolution (scenario analysis). These identified scenarios in the perturbed natural system, related to boreholes, overexploitation of aquifers, rapid precipitation of travertines, etc., would be similar to those that might occur in a CO2-DGS anthropogenically perturbed, so that it is absolutely necessary to avoid the artificial perturbation of the seal formation of a CO2-DGS. Finally, a useful methodology for the study of possible sites for a CO2-DGS is suggested based on the information obtained from this investigation, taking into account the lessons learned from this CO2 natural reservoir. This methodology comprises several phases of study, including the geological and structural characterisation of the site and its components (water, rock and gases), the identification of the analogies between a CO2 storage natural system and a conceptual model of a CO2-DGS, and the implications regarding the behaviour and safety of a CO2-DGS.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El sector del vacuno de leche está experimentando una paulatina concentración de la producción en explotaciones de mayor tamaño, con vacas de mayor producción que se ordeñan en salas cada vez más grandes. Es en este contexto en el que el manejo del ganado antes del ordeño cobra aún más importancia de la que siempre ha tenido, y donde la tecnología puede desempeñar un importante papel. Se entiende como preordeño lo que acontece hasta el momento en que se coloca la unidad de ordeño en las vacas, habitualmente denominado rutina preordeño.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Si la casa, como es lógico, se encuentra en el centro de cualquier discusión sobre el habitar, la casa del arquitecto tendrá, sin duda, un especial interés en este ámbito. Francisco Javier Sáenz de Oíza tuvo la fortuna de poder vivir gran parte de su vida en casas proyectadas por él mismo. No ocurrió así, sin embargo, en el caso de su tantas veces dibujada casa en Oropesa, que nunca llegó a construir. Cuando en 1992, ya profesor emérito, Oíza tuvo que dar una conferencia acerca de la casa en la Escuela de Arquitectura de Madrid, no enseñó ninguna de aquellas que había podido construir para él, ni siquiera alguna de las que había realizado para sus clientes, sino que rescató del olvido este pequeño refugio desconocido para casi todos. Se trataba de una pequeña cabaña en mitad del bosque. El programa, mínimo, se encontraba verdaderamente ajustado en sus dimensiones y las técnicas constructivas que se proponían incidían en este carácter austero de la vivienda. Sin embargo, la cabaña tenía una particularidad evidente que destacaba por encima de las demás: al contrario de lo que podía esperarse, ésta era una cabaña vertical. Con la reconstrucción gráfica y el análisis de esta pequeña obra intentaremos arrojar algo de luz, de buscar una particular construcción de sentido, a la intensa y poliédrica arquitectura de un hombre tachado en ocasiones de ?navegar a la deriva?, pero sin duda complejo y fascinante.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los juegos, y por ende, los videojuegos son reflejo de las culturas en las que son jugados. ¿Son los crueles espacios arquitectónicos de los videojuegos reflejo de la arquitectura que habitamos? La presente investigación propone observar la arquitectura a través del espejo de los videojuegos, interpretando sus reflejos por medio de la Teoría de los Juegos de Roger Caillois. A través de este viaje por espacios arquitectónicos de los videojuegos dilucidaremos que son reflejo de la arquitectura que habitamos para descubrir que esta puede llegar a ser mucho más cruel.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El riesgo asociado a la rotura de un depósito de agua en entorno urbano (como la ocurrida, por ejemplo, en la Ciudad Autónoma de Melilla en Noviembre de 1997) y los potenciales daños que puede causar, pone en duda la seguridad de este tipo de infraestructuras que, por necesidades del servicio de abastecimiento de agua, se construyen habitualmente en puntos altos y cercanos a los núcleos de población a los que sirven. Sin embargo, la baja probabilidad de que se produzca una rotura suele rebajar los niveles de alerta asociados a los depósitos, haciéndose hincapié en la mejora de los métodos constructivos sin elaborar metodologías que, como en el caso de las presas y las balsas de riego, establezcan la necesidad de clasificar el riesgo potencial de estas infraestructuras en función de su emplazamiento y de estudiar la posible construcción de medidas mitigadoras de una posible rotura. Por otro lado, para establecer los daños que pueden derivarse de una rotura de este tipo, se hace imprescindible la modelización bidimensional de la ola de rotura por cuanto la malla urbana a la que afectaran no es susceptible de simulaciones unidimensionales, dado que no hay un cauce que ofrezca un camino preferente al agua. Este tipo de simulación requiere de una inversión económica que no siempre está disponible en la construcción de depósitos de pequeño y mediano tamaño. Esta tesis doctoral tiene como objetivo el diseño de una metodología simplificada que, por medio de graficas y atendiendo a las variables principales del fenómeno, pueda estimar un valor para el riesgo asociado a una posible rotura y sirva como guía para establecer si un deposito (existente o de nueva implantación) requiere de un modelo de detalle para estimar el riesgo y si es conveniente implantar alguna medida mitigadora de la energía producida en una rotura de este tipo. Con carácter previo se ha establecido que las variables que intervienen en la definición de riesgo asociado a la rotura, son el calado y la velocidad máxima en cada punto sensible de sufrir daños (daños asociados al vuelco y arrastre de personas principalmente), por lo que se ha procedido a estudiar las ecuaciones que rigen el problema de la rotura del depósito y de la transmisión de la onda de rotura por la malla urbana adyacente al mismo, así como los posibles métodos de resolución de las mismas y el desarrollo informático necesario para una primera aproximación a los resultados. Para poder analizar las condiciones de contorno que influyen en los valores resultantes de velocidad y calado, se ha diseñado una batería de escenarios simplificados que, tras una modelización en detalle y un análisis adimensional, han dado como resultado que las variables que influyen en los valores de calado y velocidad máximos en cada punto son: la altura de la lamina de agua del depósito, la pendiente del terreno, la rugosidad, la forma del terreno (en términos de concavidad) y la distancia del punto de estudio al deposito. Una vez definidas las variables que influyen en los resultados, se ha llevado a cabo una segunda batería de simulaciones de escenarios simplificados que ha servido para la discusión y desarrollo de las curvas que se presentan como producto principal de la metodología simplificada. Con esta metodología, que solamente necesita de unos cálculos simples para su empleo, se obtiene un primer valor de calado y velocidad introduciendo la altura de la lámina de agua máxima de servicio del depósito cuyo riesgo se quiere evaluar. Posteriormente, y utilizando el ábaco propuesto, se obtienen coeficientes correctores de los valores obtenidos para la rugosidad y pendiente media del terreno que se esta evaluando, así como para el grado de concavidad del mismo (a través de la pendiente transversal). Con los valores obtenidos con las curvas anteriores se obtienen los valores de calado y velocidad en el punto de estudio y, aplicando la formulación propuesta, se obtiene una estimación del riesgo asociado a la rotura de la infraestructura. Como corolario a la metodología mencionada, se propone una segunda serie de gráficos para evaluar, también de forma simplificada, la reducción del riesgo que se obtendría con la construcción de alguna medida mitigadora como puede ser un dique o murete perimetral al depósito. Este método de evaluación de posible medidas mitigadoras, aporta una guía para analizar la posibilidad de disminuir el riesgo con la construcción de estos elementos, o la necesidad de buscar otro emplazamiento que, si bien pueda ser no tan favorable desde el punto de vista de la explotación del depósito, presente un menor riesgo asociado a su rotura. Como complemento a la metodología simplificada propuesta, y además de llevar a cabo la calibración de la misma con los datos obtenidos tras la rotura del depósito de agua de Melilla, se ha realizado una serie de ejemplos de utilización de la metodología para, además de servir de guía de uso de la misma, poder analizar la diferencia entre los resultados que se obtendrían con una simulación bidimensional detallada de cada uno de los casos y el método simplificado aplicado a los mismos. The potential risk of a catastrophic collapse of a water supply reservoir in an urban area (such as the one occurred in Melilla in November 1997) and the damages that can cause, make question the security in this kind of infrastructures, which, by operational needs, are frequently built in high elevations and close to the urban areas they serve to. Since the likelihood of breakage is quite low, the alert levels associated to those infrastructures have also been downgraded focussing on the improvement of the constructive methods without developing methodologies (like the ones used in the case of dams or irrigation ponds) where there is a need of classifying the potential risk of those tanks and also of installing mitigating measures. Furthermore, to establish the damages related to a breakage of this kind, a twodimensional modelling of the breakage wave becomes imperative given that the urban layout does not provide a preferential way to the water. This kind of simulation requires financial investment that is not always available in the construction of small and medium sized water tanks. The purpose of this doctoral thesis is to design a simplified methodology, by means of charts and attending to the main variables of the phenomenon, that could estimate a value to the risk associated to a possible breakage. It can also be used as a guidance to establish if a reservoir (existing or a new one) requires a detailed model to estimate the risk of a breakage and the benefits of installing measures to mitigate the breakage wave effects. Previously, it has been established that the variables involved in the risk associated to a breakage are the draft and the maximum speed in every point susceptible to damages (mainly damages related to people). Bellow, the equations ruling the problem of the reservoir breakage have been studied as well as the transmission of the breakage wave through the urban network of the city and the possible methods to solve the equations and the computer development needed to a first approach to the results. In order to be able to analyse the boundary conditions affecting the values resulting (speed and draft), a set of scenarios have been designed. After a detailed modelling and a dimensionless analysis it has been proved that the variables that influence the operational draughts and the maximum speed in every point are the water level in the tank, the slope, the roughness and form (in terms of concavity) of the terrain and the distance between the tank and the control point. Having defined the involving variables, a second set of simulations of the simplified scenarios has been carried out and has helped to discuss and develop the curves that are here presented as the final product of the simplified methodology. This methodology only needs some simple calculations and gives a first value of draft and speed by introducing the maximum water level of the tank being evaluated. Subsequently, using the suggested charts, the method gives correction coefficients of the measured values for roughness and average slope of the assessed terrain as well as the degree of concavity (through transverse gradient).With the values from the previous curves (operational draughts and speed at the point of survey) and applying the proposed formulation, an estimation of the risk associated to the breakage of the infrastructure is finally obtained. As a corollary of the mentioned methodology, another set of diagrams is proposed in order to evaluate, in a simplified manner also, the risk reduction that could be gained with the construction of some mitigating measures such as dikes or retaining walls around the reservoir. This evaluating method provides a guide to analyse the possibility to reduce the risk, constructing those elements or even looking for a different site that could be worse in terms of exploitation of the tank but much safer. As a complement to the simplified methodology here proposed, and apart from completing its calibration with the obtained data after the reservoir breakage in Melilla, a number of examples of the use of the methodology have been made to be used as a user guide of the methodology itself, as well as giving the possibility of analysing the different results that can be obtained from a thorough two-dimensional simulation or from the simplified method applied to the examples.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A comienzos de diciembre de 1996, Javier León, uno de los autores, impartió una conferencia en esta Escuela ante una inesperadamente grande e interesada audiencia de profesores y alumnos de todos los cursos. El tema central de aquella intervención era La construcción de un puente en el siglo XVIII, basado en el trabajo de J.R. Perronet, fundador de la Ecole des Ponts et Chaussées de Paris, precedente inmediato de nuestra Escuela de Caminos y Canales que fundara Agustín de Bediencourt en 1802. Los asistentes manifestaron un gran interés, que comparto, por las cuestiones históricas relacionadas con nuestra profesión, que comprende no sólo puentes, sino puertos, faros, canales y edificios como catedrales o torres. Su estudio debe contemplarse desde ángulos complementarios, es decir, técnicos, académicos y humanísticos, en la medida en que la obligación de mantener las joyas estructurales del pasado enseña mucho acerca del comportamiento de las de hoy. No podrían concebirse las grandes estructuras de estadios y palacios de congresos si no hubieran existido los teatros romanos o las catedrales medievales, ni se entenderían las estructuras metálicas de los siglos XIX y XX sin los precedentes de las estructuras de madera de la antigüedad. Su análisis en profundidad requiere la puesta al día de las técnicas de nuestros antepasados, que debemos conocer, como recuerda este libro que me honro en prologar. Esto comporta compilar, enseñar y practicar. Qué duda cabe que facilita enormemente las cosas (incluso las condiciona) el hecho de poseer una formación humanística que permita entender el momento histórico en que se ejecutaron tales estructuras. Ni siquiera estas cuestiones se circunscriben al ámbito local (regional o español), trascienden a nuestra vieja Europa en un sentimiento compartido de interés y de necesidad. En particular, es reseñable el enorme impulso que han dado algunas escuelas alemanas (Karlsruhe, Stuttgart, Munich, Aquisgrán, Dresde). Desde una sólida formación estructural y humanista, han conseguido estos equipos multidisciplinares poner a punto un conjunto de técnicas analíticas y constructivas que se han traducido en destacables ejemplos conocidos, como, por ejemplo, la reconstrucción y mantenimiento de edificios y estructuras tras la II Guerra Mundial. El conocimiento de los muchos textos disponibles, escritos mayoritariamente en alemán, no puede ser ignorado por los técnicos y, especialmente, por los alumnos de nuestras escuelas, cada vez más ávidos de intercambio con el exterior y, por fin, con mejor nivel de idiomas que la generación que les precede. (Merece una mención muy especial el creciente número de alumnos que, año tras año, eligen la asignatura de Alemán como idioma complementario. También crece el número de alumnos alemanes que, en virtud del programa Erasmus de intercambio, cursan sus últimos años de estudios en nuestra Escuela, con cuyo alto nivel de formación quedan satisfechos.) Por todas esas razones, contemplé con simpatía y creciente entusiasmo la iniciativa de los autores, quienes, sobre un texto en sí mismo interesante, han conseguido articular una sugerente propuesta de estudio ?tanto para el alumno como para el profesional en ejercicio? con un contenido humanista en el que idioma y lenguaje son, además, un hermoso componente práctico. Quisiera finalmente señalar que este libro es el primero de una colección que los autores están invitados a ir desarrollando, y ojala este ejemplo cunda y se siga ?entre profesores y alumnos? en otros campos. Nuestra Escuela, que posee unos fondos bibliográficos de enorme valor, verá encantada cómo éstos se difunden y cómo se configura una disciplina que la praxis, la profesión, exige ya en toda Europa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Debido al gran interés existente en el ahorro y recuperación de energía, y en el deseo de obtener productos que permitan usos beneficiosos del fango procedente de la depuración del agua residual, la digestión anaerobia es el proceso de estabilización de uso más extendido. El tiempo de retención de sólidos es un factor clave en el proceso de digestión anaerobia. En base al tiempo de retención de sólidos, se dimensiona el volumen de los digestores anaerobios para así obtener la reducción de materia orgánica deseada, con la correspondiente producción de biogás. La geometría del digestor y su sistema de agitación deben ser adecuados para alcanzar el tiempo de retención de sólidos de diseño. Los primeros trabajos sobre la agitación de los digestores realizaban únicamente experimentos con trazadores y otros métodos de medición. En otros casos, la mezcla era evaluada mediante la producción de biogás. Estas técnicas tenían el gran hándicap de no conocer lo que sucedía realmente dentro del digestor y sólo daban una idea aproximada de su funcionamiento. Mediante aplicación de la mecánica de fluidos computacional (CFD) es posible conocer con detalle las características del fluido objeto de estudio y, por lo tanto, simular perfectamente el movimiento del fango de un digestor anaerobio. En esta tesis se han simulado mediante CFD diferentes digestores a escala real (unos 2000 m3 de volumen) agitados con bomba/s de recirculación para alcanzar los siguientes objetivos: establecer la influencia de la relación entre el diámetro y la altura, de la pendiente de la solera, del número de bombas y del caudal de recirculación en dichos digestores, definir el campo de velocidades en la masa de fango y realizar un análisis energético y económico. Así, es posible conocer mejor cómo funciona el sistema de agitación de un digestor anaerobio a escala real equipado con bomba/s de recirculación. Los resultados obtenidos muestran que una relación diámetro/altura del digestor por encima de 1 empeora la agitación del mismo y que la pendiente en la solera del digestor favorece que la masa de fango esté mejor mezclada, siendo más determinante la esbeltez del tanque que la pendiente de su solera. No obstante, también es necesario elegir adecuadamente los parámetros de diseño del sistema de agitación, en este caso el caudal de recirculación de fango, para obtener una agitación completa sin apenas zonas muertas. En el caso de un digestor con una geometría inadecuada es posible mejorar su agitación aumentando el número de bombas de recirculación y el caudal de las mismas, pero no se llegará a alcanzar una agitación total de la masa de fango debido a su mal diseño original. Anaerobic digestion is the process for waste water treatment sludge stabilization of more widespread use due to the huge interest in saving and recovering energy and the wish to obtain products that allow beneficial uses for the sludge. The solids retention time is a key factor in the anaerobic digestion. Based on the solids retention time, volume anaerobic digester is sized to obtain the desired reduction in organic matter, with the corresponding production of biogas. The geometry of the digester and the stirring system should be adequate to achieve the design solid retention time. Early works on digesters stirring just performed tracer experiments and other measurement methods. In other cases, mixing was evaluated by biogas production. These techniques had the great handicap of not knowing what really happened inside the digester and they only gave a rough idea of its operation. By application of computational fluid dynamics (CFD), it is possible to know in detail the characteristics of the fluid under study and, therefore, simulate perfectly the sludge movement of an anaerobic digester. Different full-scale digesters (about 2000 m3 of volume) agitated with pump/s recirculation have been simulated by CFD in this thesis to achieve the following objectives: to establish the influence of the relationship between the diameter and height, the slope of the bottom, the number of pumps and the recirculation flow in such digesters, to define the velocity field in the mass of sludge and carry out an energy and economic analysis. Thus, it is possible to understand better how the agitation system of a full-scale anaerobic digester equipped with pump/s recirculation works. The results achieved show that a diameter/height ratio of the digester above 1 worsens its stirring and that the slope of the digester bottom favors that the mass of sludge is better mixed, being more decisive the tank slenderness than the slope of its bottom. However, it is also necessary to select properly the design parameters of the agitation system, in this case the sludge recirculation flow rate, for a complete agitation with little dead zones. In the case of a digester with inadequate geometry, its agitation can be improved by increasing the number of recirculation pumps and flow of them, but it will not reach a full agitation of the mass of sludge because of the poor original design.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se han realizado muchos estudios relacionados con el fútbol, pero pocos con jugadores profesionales evaluándolos en un periodo de dos temporadas consecutivas. El objetivo de este trabajo fue investigar las variaciones que sufren parámetros relacionados con la composición corporal, la velocidad, la fuerza y la resistencia de futbolistas profesionales de alto y medio nivel en el periodo de una temporada. Material y métodos: 20 jugadores de categoría alta (CA) y 21 jugadores de categoría media (CM) fueron evaluados a lo largo de una temporada en tres ocasiones, la primera a mitad de pretemporada (M1), la segunda a mitad del periodo competitivo (M2) y la última al final de la temporada (M3). Algunos de ellos, 16 de CA y 8 de CM participaron durante dos temporadas seguidas realizando un total de seis evaluaciones. En cada evaluación se midió la talla (TA), peso corporal (PC), sumatorio de pliegues grasos (ZP), el índice de masa corporal (IMC), el tiempo en 5 (T5) y 20 (T20) metros, el salto en contra movimiento (CMJ), Abalakov (ABA), la velocidad del umbral anaeróbico (VUAN), el peso de potencia media (PPM) y la potencia media (PMW) en el ejercicio de media sentadilla. Resultados: Hubo diferencias significativas en el ZP en el grupo de CA entre la M1 (45,28±8,98) y la M2 (40,57±5,89) al igual que en la VUAN entre la M1 (12,49±0,67) con respecto a la M2 (12,93±0,62) y la M3 (12,93±0,44). Además, se encontraron diferencias significativas en el grupo CA en la (T5) entre la M1 (1,04±0,06) y la M2 (0,99±0,04) y la M3 (1,00±0,04) y en el grupo CM sólo entre la M1 (1,05±0,05) y la M3 (1,01±0,04). El PPM fue superior en la M2 (94±13,74) con respecto a la M1 (82±13,64) de forma significativa, así como la PMW, M1 (1642,87±207,05) frente a M2 (1735,07±168,01) en el grupo de CA y también hubo diferencias significativas en el PPM entre la M1 (70,67±10,74) y la M2 (80,50±13,20) en el grupo de CM, así como en la PMW en la M1 (1574,90±205,66) con la M2 (1642,87±207,05). Conclusiones: Hubo parámetros condicionales que sufrieron variaciones a lo largo de la temporada. Los cambios más importantes se produjeron desde la mitad del periodo preparatorio hasta la mitad del periodo competitivo, no apreciándose cambios desde la mitad del periodo competitivo hasta el final del mismo. ABSTRACT They have been many studies on soccer, but few with professional players evaluating them during two consecutive seasons. The purpose of this study was to investigate seasonal variations in fitness parameters as body composition, speed, strength and stamina in top and medium class professional soccer players during a hole season. Methods: 20 Top Class male (CA) and 21 Medium Class male (CM) soccer players were evaluated during a season in three different periods. The first one at half preseason (M1), second one at the middle of the competitive period (M2) and last one at the end of the season (M3). 16 players from group CA and 8 from group CM were registered from two seasons in a row, doing a total of 6 evaluation periods. In each evaluation period was measured body height (TA), body mass (PC), skinfolds sum (ZP), body mass index (IMC), acceleration on 5 (T5) y 20 (T20) meters, countermovement jump (CMJ), free arms countermovement jump (ABA), anaerobic threshold speed (VUAN), average power strength weight (PPM) and average power (PMW) on half squat. Results: significant decrease on ZP were found in group CA from M1 (45,28±8,98) to M2 (40,57±5,89) and a significant increase on VUAN from M1 (12,49±0,67) to M2 (12,93±0,62) and M3 (12,93±0,44). Also a significant decrease was found in group CA on (T5) from M1 (1,04±0,06) to M2 (0,99±0,04) and M3 (1,00±0,04). PPM was significantly higher from M2 (94±13,74) to M1 (82±13,64) as PMW from M1 (1642,87±207,05) to M2 (1735,07±168,01) in CA group and also was found a significant increase in group CM on PPM from M1 (70,67±10,74) to M2 (80,50±13,20) and on PMW from M1 (1574,90±205,66) to M2 (1642,87±207,05). Conclusions: Some of the fitness parameters did suffer seasonal variations. The most important changes took place from the middle of the preseason period until middle of the competitive period, remaining unchanged from middle of the competitive period until the end of the season.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La importantísima expansión urbana que sufren las principales ciudades de los países en vías de desarrollo, es el mayor reto que afronta la habitabilidad a nivel mundial. Dentro de la teoría general de la Habitabilidad Básica (HaB-ETSAM-UPM, 1995) la ordenación del territorio y el planeamiento urbanístico son las herramientas determinantes para orientar coherentemente los procesos de urbanización, como se reconoce también desde las principales esferas técnicas a nivel internacional. Pero tales herramientas deben enfocarse a una construcción eficiente del territorio, actuando desde una aproximación multidisciplinar, flexible y directa, que incida en las prioridades específicas de cada contexto. Para ello, resulta fundamental comprender a fondo las realidades específicas de estos ámbitos. La ciudad es un fenómeno complejo en esencia. El tejido construido, en constante proceso de cambio, es el caparazón visible que alberga una maravillosa mezcla entrelazada de espacios, funciones, flujos, personas.... Cada ciudad, diferente y única, se integra en su medio, se adapta a geografías, contextos y climas distintos, evoluciona según dinámicas propias, en incomprensibles (o casi) procesos evolutivos. El estudio de la ciudad, supone siempre una simplificación de la misma. La realidad urbana, por detallado que sea nuestro análisis, siempre contendrá indescifrables relaciones que se nos escapan. En cambio, necesitamos de métodos analíticos que nos ayuden a comprender algo esa complejidad. Acercarnos en ese análisis, es un paso previo fundamental para la formulación de respuestas. En este plano, de avance en la comprensión del hecho urbano, se sitúa este trabajo. Se pone el acento en el enfoque cuantitativo, profundizando en datos básicos concretos, siempre aceptando de partida que esta información es una componente mínima, pero esperamos que sustantiva, de un fenómeno inabordable. Y es esta búsqueda de comprensión material y cuantitativa de la ciudad, el objetivo esencial de la investigación. Se pretende proporcionar una base detallada de aquéllos aspectos fundamentales, que pueden ser medidos en los entornos urbanos y que nos proporcionan información útil para el diagnóstico y las propuestas. Para ello, se aportan rangos y referencias deseables, a través de una herramienta para la comprensión y la valoración de cada contexto, la Matriz de Indicadores. Esta herramienta se concibe desde la reflexión a la aplicación práctica, a la utilidad directa, al aporte concreto para quien pueda servir. Ésta es la voluntad decidida con la que se aborda este trabajo, centrado en los entornos urbanos donde el aporte técnico es prioritario: la Ciudad Informal. La Ciudad Informal, entendida aquí como aquélla que se desarrolla sin los medios suficientes (técnicos, económicos e institucionales) que proporciona la planificación, aquélla por donde la habitabilidad precaria se extiende. Es la ciudad que predomina en los países en vías de desarrollo, en los contextos de bajos recursos, allí donde, precisamente, se concentran los principales déficits y necesidades a nivel global. El enfoque nace de la teoría de la Habitabilidad Básica, de la definición de mínimos posibles para, desde allí, construir el espacio necesario para el desarrollo humano. Éste es el ámbito genérico objeto del trabajo que, a su vez, se nutre, de forma muy importante, de la experiencia directa en la ciudad de Makeni, en Sierra Leona. Esta ciudad nos sirve de prototipo experimental en un doble sentido. Por un lado, sirve como espacio empírico en el que chequear la metodología de valoración cuantitativa; y, por otro, el conocimiento de esta ciudad de tamaño medio africana, que se ha ido adquiriendo en los últimos cinco años, es una base directa para el desarrollo teórico de la propia metodología, que ayuda a atisbar lo esencial en contextos similares. El encaje de todo este recorrido se ha articulado desde una experiencia académica que, como docente, he coordinado directa e intensamente. Experiencia muy enriquecedora, que ha sumado muchas manos y mucho aprendizaje en este tiempo. Teoría y práctica en planeamiento urbano se alternan en el trabajo, nutriéndose la una de la otra y a la inversa. Trabajo que nace desde la pasión por la ciudad y el urbanismo. Desde la búsqueda por comprender y desde la vocación de actuar, de intentar mejorar y hacer más habitables los entornos urbanos. Especialmente allí donde las dificultades se agolpan y el camino se alarga, se llena de polvo. Acumular preguntas a cada paso. Cada vez más preguntas. Las respuestas, si existen, aparecen entrelazadas en dinámicas indescifrables de las que queremos formar parte. Fundirnos por momentos en la misma búsqueda, acompañarla. Sentirnos cerca de quiénes comienzan de cero casi cada día. Y otra vez, arrancar. Y compartir, desde el conocimiento, si acaso es que se puede. Y la ciudad. Brutal, imponente, asfixiante, maravillosa, imposible. Creación colectiva insuperable, de energías sumadas que se cosen sin patrón aparente. O sin más razón que la del propio pulso de la vida. Así se siente Makeni. ABSTRACT The important urban growth suffering major cities of developing countries, is the biggest challenge facing the global habitability. Within the general theory of Basic Habitability (HAB-ETSAM-UPM, 1995) spatial planning and urban planning are the crucial tools to consistently guide the urbanization process, as also recognized from the main technical areas worldwide. But such tools should focus on an efficient construction of the territory, working from a multidisciplinary, flexible and direct approach, that affects the specific priorities of each context. To do this, it is essential to thoroughly understand the specific realities of these areas. The city is essentially a complex phenomenon. The urban fabric in constant flux, is the visible shell that houses a wonderful mixture interlocking spaces, functions, flows, people.... Every city, different and unique, is integrated into its environment, adapted to geographies, contexts and climates, it evolves according to its own dynamics, along (almost) incomprehensible evolutionary processes. The study of the city, is always a simplification of it. The urban reality, even studied from a detailed analysis, always contain undecipherable relationships that escape us. Instead, we need analytical methods that help us understand something that complexity. Moving forward in this analysis is an essential first step in formulating responses. At this level, progressing in understand the urban reality, is where this work is located. The emphasis on the quantitative approach is placed, delving into specific basic data, starting always accepting that this information is just a minimal component, but we hope that substantive, of an intractable phenomenon. And it is this search for materials and quantitative understanding of the city, the main objective of the research. It is intended to provide a detailed basis of those fundamental aspects that can be measured in urban environments that provide us useful information for the diagnosis and proposals. To do this, desirable ranges and references are provided, through a tool for understanding and appreciation of each context, the Indicator Matrix. This tool is conceived from reflection to practical application, to a direct utility, concrete contribution to who can serve. This is the firm resolve with which this work is addressed, centered in urban environments where the technical contribution is a priority: the Informal City. The Informal City, understood here as the urban areas developed without the sufficient resources (technical, economic and institutional) which planning provides, where it is extended the precarious habitability. It is the city that prevails in developing countries, in low-resource settings, where, precisely, the main gaps and needs in the global context are concentrated. The approach stems from the theory of Basic Habitability, the definition of possible minimum, to build the necessary space for human development. This is the generic scope of the work object, that is also based in the direct experience in the town of Makeni, Sierra Leone. This city serves as an experimental prototype in two ways. On the one hand, it serves as a space where empirically check the quantitative assessment methodology; and, secondly, the knowledge of this African city of medium size, which has been acquired in the last five years, is a direct basis for the theoretical development of the methodology itself, which helps to glimpse the essence in similar contexts. The engagement of this whole journey has been articulated from an academic experience, directly and intensely coordinated as teacher. Enriching experience that has added many hands and much learning at this time. Theory and practice in urban planning are mixed at work, enriching the one of the other and vice versa. Work is born from the passion for the city and urbanism. From the search for understanding and from the vocation of acting, trying to improve and make more livable urban environments. Especially where the difficulties are crowded and the road is so long, full of dust. To accumulate questions at every turn. More and more questions. The answers, if do exist, appears inside indecipherable dynamics in which we want to be involved. Merge at times in the same search. Feel close to those who start from scratch almost every day. And again, move forward. And share, from knowledge, if possible. And the city. Brutal, impressive, suffocating, wonderful, impossible. Unsurpassed collective creation, combined energy mix that are sewn with no apparent pattern. Or for no reason other than the pulse of life itself. As it feels the city of Makeni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente tesis para optar al grado de Doctor en la Escuela Técnica Superior de Arquitectura de la Universidad Politécnica de Madrid, aborda la obra del arquitecto de origen español Juan Martínez Gutiérrez, reconocido por la crítica especializada como uno de los precursores de la arquitectura moderna en Chile. A pesar de la relevancia de su obra, en la actualidad se carece de un estudio sistematizado y preciso que, de manera global, expongan los factores de modernidad de sus principales edificios, aun cuando han aparecido en los últimos años dos publicaciones referentes al arquitecto y parcialmente a su obra. Formado tanto en arquitectura como en pintura, la labor profesional de Juan Martínez Gutiérrez se inscribió en un contexto de modernización de la sociedad chilena entre la década del 20 y del 50, adjudicándose mediante concurso público, el diseño de cinco edificios institucionales y de carácter público, los que conforman en la actualidad bienes de carácter patrimonial estando dos de ellos declarados Monumento Histórico. Se desenvolvió también en el ámbito de la docencia siendo profesor de la Facultad de Arquitectura y Urbanismo de la Universidad de Chile por más de 35 años y Decano de la misma institución. Participó asimismo de la vida gremial de la profesión, recibiendo en el año 1969 el primer premio nacional de arquitectura. Sus edificios públicos, se han mantenido en uso siendo hitos urbanos y en el ámbito disciplinar reconocidas obras ejemplares. Sin embargo, al comenzar el siglo XXI, cuando la modernidad se nos presenta desde la historicidad, surge la pregunta por los valores que sustenta la arquitectura de Juan Martínez, en relación a su tiempo y a la actualidad. En este ámbito reflexivo se plantea la puesta en tesis de la presente investigación, donde las principales obras del arquitecto se analizan inquiriendo su condición de modernidad a la luz de un contexto local cuyas problemáticas sociales son aunadas por el proyecto desarrollista estatal de la primera mitad del siglo XX; interpelando algunos aspectos del estado técnico del país durante el periodo; las tendencias estéticas imperantes de la época y el entorno urbano en el que se emplazan. Al mismo tiempo, el desarrollo de la tesis examina un tópico referencial de la modernidad latinoamericana, que es el influjo europeo en el punto de inflexión que va desde el fin del modelo academicista y la incorporación de los preceptos de un funcionalismo y racionalismo arquitectónico, todo ello mediado por los condicionantes locales. ABSTRACT The following thesis, to achieve the Doctor´s degree at the Superior Technical School of Architecture of the Polytechnic University of Madrid aboard the work of the chilean architect of spanish origin Juan Martinez Gutierrez, recognized by specialized critic as one of the forefathers of modern architecture in Chile. Although the relevance of his work, currently there is no systematic and precise study of it. A study that in a global view exposes the factors of modernity in his foremost buildings. The absence of such study is, despite the appearance in the last two years of two publications about the architect and –partially- his work. Formed as much in architecture as in painting, the professional labor of Juan Martinez Gutierrez was inscribed in the context of Chilean society modernization, between the decades of the 20´s and 30´s. Awarding himself, by means of architectural contests, the design of institutional buildings of public use, witch conform current cultural goods, two of them having been declared National Monuments; a category of cultural heritage officially protected by the state. He also developed an important academic work, being for more than 35 years, professor at the Faculty of Architecture and Urbanism at the University of Chile and in his time, Faculty Dean. He also participated, actively, in guild life, being awarded in 1969 the first ever, National Prize of Architecture. His public buildings, still in use, are urban landmarks and exemplar works in a disciplinary dimension. Never the less, at the begins of the XXI century, when the modern movement is presented to us from an historical viewpoint, even from historicity, questions surge about the values that sustain Juan Martinez´s architecture in relation to his time and ours. It is in this reflexive field, that is planted the thesis of the present research, where the principal works of the architect are analyzed inquiring their modern condition, at the light of a local context who´s social problems join the chilean social development state the “Estado Desarrolista” of the first half of the XX century, a situation that interpellants several dimensions: the technical status of the country during the period, the aesthetic tendencies prevailing, and the urban context were they place themselves. At the same time, in its development, the thesis examines a referential topic, that is the Latin American modern movement, or the European influx in that inflexion point that goes from the end of academicism Beaux – Art model and the incorporation of functional and rationalist precepts, all mediated by local conditions.