10 resultados para Comisones de la verdad

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La actuación de personajes ajenos -a la disciplina de la arquitectura- sobre la misma subyace en la misma base de los condicionantes históricos desde los que se conforma el proyecto de arquitectura. El carácter áulico de las grandes obras, o la permanencia en un tiempo más amplio que el de la vida humana han atraído al ser humano desde tiempos sin registro. No supondría mayor novedad el que un filósofo, en la convulsa Viena de entreguerras, se interesara en una vivienda que su hermana deseaba construirse en los extramuros de una ciudad en plena transformación postindustrial. Despierta nuestro interés los personajes concretos, siendo el filósofo Ludwig Wittgenstein, el filósofo de la lógica regulada del Tractatus, amigo íntimo de Adolf Loos; y su hermana, Margaret Stonborough-Wittgenstein, una de las mecenas más solicitadas de la cultura vienesa de la época. Y aquella casa, no es sino el palais Wittgenstein, llevado a la realidad entre 1925 y 1929, en el tiempo germinal del Movimiento Moderno. Esta casa toma el nombre de Wittgenstein, que, lejos de la coincidencia con el de su propietaria, sintetiza la atribución que la crítica y la historiografía ?tanto arquitectónica como filosófica- ha hecho de ella. Esta casa es, en apariencia, el fruto de un filósofo obsesionado con el concepto de la verdad; que ha erigido un palacete suburbano con os rígidos principios de un discurso estructuralista. La casa ha sido y es leída como ?lógica encarnada en casa? -según las propias palabras de su propietaria-. Un intento de dotar de orden metalingüístico al elenco material y técnico que es un proyecto de arquitectura. Con ese carácter mitificado, algunos estudios sobre la misma son publicados desde los inicios de la década de los 80. Remueve conciencias postmodernas, al poder ser presentada como un arranque atípico del Movimiento Moderno, y por la búsqueda de esa excepción su estatus permanece invariablemente fijado en los márgenes de aquel. Sin embargo, cuando la casa es estudiada documentalmente, se descubren contradicciones iniciadas en el ambiguo papel de Paul Engelmann -el arquitecto que comenzaba el proyecto- y que llegan hasta las deficiencias en la res aedificatoria básica de una vivienda. Cuando la casa es habitada, se descubre una complejidad espacial que dista mucho de los acotados espacios que conforman la planta, una extraña posición respecto al entorno, una construcción realizada con elementos radicalmente reducidos. Una casa que al ser descubierta contrasta con lo que la crítica dice mayoritariamente de ella, una casa que al ser estudiada desvela un proceso de proyecto que, por complejo, es terriblemente actual; una casa cuya realización no es fruto del pragmatismo moderno aunque finja serlo. Y al estudiarla, se presenta una casa que no es sólo un proyecto de arquitectura, sino un instrumento de investigación que enriquece la percepción que de la realidad tenía Wittgenstein, y con este desplazamiento en su pensamiento nos facilita, aún hoy, el incremento de la riqueza de nuestro mirar.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El término imaginario, nombra el principio y el tema central de una investigación del mundo arquitectónico, necesaria para entender las condiciones alrededor de un proceso proyectual íntimo, cargado de significaciones ideológicas y simbólicas. En diferentes interpretaciones, el inconsciente colectivo y personal, científico o social, aparece en el origen de cada pensamiento y comportamiento humano, constituyendo un universo cerrado y caótico, donde todas las ideas están en constante tensión y contradicción. Por esta razón existen nociones y construcciones lógicas y coherentes que estructuran el marco de la verisimilitud y por tanto el régimen de la realidad, mediante la verdad y la verificación. Para el proyecto arquitectónico estas configuraciones se expresan en la situación del espacio, el tiempo y el cuerpo, como elementos básicos de jerarquización de la habitabilidad y de la cohabitabilidad humana. Esta tesis pretende acotar y definir un ámbito de procesos verosímiles instalados dentro del imaginario mediante el patrimonio intangible del pensamiento mítico o utópico, donde no solamente se crean envolventes del pensamiento, de iconografía o de sociedades, sino de donde también se derivan modelos rígidos y excluyentes, desde teorías basadas en la heteronormatividad y la segregación según el sexo, el género, la clase y la capacidad dentro de la diversidad funcional. La experiencia del espacio arquitectónico ha sido tradicionalmente descrita mediante palabras e imágenes: el lógos y el símbolo han sido los grandes intermediadores entre los sujetos y el habitar. Los ámbitos cotidiano y urbano se han regido por modelos y normas absolutas aplicadas universalmente y el mundo arquitectónico se ha visto estancado en la polaridad dual, entre lo público y lo privado, el dentro y el fuera, el movimiento y el reposo, el hombre y la mujer. Si el espacio-tiempo, el cuerpo y sus interpretaciones son la base para los modelos absolutistas, universalistas y perfeccionistas que han dominado el pensamiento occidental y elaborado la noción de lo “normal” en su totalidad, restando complejidad y diversidad, en la era hipermoderna ya no tiene sentido hablar en términos que no contemplen la superposición y la contradicción de la multiplicidad caótica en igualdad y en equilibrio instable. La realidad se ha visto reinventada a través de situaciones intermedias, los lugares inbetween en los espacios, tiempos, identidades y nociones presupuestas, donde se ha tergiversado el orden establecido, afectando al imaginario. La cotidianidad ha superado la arquitectura y el tiempo ha aniquilado el espacio. La conectividad, las redes y el libre acceso a la información – allá donde los haya – componen el marco que ha permitido a los sujetos subalternos emerger y empezar a consolidarse en el discurso teórico y práctico. Nuevos referentes están apareciendo en el hiper-espacio/tiempo aumentado, infringiendo todas aquellas leyes e interpretaciones impuestas para controlar los hábitos, las conductas y las personas. La casa, la ciudad y la metrópolis al vaciarse de contenidos, han dejado de cumplir funciones morales y simbólicas. Los no-lugares, los no-space, los no-time (Amann, 2011) son las condiciones radicalmente fenoménicas que reemplazan la realidad de lo vivido y activan de forma directa a los sentidos; son lugares que excitan el cuerpo como termótopos (Sloterdijk, 2002), que impulsan el crecimiento de la economía y en gran medida la multinormatividad. Sin duda alguna, aquí y ahora se requiere un nuevo modo de emplear la palabra, la imagen y la tecnología, dentro de una temporalidad efímera y eterna simultáneamente. ABSTRACT The term imaginary marks the beginning and the main topic of this research into the architectural world, presented as the necessary condition to understand the design process in its intimate layers, loaded with ideological and symbolic meanings. Through different interpretations, the unconscious, personal and collective, scientific or social, is found in the origin of every human thought and behaviour, constituting a closed chaotic universe, where all ideas are in constant tension and contradiction. This is why there are logical and coherent notions or discursive constructions which organise the context of verisimilitude and therefore the regime of reality through truth and its verification. For the architectural project, these specific configurations are associated with space, time and body as basic elements of management and hierarchization of human habitability and co-habitability. This thesis aims to demarcate and define a field of verisimilar processes installed in the imaginary, through the intangible heritage of mythical or utopian thinking, where not only enclosures of thought, iconography or utopian ideals are created, but from where rigid and exclusive models are derived as well, from theories based on heteronormativity and segregation by sex, gender, class and functional diversity. The experience of the architectural space has been described traditionally through words and images: the language and the symbol have been intermediating between the user and his habitat. Everyday life and urban interactions have been governed by absolute, universally applied, models or standards, therefore the architectural world has been stalled in a constant dual polarity between the public and the private, the inside and the outside, the movement and the repose, the man and the woman. Certainly, if the space-time notion, along with the theorization of the body, are the basis for absolutist, universalist and perfectionist models that have dominated western thought and developed the concept of “normal” in its totality, deducting all complexity and diversity, in the hypermodern era it makes no longer sense to speak in terms that ignore the overlap and contradiction of the chaotic multiplicity that characterises equality and unstable balance. Reality has been reinvented through intermediate situations, the in-between spaces, time, identities, or other presupposed notions. The order of truth has been distorted, affecting and transforming the contemporary imaginary. Everyday practices have surpassed the architectural design and time has annihilated space. Connectivity, networks, free access to information -wherever it exists-, compose the framework that has allowed subaltern subjectivity to emerge and begin to consolidate into main theoretical and practical discourses. New models are appearing in the augmented hyper-space/ time, transgressing any rule and interpretation imposed to control habits, behaviours and people. The house, the city and the metropolis are empty of content; they no longer fulfil moral and symbolic functions. The non-places, non-space, non-time (Amann, 2011) are radically phenomenal conditions that replace the reality of the lived experience and activate the senses as places that excite the body, thermotopos (Sloterdijk, 2002), which boost economic growth and to a considerable extent the multinormativity. Undoubtedly, what is required here and now is a new way of employing the word, the image and the technology within an ephemeral yet eternal temporality.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La competitividad del transporte de mercancías depende del estado y funcionamiento de las redes existentes y de sus infraestructuras, no del modo de transporte. En concreto, la rentabilidad o la reducción de los costes de producción del transporte marítimo se vería incrementado con el uso de buques de mayor capacidad y con el desarrollo de plataformas portuarias de distribución o puertos secos, ya que el 90% del comercio entre la Unión Europea y terceros países se realiza a través de sus puertos a un promedio de 3,2 billones de toneladas de mercancías manipuladas cada año y el 40% del tráfico intraeuropeo utiliza el transporte marítimo de corta distancia. A pesar de que los puertos europeos acogen anualmente a más de 400 millones de pasajeros, los grandes desarrollos se han producido en los puertos del norte de Europa (Róterdam, Amberes, Ámsterdam). Los países del Sur de Europa deben buscar nuevas fórmulas para ser más competitivos, ya sea mediante creación de nuevas infraestructuras o mediante refuerzo de las existentes, ofreciendo los costes de los puertos del Norte. El fomento del transporte marítimo y fluvial como alternativa al transporte por carretera, especialmente el transporte marítimo de corta distancia, ha sido impulsado por la Comisión Europea (CE) desde 2003 a través de programas de apoyo comunitario de aplicación directa a las Autopistas del Mar, a modo de ejemplo, cabría citar los programas Marco Polo I y II, los cuales contaron con una dotación presupuestaria total de 855 millones de euros para el período 2003 – 2013; en ese período de tiempo se establecieron objetivos de reducción de congestión vial y mejora del comportamiento medio ambiental del sistema de transporte de mercancías dentro de la comunidad y la potenciación de la intermodalidad. El concepto de Autopista del Mar surge en el Libro Blanco de Transportes de la Comisión Europea “La política europea de transportes de cara al 2010: La hora de la verdaddel 12 de diciembre de 2001, en el marco de una política europea para fomento y desarrollo de sistemas de transportes sostenibles. Las Autopistas del Mar consisten en rutas marítimas de corta distancia entre dos puntos, de menor distancia que por vía terrestre, en las que a través del transporte intermodal mejoran significativamente los tiempos y costes de la cadena logística, contribuyen a la reducción de accidentes, ruidos y emisiones de CO2 a la atmósfera, permite que los conductores pierdan horas de trabajo al volante y evita el deterioro de las infraestructuras terrestres, con el consiguiente ahorro en mantenimiento. La viabilidad de una Autopista del Mar depende tanto de factores de ubicación geográficos, como de características propias del puerto, pasando por los diferentes requerimientos del mercado en cada momento (energéticos, medio ambientales y tecnológicos). Existe un elemento nuevo creado por la Comisión Europea: la red transeuropea de transportes (RTE-T). En el caso de España, con sus dos accesos por los Pirineos (La Junquera e Irún) como únicos pasos terrestres de comunicación con el continente y con importantes limitaciones ferroviarias debido a los tres anchos de vía distintos, le resta competitividad frente al conjunto europeo; por el contrario, España es el país europeo con más kilómetros de costa (con más de 8.000 km) y con un emplazamiento geográfico estratégico, lo que le convierte en una plataforma logística para todo el sur de Europa, por lo que las Autopistas del Mar tendrán un papel importante y casi obligado para el desarrollo de los grandes corredores marítimos que promueve Europa. De hecho, Gijón y Vigo lo han hecho muy bien con sus respectivas líneas definidas como Autopistas del Mar y que conectan con el puerto francés de Nantes-Saint Nazaire, ya que desde ahí los camiones pueden coger rutas hacia el Norte. Paralelamente, la Unión Europea ha iniciado los pasos para el impulso de la primera Autopista del Mar que conectará España con el mercado de Reino Unido, concretamente los Puertos de Bilbao y Tilbury. Además, España e Italia sellaron un acuerdo internacional para desarrollar Autopistas del Mar entre ambos países, comprometiéndose a impulsar una docena de rutas entre puertos del litoral mediterráneo español y el italiano. Actualmente, están en funcionando los trayectos como Barcelona-Génova, Valencia-Civitavecchia y Alicante- Nápoles, notablemente más cortos por mar que por carretera. Bruselas identificó cuatro grandes corredores marítimos que podrían concentrar una alta densidad de tráfico de buques, y en dos de ellos España ya tenía desde un principio un papel crucial. La Comisión diseñó el 14 de abril de 2004, a través del proyecto West-Mos, una red de tráfico marítimo que tiene como vías fundamentales la denominada Autopista del Báltico (que enlaza Europa central y occidental con los países bálticos), la Autopista de Europa suroriental (que une el Adriático con el Jónico y el Mediterráneo más oriental) y también la Autopista de Europa occidental y la Autopista de Europa suroccidental (que enlazan España con Reino Unido y la Francia atlántica y con la Francia mediterránea e Italia, respectivamente). Para poder establecer Autopistas del Mar entre la Península Ibérica y el Norte de Europa primará especialmente la retirada de camiones en la frontera pirenaica, donde el tráfico pesado tiene actualmente una intensidad media diaria de 8.000 unidades, actuando sobre los puntos de mayor congestión, como por ejemplo los Alpes, los Pirineos, el Canal de la Mancha, las carreteras fronterizas de Francia y Euskadi, y proponiendo el traslado de las mercancías en barcos o en trenes. Por su parte, para contar con los subsidios y apoyos europeos las rutas seleccionadas como Autopistas del Mar deben mantener una serie de criterios de calidad relacionados con la frecuencia, coste “plataforma logística a plataforma logística”, simplicidad en procedimientos administrativos y participación de varios países, entre otros. Los estudios consideran inicialmente viables los tramos marítimos superiores a 450 millas, con un volumen de unas 15.000 plataformas al año y que dispongan de eficientes comunicaciones desde el puerto a las redes transeuropeas de autopistas y ferrocarril. Otro objetivo de las Autopistas del Mar es desarrollar las capacidades portuarias de forma que se puedan conectar mejor las regiones periféricas a escala del continente europeo. En lo que a Puertos se refiere, las terminales en los muelles deben contar con una línea de atraque de 250 m., un calado superior a 8 m., una rampa “ro-ro” de doble calzada, grúas portainer, y garantizar operatividad para un mínimo de dos frecuencias de carga semanales. El 28 de marzo de 2011 se publicó el segundo Libro Blanco sobre el futuro del transporte en Europa “Hoja de ruta hacia un espacio único europeo de transporte: por una política de transportes competitiva y sostenible”, donde se definió el marco general de las acciones a emprender en los próximos diez años en el ámbito de las infraestructuras de transporte, la legislación del mercado interior, la reducción de la dependencia del carbono, la tecnología para la gestión del tráfico y los vehículos limpios, así como la estandarización de los distintos mercados. Entre los principales desafíos se encuentran la eliminación de los cuellos de botella y obstáculos diversos de nuestra red europea de transporte, minimizar la dependencia del petróleo, reducir las emisiones de GEI en un 60% para 2050 con respecto a los niveles de 1990 y la inversión en nuevas tecnologías e infraestructuras que reduzcan estas emisiones de transporte en la UE. La conexión entre la UE y el norte de África provoca elevados niveles de congestión en los puntos más críticos del trayecto: frontera hispano-francesa, corredor del Mediterráneo y el paso del estrecho. A esto se le añade el hecho de que el sector del transporte por carretera está sujeto a una creciente competencia de mercado motivada por la eliminación de las barreras europeas, mayores exigencias de los cargadores, mayores restricciones a los conductores y aumento del precio del gasóleo. Por otro lado, el mercado potencial de pasajeros tiene una clara diferenciación en tipos de flujos: los flujos en el período extraordinario de la Operación Paso del Estrecho (OPE), enfocado principalmente a marroquíes que vuelven a su país de vacaciones; y los flujos en el período ordinario, enfocado a la movilidad global de la población. Por tanto, lo que se pretende conseguir con este estudio es analizar la situación actual del tráfico de mercancías y pasajeros con origen o destino la península ibérica y sus causas, así como la investigación de las ventajas de la creación de una conexión marítima (Autopista del Mar) con el Norte de África, basándose en los condicionantes técnicos, administrativos, económicos, políticos, sociales y medio ambientales. The competitiveness of freight transport depends on the condition and operation of existing networks and infrastructure, not the mode of transport. In particular, profitability could be increased or production costs of maritime transport could be reduced by using vessels with greater capacity and developing port distribution platforms or dry ports, seeing as 90% of trade between the European Union and third countries happens through its ports. On average 3,2 billion tonnes of freight are handled annualy and 40% of intra-European traffic uses Short Sea Shipping. In spite of European ports annually hosting more than 400 million passengers, there have been major developments in the northern European ports (Rotterdam, Antwerp, Amsterdam). Southern European countries need to find new ways to be more competitive, either by building new infrastructure or by strengthening existing infrastructure, offering costs northern ports. The use of maritime and river transport as an alternative to road transport, especially Short Sea Shipping, has been driven by the European Commission (EC) from 2003 through community support programs for the Motorways of the Sea. These programs include, for example, the Marco Polo I and II programs, which had a total budget of 855 million euros for the period 2003-2013. During this time objectives were set for reducing road congestion, improving the environmental performance of the freight transport system within the community and enhancing intermodal transport. The “Motorway of the Sea” concept arises in the European Commission’s Transport White Paper "European transport policy for 2010: time to decide" on 12 December 2001, as part of a European policy for the development and promotion of sustainable transport systems. A Motorway of the Sea is defined as a short sea route between two points, covering less distance than by road, which provides a significant improvement in intermodal transport times and to the cost supply chain. It contributes to reducing accidents, noise and CO2 emissions, allows drivers to shorten their driving time and prevents the deterioration of land infrastructure thereby saving on maintenance costs. The viability of a Motorway of the Sea depends as much on geographical location factors as on characteristics of the port, taking into account the different market requirements at all times (energy, environmental and technological). There is a new element created by the European Commission: the trans-European transport network (TEN-T). In the case of Spain, with its two access points in the Pyrenees (La Junquera and Irun) as the only land crossings connected to the mainland and major railway limitations due to the three different gauges, it appears less competitive compared to Europe as a whole. However, Spain is the European country with the most kilometers of coastline (over 8,000 km) and a strategic geographical location, which makes it a logistics platform for the all of Southern Europe. This is why the Motorways of the Sea will have an important role, and an almost necessary one to develop major maritime corridors that Europe supports. In fact, Gijon and Vigo have done very well with their respective sea lanes defined as Motorways of the Sea and which connect with the French port of Nantes-Saint Nazaire, as from there trucks can use nort-heading routes. In parallel, the European Union has taken the first steps to boost the first Motorway of the Sea linking Spain to the UK market, specifically the ports of Bilbao and Tilbury. Furthermore, Spain and Italy sealed an international agreement to develop Motorways of the Sea between both countries, pledging to develop a dozen routes between ports on the Spanish and Italian Mediterranean coasts. Currently, there are sea lanes already in use such as Barcelona-Genova, Valencia-Civitavecchia and Alicante-Naples, these are significantly shorter routes by sea than by road. Brussels identified four major maritime corridors that could hold heavy concentrate shipping traffic, and Spain had a crucial role in two of these from the beginning. On 14 April 2004 the Commission planned through the West-Mos project, a network of maritime traffic which includes the essential sea passages the so-called Baltic Motorway (linking Central and Western Europe with the Baltic countries), the southeast Europe Motorway (linking the Adriatic to the Ionian and eastern Mediterranean Sea), the Western Europe Motorway and southwestern Europe Motorway (that links Spain with Britain and the Atlantic coast of France and with the French Mediterranean coast and Italy, respectively). In order to establish Motorways of the Sea between the Iberian Peninsula and Northern Europe especially, it is necessary to remove trucks from the Pyrenean border, where sees heavy traffic (on average 8000 trucks per day) and addressing the points of greatest congestion, such as the Alps, the Pyrenees, the English Channel, the border roads of France and Euskadi, and proposing the transfer of freight on ships or trains. For its part, in order to receive subsidies and support from the European Commission, the routes selected as Motorways of the Sea should maintain a series of quality criteria related to frequency, costs "from logistics platform to logistics platform," simplicity in administrative procedures and participation of several countries, among others. To begin with, studies consider viable a maritime stretch of at least 450 miles with a volume of about 15,000 platforms per year and that have efficient connections from port to trans-European motorways and rail networks. Another objective of the Motorways of the Sea is to develop port capacity so that they can better connect peripheral regions across the European continent. Referring ports, the terminals at the docks must have a berthing line of 250 m., a draft greater than 8 m, a dual carriageway "ro-ro" ramp, portainer cranes, and ensure operability for a minimum of two loads per week. On 28 March 2011 the second White Paper about the future of transport in Europe "Roadmap to a Single European Transport Area – Towards a competitive and resource efficient transport system" was published. In this Paper the general framework of actions to be undertaken in the next ten years in the field of transport infrastructure was defined, including internal market legislation, reduction of carbon dependency, traffic management technology and clean vehicles, as well as the standardization of different markets. The main challenges are how to eliminate bottlenecks and various obstacles in our European transport network, minimize dependence on oil, reduce GHG emissions by 60% by 2050 compared to 1990 levels and encourage investment in new technologies and infrastructure that reduce EU transport emissions. The connection between the EU and North Africa causes high levels of congestion on the most critical points of the journey: the Spanish-French border, the Mediterranean corridor and Gibraltar Strait. In addition to this, the road transport sector is subject to increased market competition motivated by the elimination of European barriers, greater demands of shippers, greater restrictions on drivers and an increase in the price of diesel. On the other hand, the potential passenger market has a clear differentiation in type of flows: flows in the special period of the Crossing the Straits Operation (CSO), mainly focused on Moroccans who return home on vacation; and flows in the regular session, focused on the global mobile population. Therefore, what I want to achieve with this study is present an analysis of the current situation of freight and passengers to or from the Iberian Peninsula and their causes, as well as present research on the advantages of creating a maritime connection (Motorways of the Sea) with North Africa, based on the technical, administrative, economic, political, social and environmental conditions.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La arquitectura judicial puede considerarse como la manifestación construida de uno de los aspectos fundamentales que definen una cultura, periodo histórico, o ámbito geográfico, que es la administración de justicia en cada sociedad. La Ley y el Derecho requieren unos ámbitos espaciales singulares en los que desarrollar los procesos que culminan con el acto judicial, el contraste de versiones e investigaciones que tienen como objetivo la búsqueda de la verdad por encima de todo. La arquitectura se configura como el escenario en el que tiene lugar el juicio, y ha de contribuir en este noble cometido. El conocimiento de la arquitectura judicial requiere -en primera instancia- un análisis arquitectónico, pero además esta visión se puede y se tiene que enriquecer con los enfoques que la propia práctica jurídica ha de aportar, y que en gran medida condicionan su creación y proyecto, en todo lo relativo a funcionalidad y simbología. Sin olvidar que nuestra formación es fundamentalmente arquitectónica, cabe plantear que el área de conocimiento a la que va dirigida esta investigación también se abre en diversas vías, que parten de la confluencia de aspectos legales, arquitectónicos, urbanos, y simbológicos. Además, todos estos aspectos son planteados en relación con las particularidades de una región concreta, Aragón, donde la ley ha tenido sus propias manifestaciones y códigos, donde la arquitectura y la ciudad se han contextualizado en un lugar concreto, y donde la simbología ha tenido su manera particular de transmitirse. Respecto a los objetivos que esta tesis plantea, podemos plantear en un primer estadio el análisis del carácter de la arquitectura judicial, como concepto y expresión amplia que manifiesta la función del edificio y su traducción en una simbología propia, y que queda vinculado, por lo tanto, a la funcionalidad de los procedimientos que en él tienen lugar y a la solemnidad alegórica de la Justicia. Para llevar a cabo este estudio se pretende establecer una metodología de estudio propia, que surge de considerar como valores formativos del tipo de arquitectura judicial a la tríada de valores urbanos, funcionales, y simbólicos. En primer lugar se evaluará la repercusión urbana de la arquitectura judicial, conforme a su consideración de equipamiento publico representativo de una sociedad. Se analizará, por lo tanto, si se dan posiciones urbanas concretas o arbitrarias, y si éstas se pueden tratar como una constante histórica. En segundo lugar, la especificidad y delicadeza de los usos que alberga llevan consigo planteamientos funcionales absolutamente complejos y específicos. Se considera que merece la pena analizarlos para evaluar si son propios de este tipo de arquitectura, así como su posible origen e implicación en la construcción del espacio judicial. En tercer lugar, se analizarán los edificios judiciales desde su consideración de soporte de una gran cantidad de materializaciones de simbológicas, no sólo desde un punto de vista iconográfico, sino además vinculadas a los procesos y ordenamientos judiciales, que se traducen en la construcción de espacios con una fuerte carga simbólica y escenográfica. En un segundo estadio se analiza la validez de la aplicación de dichos valores en el estudio de una serie de casos concretos de la arquitectura judicial en el territorio de Aragón en el siglo XX. Se buscará con ello la posibilidad de establecer variantes geográficas y temporales al tipo propias de esta comunidad, con unas particularidades forales que pueden dar lugar a ellas, así como posibles líneas evolutivas, o por el contrario, la imposibilidad de establecer pautas y relaciones a partir del análisis de los casos concretos y su valoración global. ABSTRACT Judicial architecture can be seen as the built manifestation of one of the key aspects that define a culture, a historical period, or a geographic scope, which is the administration of justice in every society. Law requires specific spaces to develop its own proceedings, that culminate with the judicial act. It is the contrast of versions and investigations that have an objective, the search for the truth. Architecture is configured as the stage in which the trial takes place, and has to contribute to this noble task. The knowledge of the judicial architecture requires -in the first instance - an architectural analysis, but in addition this vision can be enriched by some questions from the legal practice. They determine project decissions, specially functional and symbologycal aspects. Our main visión of the theme is architectural, but this research is also opened in many ways, that com from the confluence of legal, architectural, urban, and simbologic aspects In addition, all these questios are considered in relation to the peculiarities of a specific region, Aragon, where the law has its own manifestations and codes, where the architecture and the city have been contextualized in a particular way, and where the symbology has its particular way to be transmitted. About the objectives that this thesis purposes, we can suggest in a first stage the analysis of the character of the judicial architecture, as a concept that expresses the function of a building, and its translation into a particular symbology, allegorical to the solemnity of the Justice. To carry out the investigation proccess is neccesary to define a new methodology. It comes form considering the formative values of the judicial architecture, developed on the triad of urban, functional, and symbolic, values. Firstly, we analyse the urban aspects of judicial architecture, according to its consideration as a main public equipment of a society. Therefore we can search for specific or arbitrary urban locations of the courts, and if they can be considered as historic constants. Secondly, we analyse the specificity an complexity of the judicial uses, their possible origin, and involvement in the construction of judicial space. Thirdly, we analyse the court as scenographic stage, that support lots of symbolic elements and aspects linked to legal system. The second stage applies the values methodology on judicial architecture in Aragon in the twentieth century, with the possibility of establishing geographical and temporal variants os the court type in this community, or on the contrary, the inability to establish patterns and relationships from the analysis of specific cases and their overall rating.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La inexistencia del premio Nobel en Matemáticas ha intrigado desde siempre a la comundiad científica y ha llevado a la creación de diversos permios que tratan de suplir su falta. En este artículo se analizan algunas de las causas que puideron llevar a Nobel a tomar su decisión: ¿Olvido? ¿Odio a las matemáticas? ¿No las consideraba importantes? ¿Rencores personales? Por supuesto, la verdad solamente la conoce Alfred Noel. Sin embargo, un análsis de su vida, su personalidad y sus relaciones personales arrojan lus sobre el asunto, de modo que, con probabilidad rayana en la certeza, la hipótesis más pausible es que la razón de ello fue el rencor.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La crítica se define como el examen y juicio acerca de alguien o algo. Esta definición comprende, por un lado, una tarea analítica -con una determinada metodología asociada- y, por otro, una actividad sintética, traducida en un juicio de valor acerca de lo previamente analizado. La crítica puede hacerse de distinta forma y con distinto grado de profundidad: desde la más básica ?fundamentalmente, la crítica descriptiva- hasta la más veraz -la crítica poética-, que trasciende la descripción o el análisis puro y se refiere a la coherencia interna del objeto de estudio. Toda crítica que pretenda reducir la distancia de aproximación a la verdad se ocupará tanto de las relaciones intrínsecas o leyes propias del objeto como de las relaciones extrínsecas al mismo. Por otro lado, una crítica objetiva facilita el conocimiento del objeto de estudio independientemente del observador o del marco de referencia, lo que la convierte en un método eficaz y con garantías para la aproximación al conocimiento del objeto. Pero ¿significa esto que sin crítica ortodoxa no puede existir crítica?. La propuesta de esta comunicación es dilucidar hasta qué punto puede emprenderse una crítica en ausencia de crítica, es decir, una crítica en la que no sea explícito el juicio de valor. Tomando como hipótesis el hecho de que exista crítica en ausencia de crítica, una obra arquitectónica ?ya sea un edificio construido, un escrito sobre arquitectura, etc.- que implique una crítica tácita podría funcionar a dos niveles: como producto práctico -edificado, literario, etc.- y como reflexión crítica. La hipótesis planteada propone que tal dualidad, la crítica y la práctica, pueda confluir en una misma obra. Aunque no en cualquiera. La existencia de crítica en ausencia de crítica dependede la naturaleza de la obra y, sin lugar a dudas, del emisor y el receptor del mensaje crítico. A primera vista, las garantías que ofrece la crítica en ausencia de crítica parecen menores que mediante la crítica ortodoxa, para la que el sujeto es la parte más débil de la cadena. Sin embargo, la ausencia de juicio de valor explícito puede comportar una serie de estímulos ? de coherencia, estéticos, lúdicos, prácticos o de otra índole- que, en determinados contextos, hagan más viable y clara la comprensión de la obra que a través del método convencional.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta tesis aborda metodologías para el cálculo de riesgo de colisión de satélites. La minimización del riesgo de colisión se debe abordar desde dos puntos de vista distintos. Desde el punto de vista operacional, es necesario filtrar los objetos que pueden presentar un encuentro entre todos los objetos que comparten el espacio con un satélite operacional. Puesto que las órbitas, del objeto operacional y del objeto envuelto en la colisión, no se conocen perfectamente, la geometría del encuentro y el riesgo de colisión deben ser evaluados. De acuerdo con dicha geometría o riesgo, una maniobra evasiva puede ser necesaria para evitar la colisión. Dichas maniobras implican un consumo de combustible que impacta en la capacidad de mantenimiento orbital y por tanto de la visa útil del satélite. Por tanto, el combustible necesario a lo largo de la vida útil de un satélite debe ser estimado en fase de diseño de la misión para una correcta definición de su vida útil, especialmente para satélites orbitando en regímenes orbitales muy poblados. Los dos aspectos, diseño de misión y aspectos operacionales en relación con el riesgo de colisión están abordados en esta tesis y se resumen en la Figura 3. En relación con los aspectos relacionados con el diseño de misión (parte inferior de la figura), es necesario evaluar estadísticamente las características de de la población espacial y las teorías que permiten calcular el número medio de eventos encontrados por una misión y su capacidad de reducir riesgo de colisión. Estos dos aspectos definen los procedimientos más apropiados para reducir el riesgo de colisión en fase operacional. Este aspecto es abordado, comenzando por la teoría descrita en [Sánchez-Ortiz, 2006]T.14 e implementada por el autor de esta tesis en la herramienta ARES [Sánchez-Ortiz, 2004b]T.15 proporcionada por ESA para la evaluación de estrategias de evitación de colisión. Esta teoría es extendida en esta tesis para considerar las características de los datos orbitales disponibles en las fases operacionales de un satélite (sección 4.3.3). Además, esta teoría se ha extendido para considerar riesgo máximo de colisión cuando la incertidumbre de las órbitas de objetos catalogados no es conocida (como se da el caso para los TLE), y en el caso de querer sólo considerar riesgo de colisión catastrófico (sección 4.3.2.3). Dichas mejoras se han incluido en la nueva versión de ARES [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 puesta a disposición a través de [SDUP,2014]R.60. En fase operacional, los catálogos que proporcionan datos orbitales de los objetos espaciales, son procesados rutinariamente, para identificar posibles encuentros que se analizan en base a algoritmos de cálculo de riesgo de colisión para proponer maniobras de evasión. Actualmente existe una única fuente de datos públicos, el catálogo TLE (de sus siglas en inglés, Two Line Elements). Además, el Joint Space Operation Center (JSpOC) Americano proporciona mensajes con alertas de colisión (CSM) cuando el sistema de vigilancia americano identifica un posible encuentro. En función de los datos usados en fase operacional (TLE o CSM), la estrategia de evitación puede ser diferente debido a las características de dicha información. Es preciso conocer las principales características de los datos disponibles (respecto a la precisión de los datos orbitales) para estimar los posibles eventos de colisión encontrados por un satélite a lo largo de su vida útil. En caso de los TLE, cuya precisión orbital no es proporcionada, la información de precisión orbital derivada de un análisis estadístico se puede usar también en el proceso operacional así como en el diseño de la misión. En caso de utilizar CSM como base de las operaciones de evitación de colisiones, se conoce la precisión orbital de los dos objetos involucrados. Estas características se han analizado en detalle, evaluando estadísticamente las características de ambos tipos de datos. Una vez concluido dicho análisis, se ha analizado el impacto de utilizar TLE o CSM en las operaciones del satélite (sección 5.1). Este análisis se ha publicado en una revista especializada [Sánchez-Ortiz, 2015b]T.3. En dicho análisis, se proporcionan recomendaciones para distintas misiones (tamaño del satélite y régimen orbital) en relación con las estrategias de evitación de colisión para reducir el riesgo de colisión de manera significativa. Por ejemplo, en el caso de un satélite en órbita heliosíncrona en régimen orbital LEO, el valor típico del ACPL que se usa de manera extendida es 10-4. Este valor no es adecuado cuando los esquemas de evitación de colisión se realizan sobre datos TLE. En este caso, la capacidad de reducción de riesgo es prácticamente nula (debido a las grandes incertidumbres de los datos TLE) incluso para tiempos cortos de predicción. Para conseguir una reducción significativa del riesgo, sería necesario usar un ACPL en torno a 10-6 o inferior, produciendo unas 10 alarmas al año por satélite (considerando predicciones a un día) o 100 alarmas al año (con predicciones a tres días). Por tanto, la principal conclusión es la falta de idoneidad de los datos TLE para el cálculo de eventos de colisión. Al contrario, usando los datos CSM, debido a su mejor precisión orbital, se puede obtener una reducción significativa del riesgo con ACPL en torno a 10-4 (considerando 3 días de predicción). Incluso 5 días de predicción pueden ser considerados con ACPL en torno a 10-5. Incluso tiempos de predicción más largos se pueden usar (7 días) con reducción del 90% del riesgo y unas 5 alarmas al año (en caso de predicciones de 5 días, el número de maniobras se mantiene en unas 2 al año). La dinámica en GEO es diferente al caso LEO y hace que el crecimiento de las incertidumbres orbitales con el tiempo de propagación sea menor. Por el contrario, las incertidumbres derivadas de la determinación orbital son peores que en LEO por las diferencias en las capacidades de observación de uno y otro régimen orbital. Además, se debe considerar que los tiempos de predicción considerados para LEO pueden no ser apropiados para el caso de un satélite GEO (puesto que tiene un periodo orbital mayor). En este caso usando datos TLE, una reducción significativa del riesgo sólo se consigue con valores pequeños de ACPL, produciendo una alarma por año cuando los eventos de colisión se predicen a un día vista (tiempo muy corto para implementar maniobras de evitación de colisión).Valores más adecuados de ACPL se encuentran entre 5•10-8 y 10-7, muy por debajo de los valores usados en las operaciones actuales de la mayoría de las misiones GEO (de nuevo, no se recomienda en este régimen orbital basar las estrategias de evitación de colisión en TLE). Los datos CSM permiten una reducción de riesgo apropiada con ACPL entre 10-5 y 10-4 con tiempos de predicción cortos y medios (10-5 se recomienda para predicciones a 5 o 7 días). El número de maniobras realizadas sería una en 10 años de misión. Se debe notar que estos cálculos están realizados para un satélite de unos 2 metros de radio. En el futuro, otros sistemas de vigilancia espacial (como el programa SSA de la ESA), proporcionarán catálogos adicionales de objetos espaciales con el objetivo de reducir el riesgo de colisión de los satélites. Para definir dichos sistemas de vigilancia, es necesario identificar las prestaciones del catalogo en función de la reducción de riesgo que se pretende conseguir. Las características del catálogo que afectan principalmente a dicha capacidad son la cobertura (número de objetos incluidos en el catalogo, limitado principalmente por el tamaño mínimo de los objetos en función de las limitaciones de los sensores utilizados) y la precisión de los datos orbitales (derivada de las prestaciones de los sensores en relación con la precisión de las medidas y la capacidad de re-observación de los objetos). El resultado de dicho análisis (sección 5.2) se ha publicado en una revista especializada [Sánchez-Ortiz, 2015a]T.2. Este análisis no estaba inicialmente previsto durante la tesis, y permite mostrar como la teoría descrita en esta tesis, inicialmente definida para facilitar el diseño de misiones (parte superior de la figura 1) se ha extendido y se puede aplicar para otros propósitos como el dimensionado de un sistema de vigilancia espacial (parte inferior de la figura 1). La principal diferencia de los dos análisis se basa en considerar las capacidades de catalogación (precisión y tamaño de objetos observados) como una variable a modificar en el caso de un diseño de un sistema de vigilancia), siendo fijas en el caso de un diseño de misión. En el caso de las salidas generadas en el análisis, todos los aspectos calculados en un análisis estadístico de riesgo de colisión son importantes para diseño de misión (con el objetivo de calcular la estrategia de evitación y la cantidad de combustible a utilizar), mientras que en el caso de un diseño de un sistema de vigilancia, los aspectos más importantes son el número de maniobras y falsas alarmas (fiabilidad del sistema) y la capacidad de reducción de riesgo (efectividad del sistema). Adicionalmente, un sistema de vigilancia espacial debe ser caracterizado por su capacidad de evitar colisiones catastróficas (evitando así in incremento dramático de la población de basura espacial), mientras que el diseño de una misión debe considerar todo tipo de encuentros, puesto que un operador está interesado en evitar tanto las colisiones catastróficas como las letales. Del análisis de las prestaciones (tamaño de objetos a catalogar y precisión orbital) requeridas a un sistema de vigilancia espacial se concluye que ambos aspectos han de ser fijados de manera diferente para los distintos regímenes orbitales. En el caso de LEO se hace necesario observar objetos de hasta 5cm de radio, mientras que en GEO se rebaja este requisito hasta los 100 cm para cubrir las colisiones catastróficas. La razón principal para esta diferencia viene de las diferentes velocidades relativas entre los objetos en ambos regímenes orbitales. En relación con la precisión orbital, ésta ha de ser muy buena en LEO para poder reducir el número de falsas alarmas, mientras que en regímenes orbitales más altos se pueden considerar precisiones medias. En relación con los aspectos operaciones de la determinación de riesgo de colisión, existen varios algoritmos de cálculo de riesgo entre dos objetos espaciales. La Figura 2 proporciona un resumen de los casos en cuanto a algoritmos de cálculo de riesgo de colisión y como se abordan en esta tesis. Normalmente se consideran objetos esféricos para simplificar el cálculo de riesgo (caso A). Este caso está ampliamente abordado en la literatura y no se analiza en detalle en esta tesis. Un caso de ejemplo se proporciona en la sección 4.2. Considerar la forma real de los objetos (caso B) permite calcular el riesgo de una manera más precisa. Un nuevo algoritmo es definido en esta tesis para calcular el riesgo de colisión cuando al menos uno de los objetos se considera complejo (sección 4.4.2). Dicho algoritmo permite calcular el riesgo de colisión para objetos formados por un conjunto de cajas, y se ha presentado en varias conferencias internacionales. Para evaluar las prestaciones de dicho algoritmo, sus resultados se han comparado con un análisis de Monte Carlo que se ha definido para considerar colisiones entre cajas de manera adecuada (sección 4.1.2.3), pues la búsqueda de colisiones simples aplicables para objetos esféricos no es aplicable a este caso. Este análisis de Monte Carlo se considera la verdad a la hora de calcular los resultados del algoritmos, dicha comparativa se presenta en la sección 4.4.4. En el caso de satélites que no se pueden considerar esféricos, el uso de un modelo de la geometría del satélite permite descartar eventos que no son colisiones reales o estimar con mayor precisión el riesgo asociado a un evento. El uso de estos algoritmos con geometrías complejas es más relevante para objetos de dimensiones grandes debido a las prestaciones de precisión orbital actuales. En el futuro, si los sistemas de vigilancia mejoran y las órbitas son conocidas con mayor precisión, la importancia de considerar la geometría real de los satélites será cada vez más relevante. La sección 5.4 presenta un ejemplo para un sistema de grandes dimensiones (satélite con un tether). Adicionalmente, si los dos objetos involucrados en la colisión tienen velocidad relativa baja (y geometría simple, Caso C en la Figura 2), la mayor parte de los algoritmos no son aplicables requiriendo implementaciones dedicadas para este caso particular. En esta tesis, uno de estos algoritmos presentado en la literatura [Patera, 2001]R.26 se ha analizado para determinar su idoneidad en distintos tipos de eventos (sección 4.5). La evaluación frete a un análisis de Monte Carlo se proporciona en la sección 4.5.2. Tras este análisis, se ha considerado adecuado para abordar las colisiones de baja velocidad. En particular, se ha concluido que el uso de algoritmos dedicados para baja velocidad son necesarios en función del tamaño del volumen de colisión proyectado en el plano de encuentro (B-plane) y del tamaño de la incertidumbre asociada al vector posición entre los dos objetos. Para incertidumbres grandes, estos algoritmos se hacen más necesarios pues la duración del intervalo en que los elipsoides de error de los dos objetos pueden intersecar es mayor. Dicho algoritmo se ha probado integrando el algoritmo de colisión para objetos con geometrías complejas. El resultado de dicho análisis muestra que este algoritmo puede ser extendido fácilmente para considerar diferentes tipos de algoritmos de cálculo de riesgo de colisión (sección 4.5.3). Ambos algoritmos, junto con el método Monte Carlo para geometrías complejas, se han implementado en la herramienta operacional de la ESA CORAM, que es utilizada para evaluar el riesgo de colisión en las actividades rutinarias de los satélites operados por ESA [Sánchez-Ortiz, 2013a]T.11. Este hecho muestra el interés y relevancia de los algoritmos desarrollados para la mejora de las operaciones de los satélites. Dichos algoritmos han sido presentados en varias conferencias internacionales [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1. ABSTRACT This document addresses methodologies for computation of the collision risk of a satellite. Two different approaches need to be considered for collision risk minimisation. On an operational basis, it is needed to perform a sieve of possible objects approaching the satellite, among all objects sharing the space with an operational satellite. As the orbits of both, satellite and the eventual collider, are not perfectly known but only estimated, the miss-encounter geometry and the actual risk of collision shall be evaluated. In the basis of the encounter geometry or the risk, an eventual manoeuvre may be required to avoid the conjunction. Those manoeuvres will be associated to a reduction in the fuel for the mission orbit maintenance, and thus, may reduce the satellite operational lifetime. Thus, avoidance manoeuvre fuel budget shall be estimated, at mission design phase, for a better estimation of mission lifetime, especially for those satellites orbiting in very populated orbital regimes. These two aspects, mission design and operational collision risk aspects, are summarised in Figure 3, and covered along this thesis. Bottom part of the figure identifies the aspects to be consider for the mission design phase (statistical characterisation of the space object population data and theory computing the mean number of events and risk reduction capability) which will define the most appropriate collision avoidance approach at mission operational phase. This part is covered in this work by starting from the theory described in [Sánchez-Ortiz, 2006]T.14 and implemented by this author in ARES tool [Sánchez-Ortiz, 2004b]T.15 provided by ESA for evaluation of collision avoidance approaches. This methodology has been now extended to account for the particular features of the available data sets in operational environment (section 4.3.3). Additionally, the formulation has been extended to allow evaluating risk computation approached when orbital uncertainty is not available (like the TLE case) and when only catastrophic collisions are subject to study (section 4.3.2.3). These improvements to the theory have been included in the new version of ESA ARES tool [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 and available through [SDUP,2014]R.60. At the operation phase, the real catalogue data will be processed on a routine basis, with adequate collision risk computation algorithms to propose conjunction avoidance manoeuvre optimised for every event. The optimisation of manoeuvres in an operational basis is not approached along this document. Currently, American Two Line Element (TLE) catalogue is the only public source of data providing orbits of objects in space to identify eventual conjunction events. Additionally, Conjunction Summary Message (CSM) is provided by Joint Space Operation Center (JSpOC) when the American system identifies a possible collision among satellites and debris. Depending on the data used for collision avoidance evaluation, the conjunction avoidance approach may be different. The main features of currently available data need to be analysed (in regards to accuracy) in order to perform estimation of eventual encounters to be found along the mission lifetime. In the case of TLE, as these data is not provided with accuracy information, operational collision avoidance may be also based on statistical accuracy information as the one used in the mission design approach. This is not the case for CSM data, which includes the state vector and orbital accuracy of the two involved objects. This aspect has been analysed in detail and is depicted in the document, evaluating in statistical way the characteristics of both data sets in regards to the main aspects related to collision avoidance. Once the analysis of data set was completed, investigations on the impact of those features in the most convenient avoidance approaches have been addressed (section 5.1). This analysis is published in a peer-reviewed journal [Sánchez-Ortiz, 2015b]T.3. The analysis provides recommendations for different mission types (satellite size and orbital regime) in regards to the most appropriate collision avoidance approach for relevant risk reduction. The risk reduction capability is very much dependent on the accuracy of the catalogue utilized to identify eventual collisions. Approaches based on CSM data are recommended against the TLE based approach. Some approaches based on the maximum risk associated to envisaged encounters are demonstrated to report a very large number of events, which makes the approach not suitable for operational activities. Accepted Collision Probability Levels are recommended for the definition of the avoidance strategies for different mission types. For example for the case of a LEO satellite in the Sun-synchronous regime, the typically used ACPL value of 10-4 is not a suitable value for collision avoidance schemes based on TLE data. In this case the risk reduction capacity is almost null (due to the large uncertainties associated to TLE data sets, even for short time-to-event values). For significant reduction of risk when using TLE data, ACPL on the order of 10-6 (or lower) seems to be required, producing about 10 warnings per year and mission (if one-day ahead events are considered) or 100 warnings per year (for three-days ahead estimations). Thus, the main conclusion from these results is the lack of feasibility of TLE for a proper collision avoidance approach. On the contrary, for CSM data, and due to the better accuracy of the orbital information when compared with TLE, ACPL on the order of 10-4 allows to significantly reduce the risk. This is true for events estimated up to 3 days ahead. Even 5 days ahead events can be considered, but ACPL values down to 10-5 should be considered in such case. Even larger prediction times can be considered (7 days) for risk reduction about 90%, at the cost of larger number of warnings up to 5 events per year, when 5 days prediction allows to keep the manoeuvre rate in 2 manoeuvres per year. Dynamics of the GEO orbits is different to that in LEO, impacting on a lower increase of orbits uncertainty along time. On the contrary, uncertainties at short prediction times at this orbital regime are larger than those at LEO due to the differences in observation capabilities. Additionally, it has to be accounted that short prediction times feasible at LEO may not be appropriate for a GEO mission due to the orbital period being much larger at this regime. In the case of TLE data sets, significant reduction of risk is only achieved for small ACPL values, producing about a warning event per year if warnings are raised one day in advance to the event (too short for any reaction to be considered). Suitable ACPL values would lay in between 5•10-8 and 10-7, well below the normal values used in current operations for most of the GEO missions (TLE-based strategies for collision avoidance at this regime are not recommended). On the contrary, CSM data allows a good reduction of risk with ACPL in between 10-5 and 10-4 for short and medium prediction times. 10-5 is recommended for prediction times of five or seven days. The number of events raised for a suitable warning time of seven days would be about one in a 10-year mission. It must be noted, that these results are associated to a 2 m radius spacecraft, impact of the satellite size are also analysed within the thesis. In the future, other Space Situational Awareness Systems (SSA, ESA program) may provide additional catalogues of objects in space with the aim of reducing the risk. It is needed to investigate which are the required performances of those catalogues for allowing such risk reduction. The main performance aspects are coverage (objects included in the catalogue, mainly limited by a minimum object size derived from sensor performances) and the accuracy of the orbital data to accurately evaluate the conjunctions (derived from sensor performance in regards to object observation frequency and accuracy). The results of these investigations (section 5.2) are published in a peer-reviewed journal [Sánchez-Ortiz, 2015a]T.2. This aspect was not initially foreseen as objective of the thesis, but it shows how the theory described in the thesis, initially defined for mission design in regards to avoidance manoeuvre fuel allocation (upper part of figure 1), is extended and serves for additional purposes as dimensioning a Space Surveillance and Tracking (SST) system (bottom part of figure below). The main difference between the two approaches is the consideration of the catalogue features as part of the theory which are not modified (for the satellite mission design case) instead of being an input for the analysis (in the case of the SST design). In regards to the outputs, all the features computed by the statistical conjunction analysis are of importance for mission design (with the objective of proper global avoidance strategy definition and fuel allocation), whereas for the case of SST design, the most relevant aspects are the manoeuvre and false alarm rates (defining a reliable system) and the Risk Reduction capability (driving the effectiveness of the system). In regards to the methodology for computing the risk, the SST system shall be driven by the capacity of providing the means to avoid catastrophic conjunction events (avoiding the dramatic increase of the population), whereas the satellite mission design should consider all type of encounters, as the operator is interested on avoiding both lethal and catastrophic collisions. From the analysis of the SST features (object coverage and orbital uncertainty) for a reliable system, it is concluded that those two characteristics are to be imposed differently for the different orbital regimes, as the population level is different depending on the orbit type. Coverage values range from 5 cm for very populated LEO regime up to 100 cm in the case of GEO region. The difference on this requirement derives mainly from the relative velocity of the encounters at those regimes. Regarding the orbital knowledge of the catalogues, very accurate information is required for objects in the LEO region in order to limit the number of false alarms, whereas intermediate orbital accuracy can be considered for higher orbital regimes. In regards to the operational collision avoidance approaches, several collision risk algorithms are used for evaluation of collision risk of two pair of objects. Figure 2 provides a summary of the different collision risk algorithm cases and indicates how they are covered along this document. The typical case with high relative velocity is well covered in literature for the case of spherical objects (case A), with a large number of available algorithms, that are not analysed in detailed in this work. Only a sample case is provided in section 4.2. If complex geometries are considered (Case B), a more realistic risk evaluation can be computed. New approach for the evaluation of risk in the case of complex geometries is presented in this thesis (section 4.4.2), and it has been presented in several international conferences. The developed algorithm allows evaluating the risk for complex objects formed by a set of boxes. A dedicated Monte Carlo method has also been described (section 4.1.2.3) and implemented to allow the evaluation of the actual collisions among a large number of simulation shots. This Monte Carlo runs are considered the truth for comparison of the algorithm results (section 4.4.4). For spacecrafts that cannot be considered as spheres, the consideration of the real geometry of the objects may allow to discard events which are not real conjunctions, or estimate with larger reliability the risk associated to the event. This is of particular importance for the case of large spacecrafts as the uncertainty in positions of actual catalogues does not reach small values to make a difference for the case of objects below meter size. As the tracking systems improve and the orbits of catalogued objects are known more precisely, the importance of considering actual shapes of the objects will become more relevant. The particular case of a very large system (as a tethered satellite) is analysed in section 5.4. Additionally, if the two colliding objects have low relative velocity (and simple geometries, case C in figure above), the most common collision risk algorithms fail and adequate theories need to be applied. In this document, a low relative velocity algorithm presented in the literature [Patera, 2001]R.26 is described and evaluated (section 4.5). Evaluation through comparison with Monte Carlo approach is provided in section 4.5.2. The main conclusion of this analysis is the suitability of this algorithm for the most common encounter characteristics, and thus it is selected as adequate for collision risk estimation. Its performances are evaluated in order to characterise when it can be safely used for a large variety of encounter characteristics. In particular, it is found that the need of using dedicated algorithms depend on both the size of collision volume in the B-plane and the miss-distance uncertainty. For large uncertainties, the need of such algorithms is more relevant since for small uncertainties the encounter duration where the covariance ellipsoids intersect is smaller. Additionally, its application for the case of complex satellite geometries is assessed (case D in figure above) by integrating the developed algorithm in this thesis with Patera’s formulation for low relative velocity encounters. The results of this analysis show that the algorithm can be easily extended for collision risk estimation process suitable for complex geometry objects (section 4.5.3). The two algorithms, together with the Monte Carlo method, have been implemented in the operational tool CORAM for ESA which is used for the evaluation of collision risk of ESA operated missions, [Sánchez-Ortiz, 2013a]T.11. This fact shows the interest and relevance of the developed algorithms for improvement of satellite operations. The algorithms have been presented in several international conferences, [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En la capital de China se erige un rascacielos icónico de la arquitectura contemporánea, la Sede de la Televisión Central China. En nuestro esfuerzo por reflexionar en torno a la verdad, hagamos un ejercicio de análisis sobre las cualidades simbólicas del edificio, la relación entre su función y forma, y las implicaciones del contexto político-social en el que se inserta

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La tesis “1950 En torno al Museo Louisiana 1970” analiza varias obras relacionadas con el espacio doméstico, que se realizaron entre 1950 y 1970 en Dinamarca, un periodo de esplendor de la Arquitectura Moderna. Tras el aislamiento y restricciones del conflicto bélico que asoló Europa, los jóvenes arquitectos daneses, estaban deseosos por experimentar nuevas ideas de procedencia internacional, favorecidos por diferentes circunstancias, encuentran el mejor campo de ensayo en el espacio doméstico. La mejor arquitectura doméstica en Dinamarca, de aquel periodo, debe entenderse como un sistema compuesto por diferentes autores, que tienen en común muchas más similitudes que diferencias, se complementan unos a otros. Para la comprensión y el entendimiento de ello se hace necesario el estudio de varias figuras y edificios, que completen este sistema cuya investigación está escasamente desarrollada. La tesis propone un viaje para conocer los nombres de algunos de sus protagonistas, que mostraron con su trabajo, que tradición y vanguardia no estarán reñidas. El objetivo es desvelar las claves de la Modernidad Danesa, reconocer, descubrir y recuperar el legado de algunos de sus protagonistas en el ámbito doméstico, cuya lección se considera de total actualidad. Una arquitectura que asume las aportaciones extranjeras con moderación y crítica, cuya íntima relación con la tradición arquitectónica y la artesanía propias, será una de sus notas especiales. Del estudio contrastado de varios proyectos y versiones, se obtienen valores comunes entre sus autores, al igual que se descubren sus afinidades o diferencias respecto a los mismos asuntos; que permitirán comprender sus actuaciones según las referencias e influencias, y definir las variables que configuran sus espacios arquitectónicos. La línea de conexión entre los edificios elegidos será su particular relación con la naturaleza y el lugar en que se integran. La fachada, lugar donde se negociará la relación entre el interior y el paisaje, será un elemento entendido de un modo diferente en cada uno de ellos, una relación que se extenderá en todas ellas, más allá de su perímetro. La investigación se ha estructurado en seis capítulos, que van precedidos de una Introducción. En el capítulo primero, se estudian y se señalan los antecedentes, las figuras y edificios más relevantes de la Tradición Danesa, para la comprensión y el esclarecimiento de algunas de las claves de su Modernidad en el campo de la Arquitectura, que se produce con una clara intención de encontrar su propia identidad y expresión. Esta Modernidad floreciente se caracteriza por la asimilación de otras culturas extranjeras desde la moderación, con un punto de vista crítico, y encuentra sus raíces ancladas a la tradición arquitectónica y la artesanía propia, que fragua en la aparición de un ideal común con enorme personalidad y que hoy se valora como una auténtica aportación de una cultura considerada entonces periférica. Se mostrará el debate y el camino seguido por las generaciones anteriores, a las obras análizadas. Las sensibilidades por lo vernáculo y lo clásico, que aparentemente son contradictorias, dominaran el debate con la misma veracidad y respetabilidad. La llamada tercera generación por Sigfried Giedion reanudará la práctica entre lo clásico y lo vernáculo, apoyados en el espíritu del trabajo artesanal y de la tradición, con el objetivo de conocer del acto arquitectónico su “la verdad” y “la esencia original”. El capítulo segundo, analiza la casa Varming, de 1953, situada en un área residencial de Gentofte, por Eva y Nils Koppel, que reinterpreta la visión de Asplund de un paisaje interior continuación del exterior, donde rompen la caja de ladrillo macizo convencional propia de los años 30. Es el ejemplo más poderoso de la unión de tradición e innovación en su obra residencial. Sus formas sobrias entre el Funcionalismo Danés y la Modernidad se singularizarán por su abstracción y volúmenes limpios que acentúan el efecto de su geometría, prismática y brutalista. El desplazamiento de los cuerpos que lo componen, unos sobre otros, generan un ritmo, que se producirá a otras escalas, ello unido a las variaciones de sus formas y a la elección de sus materiales, ladrillo y madera, le confieren a la casa un carácter orgánico. El edificio se ancla a la tierra resolviéndose en diferentes niveles tras el estudio del lugar y su topografía. El resultado es una versión construida del paisaje, en la cual el edificio da forma al lugar y ensalza la experiencia del escenario natural. La unidad de las estructuras primitivas, parece estar presente. Constituye un ejemplo de laLa idea de Promenade de Asplund”, el proyecto ofrece diferentes recorridos, permitiendo su propia vivencia de la casa, que ofrece la posibilidad vital de decidir. El capítulo tercero trata sobre el pabellón de invitados de Niels Bohr de 1957, situado un área boscosa, en Tisvilde Hegn, fue el primer edificio del arquitecto danés Vilhelm Wohlert. Arraigado a la Tradición Danesa, representa una renovación basada en la absorción de influencias extranjeras: la Arquitectura Americana y la Tradición Japonesa. La caja de madera, posada sobre un terreno horizontal, tiene el carácter sensible de un organismo vivo, siempre cambiante según las variaciones de luz del día o temperatura. Cuando se abre, crea una prolongación del espacio interior, que se extiende a la naturaleza circundante, y se expande hacia el espacio exterior, permitiendo su movilización. Se establece una arquitectura de flujos. Hay un interés por la materia, su textura y el efecto emocional que emana. Las proporciones y dimensiones del edificio están reguladas por un módulo, que se ajusta a la medida del hombre, destacando la gran unidad del edificio. La llave se su efecto estético está en su armonía y equilibrio, que transmiten serenidad y belleza. El encuentro con la naturaleza es la lección más básica del proyecto, donde un mundo de relaciones es amable al ser humano. El capítulo cuarto, analiza el proyecto del Museo Louisiana de 1958, en Humlebæk, primer proyecto de la pareja de arquitectos daneses Jørgen Bo y Vilhelm Wohlert. La experiencia en California de Wohlert donde será visitado por Bo, será trascendental para el desarrollo de Louisiana, donde la identidad Danesa se fusiona con la asimilación de otras culturas, la arquitectura de Frank Lloyd Wright, la del área de la Bahía y la Tradición Japonesa principalmente. La idea del proyecto es la de una obra de arte integral: arquitectura, arte y paisaje, coexistirían en un mismo lugar. Diferentes recursos realzarán su carácter residencial, como el uso de los materiales propios de un entorno doméstico, la realización a la escala del hombre, el modo de usar la iluminación. Cubiertas planas que muestran su artificialidad, parecen flotar sobre galerías acristaladas, acentuarán la fuerza del plano horizontal y establecerán un recorrido en zig-zag de marcado ritmo acompasado. Ritmo que tiene que ver con la encarnación del pulso de la naturaleza, que se acompaña de juegos de luz, y de otras vibraciones materiales a diferentes escalas, imagen, que encuentra una analogía semejante en la cultura japonesa. Todo se coordina con la trama estructural, que conlleva a una construcción y proporción disciplinada. Louisiana atiende al principio de crecimiento de la naturaleza, con la que su conexión es profunda. Hay un dinamismo expresado por el despliegue del edificio, que evoca a algunos proyectos de la Tradición Japonesa. Los blancos muros tienen su propia identidad como formas en sí mismas, avanzan prolongándose fuera de la línea del vidrio, se mueven libremente siguiendo el orden estructural, acompañando al espacio que fluye, en contacto directo con la naturaleza que está en un continuo estado de flujos. Se da todo un mundo de relaciones, donde existe un dialogo entre el paisaje, arte y arquitectura. El capítulo quinto, se dedica a analizar la segunda casa del arquitecto danés Halldor Gunnløgsson, de 1959. Evoca a la Arquitectura Japonesa y Americana, pero es principalmente resultado de una fuerte voluntad y disciplina artística personal. La cubierta, plana, suspendida sobre una gran plataforma pavimentada, que continúa la sección del terreno construyendo de lugar, tiene una gran presencia y arroja una profunda sombra bajo ella. En el interior un espacio único, que se puede dividir eventualmente, discurre en torno a un cuerpo central. El espacio libre fluye, extendiéndose a través de la transparencia de sus ventanales a dos espacios contrapuestos: un patio ajardinado íntimo, que inspira calma y sosiego; y la naturaleza salvaje del mar que proyecta el color del cielo, ambos en constante estado de cambio. El proyecto se elabora de un modo rigurosamente formal, existiendo al mismo tiempo un perfecto equilibrio entre la abstracción de su estructura y su programa. La estructura de madera cuyo orden se extiende más allá de los límites de su perímetro, está formada por pórticos completos como elementos libres, queda expuesta, guardando una estrecha relación con el concepto de modernidad de Mies, equivalente a la arquitectura clásica. La preocupación por el efecto estético es máxima, nada es improvisado. Pero además la combinación de materiales y el juego de las texturas hay una cualidad táctil, cierto erotismo, que flota alrededor de ella. La precisión constructiva y su refinamiento se acercan a Mies. La experiencia del espacio arquitectónico es una vivencia global. La influencia de la arquitectura japonesa, es más conceptual que formal, revelada en un respeto por la naturaleza, la búsqueda del refinamiento a través de la moderación, la eliminación de los objetos innecesarios que distraen de la experiencia del lugar y la preocupación por la luz y la sombra, donde se establece cierto paralelismo con el oscuro mundo del invierno nórdico. Hay un entendimiento de que el espacio, en lugar de ser un objeto inmaterial definido por superficies materiales se entiende como interacciones dinámicas. El capítulo sexto. Propone un viaje para conocer algunas de las viviendas unifamiliares más interesantes que se construyeron en el periodo, que forman parte del sistema investigado. Del estudio comparado y orientado en varios temas, se obtienen diversa conclusiones propias del sistema estudiado. La maestría de la sustancia y la forma será una característica distintiva en Dinamarca, se demuestra que hay un acercamiento a la cultura de Oriente, conceptual y formal, y unos intereses comunes con cierta arquitectura Americana. Su lección nos sensibiliza hacia un sentido fortalecido de proporción, escala, materialidad, textura y peso, densidad del espacio, se valora lo táctil y lo visual, hay una sensibilidad hacia la naturaleza, hacia lo humano, hacia el paisaje, la integridad de la obra. ABSTRACT The thesis “1950 around the Louisiana Museum 1970” analyses several works related to domestic space, which were carried out between 1950 and 1970 in Denmark, a golden age of modern architecture. After the isolation and limitations brought about by the war that blighted Europe, young Danish architects were keen to experiment with ideas of an international origin, encouraged by different circumstances. They find the best field of rehearsal to be the domestic space. The best architecture of that period in Denmark should be understood as a system composed of different authors, who have in common with each other many more similarities than differences, thus complimenting each other. In the interests of understanding, the study of a range of figures and buildings is necessary so that this system, the research of which is still in its infancy, can be completed. The thesis proposes a journey of discovery through the names of some of those protagonists who were showcased through their work so that tradition and avant- garde could go hand in hand. The objective is to unveil the keys to Danish Modernity; to recognise, discover and revive the legacy of some of its protagonists in the domestic field whose lessons are seen as entirely of the present. For an architect, the taking on of modern contributions with both moderation and caution, with its intimate relationship with architectural tradition and its own craft, will be one of his hallmarks. With the study set against several projects and versions, one can derive common values among their authors. In the same way their affinities and differences in respect of the same issue emerge. This will allow an understanding of their measures in line with references and influences and enable the defining of the variables of their architectural spaces. The common line between the buildings selected will be their particular relationship with nature and the space with which they integrate. The façade, the place where the relationship between the interior and the landscape would be negotiated, wouldl be the discriminating element in a distinct way for each one of them. It is through each of these facades that this relationship would extend, and far beyond their physical perimeter. The investigation has been structured into six chapters, preceded by an introduction. The first chapter outlines and analyses the backgrounds, figures and buildings most relevant to the Danish Tradition. This is to facilitate the understanding and elucidation of some of the keys to its modernity in the field of architecture, which came about with the clear intention to discover its own identity and expression. This thriving modernity is characterized by its moderate assimilation with foreign cultures with a critical eye, and finds its roots anchored in architectural tradition and its own handcraft. It is forged in the emergence of a common ideal of enormous personality which today has come to be valued as an authentic contribution to the sphere from a culture that was formerly seen as on the peripheries. What will be demonstrated is the path taken by previous generations to these works and the debate that surrounds them. The sensibilities for both the vernacular and the classic, which at first glance may seem contradictory, will dominate the debate with the same veracity and respectability. The so-called third generation of Sigfried Giedion will revive the process between the classic and the vernacular, supported in spirit by the handcraft work and by tradition, with the objective of discovering the “truth” and the “original essence” of the architectural act. The second chapter analyzes the Varming house, built by Eva and Nils Koppel 1953, which is situated in a residential area of Gentofte. This reinterprets Asplund’s vision of an interior landscape extending to the exterior, where we see a break with the conventional sturdy brick shell of the 1930s. It is the most powerful example of the union of tradition and innovation in his their residential work. Their sober forms caught between Danish Functionalism and modernity are characterized by their abstraction and clean shapes which accentuate their prismatic and brutal geometry, The displacement of the parts of which they are composed, one over the other, generate a rhythm. This is produced to varying scales and is closely linked to its forms and the selection of materials – brick and wood – that confer an organic character to the house. The building is anchored to the earth, finding solution at different levels through the study of place and topography. The result is an adaption constructed out of the landscape, in which the building gives form to the place and celebrates the experience of the natural setting. The unity of primitive structures appears to be present. It constitutes an example of “Asplund’s Promenade Idea”. Different routes of exploration within are available to the visitor, allowing for one’s own personal experience of the house, allowing in turn for the vital chance to decide. The third chapter deals with Niels Bohr’s guest pavilion. Built in 1957, it is situated in a wooded area of Tisvilde Hegn and was the architect Vilhelm Wohlert’s first building. Rooted in the Danish Tradition, it represents a renewal based on the absorption of foreign influences: American architecture and the Japanese tradition. The wooden box, perched atop a horizontal terrain, possesses the sensitive character of the living organism, ever-changing in accordance with the variations in daylight and temperature. When opened up, it creates an elongation of the interior space which extends into the surrounding nature and it expands towards the exterior space, allowing for its mobilisation. It establishes an architecture of flux. There is interest in the material, its texture and the emotional effect it inspires. The building’s proportions and dimensions are regulated by a module, which is adjusted by hand, bringing out the great unity of the building. The key to its aesthetic effect is its harmony and equilibrium, which convey serenity and beauty. The meeting with nature is the most fundamental lesson of the project, where a world of relationships softens the personality of the human being. The fourth chapter analyzes the Louisiana Museum project of 1958 in 1958. It was the first project of the Danish architects Jørgen Bo and Vilhelm Wohlert. Wohlert’s experience in California where he was visited by Bo would be essential to the development of Louisiana, where the Danish identity is fused in assimilation with other cultures, the architecture of Frank Lloyd Wright, that of the Bahía area and principally the Japanese tradition. The idea of the project was for an integrated work of art: architecture, art and landscape, which would coexist in the same space. A range of different resources would realize the residential character, such as the use of materials taken from a domestic environment, the attainment of human scale and the manner in which light was used. Flat roof plans that show their artificiality and appear to float over glassed galleries. They accentuate the strength of the horizontal plan and establish a zigzag route of marked and measured rhythm. It is a rhythm that has to do with the incarnation of nature’s pulse, which is accompanied with plays of light, as well as material vibrations of different scales, imagery which uncovers a parallel analogy with Japanese culture. Everything is coordinated along a structural frame, which involves a disciplined construction and proportion. Louisiana cherishes nature’s principle of growth, to which its connection is profound. Here is a dynamism expressed through the disposition of the building, which evokes in some projects the Japanese tradition. The white walls possess their own identity as forms in their own right. They advance, extending beyond the line of glass, moving freely along the structural line, accompanying a space that flows and in direct contact with nature that is itself in a constant state of flux. It creates a world of relationships, where dialogue exists between the landscape, art and architecture. The fifth chapter is dedicated to analyzing the Danish architect Halldor Gunnløgsson’s second house, built in 1959. It evokes both Japanese and American architecture but is principally the result of a strong will and personal artistic discipline. The flat roof suspended above a large paved platform – itself continuing the constructed terrain of the place – has great presence and casts a heavy shadow beneath. In the interior, a single space, which can at length be divided and which flows around a central space. The space flows freely, extending through the transparency of its windows which give out onto two contrasting locations: an intimate garden patio, inspiring calm and tranquillity, and the wild nature of the sea which projects the colour of sky, both in a constant state of change. The project is realized in a rigorously formal manner. A perfect balance exists between the abstraction of his structure and his project. The wooden structure, whose order extends beyond the limits of its perimeter, is formed of complete porticos of free elements. It remains exposed, maintaining a close relationship with Mies’ concept of modernity, analogous to classical architecture. The preoccupation with the aesthetic effect is paramount and nothing is improvised. But in addition to this - the combination of materials and the play of textures - there is a tactile quality, a certain eroticism, which lingers all about. The constructive precision and its refinement are close to Mies. The experience of the architectural space is universal. The influence of Japanese architecture, more conceptual than formal, is revealed in a respect for nature. It can be seen in the search for refinement through moderation, the elimination of the superfluous object that distract from the experience of place and the preoccupation with light and shade, where a certain parallel with the dark world of the Nordic winter is established. There is an understanding that space, rather than being an immaterial object defined by material surfaces, extends instead as dynamic interactions. The sixth chapter. This proposes a journey to discover some of the unfamiliar residences of most interest which were constructed in the period, and which form part of the system being investigated. Through the study of comparison and one which is geared towards various themes, diverse conclusions are drawn regarding the system being researched. The expertise in substance and form will be a distinctive characteristic in Denmark, demonstrating an approach to the culture of the Orient, both conceptual and formal, and some common interests in certain American architecture. Its teachings sensitize us to a strengthened sense of proportion, scale, materiality, texture and weight and density of space. It values both the tactile and the visual. There is a sensitivity to nature, to the human, to the landscape and to the integrity of the work.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El concepto de "aporía", del griego "aporia", que significa dificultad, perplejidad, es utilizado por Josep Acebillo para referirse a lo que él llama "una dificultad lógica insoluble que resulta de la mala utilización de conceptos teóricos.? (2007:86) Además, el autor nos advierte de sus posibles efectos, ya que vivimos una auténtica eclosión de aporías: ?Una de las consecuencias de este mal uso es la aparición de posiciones disciplinarias que pueden ocasionar que la arquitectura vaya a la deriva. "(2007: 86). A este respecto, hay muchas intervenciones en el campo de la arquitectura y el urbanismo que pueden causar perplejidad en el espectador por su tendencia a ignorar la verdad y a proponer una confusión entre realidad y deseo. Una de ellas es el uso de ?disfraces? para enmascarar lo que hay debajo. Es también lo que le sucede a menudo a muchos urbanistas que consideran el paisaje como una simplificación de la complejidad territorial e intentan reducir un problema serio e interdisciplinario a un mero problema de revestimiento, de fachada. El objetivo de este artículo es explicar cómo la arquitectura y el urbanismo utilizan diferentes tipos de disfraces, distinguir entre los distintos tipos de ocultamiento y reflexionar sobre cuáles son las principales razones de su uso. Además, se llamará la atención sobre el hecho de que algunas de las categorías descritas llevan consigo un despilfarro económico que debe controlarse en el interés de todos en una época en la que palabras como sostenibilidad y ahorro suponen un deber moral.