865 resultados para Interest and usury
Resumo:
Linked data offers a promising setting to encode, publish and share metadata of resources. As the matter of fact, it is already adopted by data producers such as European Environment Agency, US and some EU Governs, whose first ambition is to share (meta)data making their processes more effective and transparent. Such as an increasing interest and involvement of data providers surely represents a genuine witness of the web of data success, but in a longer perspective, frameworks supporting linked data consumers in their decision making processes will be a compelling need. In this respect, the talk is introducing SSONDE, a framework enabling in detailed comparison, ranking and selection of linked data resources through the analysis of their RDF ontology driven metadata. SSONDE implements an instance similarity especially designed to support in resource selection, namely the process stakeholders engage to choose a set of resources suitable for a given analysis purpose: (i) it deploys an asymmetric similarity assessment to emphasize information about gains and losses the stakeholders get adopting a resource in place of another; (ii) it relies on an explicit formalization of contexts to tailor the similarity assessment with respect to specific user-defined selection goals. The talk aims at providing an insight on SSONDE instance similarity and it will briefly describe some examples of SSONDE deployment in the context of linked data consumption.
Resumo:
Semantic Sensor Web infrastructures use ontology-based models to represent the data that they manage; however, up to now, these ontological models do not allow representing all the characteristics of distributed, heterogeneous, and web-accessible sensor data. This paper describes a core ontological model for Semantic Sensor Web infrastructures that covers these characteristics and that has been built with a focus on reusability. This ontological model is composed of different modules that deal, on the one hand, with infrastructure data and, on the other hand, with data from a specific domain, that is, the coastal flood emergency planning domain. The paper also presents a set of guidelines, followed during the ontological model development, to satisfy a common set of requirements related to modelling domain-specific features of interest and properties. In addition, the paper includes the results obtained after an exhaustive evaluation of the developed ontologies along different aspects (i.e., vocabulary, syntax, structure, semantics, representation, and context).
Resumo:
Over a decade ago, nanotechnologists began research on applications of nanomaterials for medicine. This research has revealed a wide range of different challenges, as well as many opportunities. Some of these challenges are strongly related to informatics issues, dealing, for instance, with the management and integration of heterogeneous information, defining nomenclatures, taxonomies and classifications for various types of nanomaterials, and research on new modeling and simulation techniques for nanoparticles. Nanoinformatics has recently emerged in the USA and Europe to address these issues. In this paper, we present a review of nanoinformatics, describing its origins, the problems it addresses, areas of interest, and examples of current research initiatives and informatics resources. We suggest that nanoinformatics could accelerate research and development in nanomedicine, as has occurred in the past in other fields. For instance, biomedical informatics served as a fundamental catalyst for the Human Genome Project, and other genomic and ?omics projects, as well as the translational efforts that link resulting molecular-level research to clinical problems and findings.
Resumo:
In this chapter, we are going to describe the main features as well as the basic steps of the Boundary Element Method (BEM) as applied to elastostatic problems and to compare them with other numerical procedures. As we shall show, it is easy to appreciate the adventages of the BEM, but it is also advisable to refrain from a possible unrestrained enthusiasm, as there are also limitations to its usefulness in certain types of problems. The number of these problems, nevertheless, is sufficient to justify the interest and activity that the new procedure has aroused among researchers all over the world. Briefly speaking, the most frequently used version of the BEM as applied to elastostatics works with the fundamental solution, i.e. the singular solution of the governing equations, as an influence function and tries to satisfy the boundary conditions of the problem with the aid of a discretization scheme which consists exclusively of boundary elements. As in other numerical methods, the BEM was developed thanks to the computational possibilities offered by modern computers on totally "classical" basis. That is, the theoretical grounds are based on linear elasticity theory, incorporated long ago into the curricula of most engineering schools. Its delay in gaining popularity is probably due to the enormous momentum with which Finite Element Method (FEM) penetrated the professional and academic media. Nevertheless, the fact that these methods were developed before the BEM has been beneficial because de BEM successfully uses those results and techniques studied in past decades. Some authors even consider the BEM as a particular case of the FEM while others view both methods as special cases of the general weighted residual technique. The first paper usually cited in connection with the BEM as applied to elastostatics is that of Rizzo, even though the works of Jaswon et al., Massonet and Oliveira were published at about the same time, the reason probably being the attractiveness of the "direct" approach over the "indirect" one. The work of Tizzo and the subssequent work of Cruse initiated a fruitful period with applicatons of the direct BEM to problems of elastostacs, elastodynamics, fracture, etc. The next key contribution was that of Lachat and Watson incorporating all the FEM discretization philosophy in what is sometimes called the "second BEM generation". This has no doubt, led directly to the current developments. Among the various researchers who worked on elastostatics by employing the direct BEM, one can additionallly mention Rizzo and Shippy, Cruse et al., Lachat and Watson, Alarcón et al., Brebbia el al, Howell and Doyle, Kuhn and Möhrmann and Patterson and Sheikh, and among those who used the indirect BEM, one can additionally mention Benjumea and Sikarskie, Butterfield, Banerjee et al., Niwa et al., and Altiero and Gavazza. An interesting version of the indirct method, called the Displacement Discontinuity Method (DDM) has been developed by Crounh. A comprehensive study on various special aspects of the elastostatic BEM has been done by Heisse, while review-type articles on the subject have been reported by Watson and Hartmann. At the present time, the method is well established and is being used for the solution of variety of problems in engineering mechanics. Numerous introductory and advanced books have been published as well as research-orientated ones. In this sense, it is worth noting the series of conferences promoted by Brebbia since 1978, wich have provoked a continuous research effort all over the world in relation to the BEM. In the following sections, we shall concentrate on developing the direct BEM as applied to elastostatics.
Resumo:
The characterisation of mineral texture has been a major concern for process mineralogists, as liberation characteristics of the ores are intimately related to the mineralogical texture. While a great effort has been done to automatically characterise texture in unbroken ores, the characterisation of textural attributes in mineral particles is usually descriptive. However, the quantitative characterisation of texture in mineral particles is essential to improve and predict the performance of minerallurgical processes (i.e. all the processes involved in the liberation and separation of the mineral of interest) and to achieve a more accurate geometallurgical model. Driven by this necessity of achieving a more complete characterisation of textural attributes in mineral particles, a methodology has been recently developed to automatically characterise the type of intergrowth between mineral phases within particles by means of digital image analysis. In this methodology, a set ofminerallurgical indices has been developed to quantify different mineralogical features and to identify the intergrowth pattern by discriminant analysis. The paper shows the application of the methodology to the textural characterisation of chalcopyrite in the rougher concentrate of the Kansanshi copper mine (Zambia). In this sample, the variety of intergrowth patterns of chalcopyrite with the other minerals has been used to illustrate the methodology. The results obtained show that the method identifies the intergrowth type and provides quantitative information to achieve a complete and detailed mineralogical characterisation. Therefore, the use of this methodology as a routinely tool in automated mineralogy would contribute to a better understanding of the ore behaviour during liberation and separation processes.
Resumo:
Blended-wing-body (BWB) aircraft are being studied with interest and effort to improve economic efficiency and to overcome operational and infrastructure related problems associated to the increasing size of conventional transport airplanes. The objective of the research reported here is to assess the aerodynamic feasibility and operational efficiency of a great size, blended wing body layout, a configuration which has many advantages. To this end, the conceptual aerodynamic design process of an 800 seat BWB has been done completed with a comparison of performance and operational issues with last generation of conventional very large aircraft. The results are greatly encouraging and predict about 20 percent increase in transport productivity efficiency, without the burden of new or aggravated safety or operational problems.
Resumo:
RESUMEN Su objetivo esencial: Regular el proceso de la edificación, está basado en 3 grandes pilares: 1.- Completar la configuración legal de los agentes que intervienen en el mismo, fijando sus obligaciones para así establecer las responsabilidades. 2.- Fomentar la calidad de los edificios. 3.- Fijar las garantías a los usuarios frente a los posibles daños. Estos tres fundamentos están intensamente relacionados, ya que, las obligaciones y responsabilidades de los agentes son la base de la constitución de las garantías a los usuarios, definidas mediante los requisitos básicos que deben satisfacer los edificios. Partiendo del análisis cualitativo y cuantitativo del grado de cumplimiento del objetivo de la nueva Ley, elaborado a través del estudio de sus tres pilares fundamentales, proponemos medidas tendentes a la plena entrada en vigor de la misma. Para ello se deberá desarrollar el Real Decreto previsto en la Disposición Adicional 2ª, una vez conseguido el grado de madurez de los sectores de la edificación y del seguro. En todo este proceso de estudio hemos podido apreciar que la objetiva identificación de los daños y en especial los que afectan la estabilidad del edificio, constituye una herramienta fundamental para la correcta atribución de responsabilidades a los agentes, basada en la aplicación de los tres grados de responsabilidad “ex lege” por daños materiales y sus plazos de prescripción surgidos del nuevo régimen impuesto por el art. 17 LOE Para avalar esta propuesta hemos analizado: 1.- El entorno económico, general y pormenorizado al sector de la edificación, en Europa y España durante el período comprendido entre los años 1990 y 2013, años previos y posteriores a la entrada en vigor de la Ley, dada la influencia de los ciclos de actividad producidos en la regulación del sector, las responsabilidades atribuidas a los agentes, el fomento de la calidad y las garantías ofrecidas a los adquirentes. 2.- Las diversas legislaciones sobre responsabilidades y garantías de los agentes de la edificación en los países de nuestro entorno económico. 3.- La gestación de la LOE, incidiendo en la evolución de los últimos borradores y su tramitación parlamentaria. 4.- El desarrollo doctrinal de la Transición desde el régimen de responsabilidades, fijado por el art. 1591 de Código Civil, y su Jurisprudencia, hacia el nuevo régimen de responsabilidades establecido por el art. 17 LOE. En esta tarea además de apreciar la asimilación, por parte de los Jueces y Magistrados, de los principios doctrinales de la LOE, hemos observado la labor de los peritos, de cuya experta identificación de las causas de los daños depende la justa y eficaz atribución de responsabilidades. 5 -. El grado de eficacia de la LOE a la vista de la estadística siniestral, de la que ya hay datos consolidados, tras la cancelación de casi 15.000 expedientes de reclamación a Arquitectos. 6 -. También hemos estudiado el grado de cumplimiento con el usuario y propietario de las garantías previstas en el art. 19 de la Ley y en la D.A. 1ª, los efectos reales alcanzados y las tareas pendientes por delante. Analizando la atribución de responsabilidades a los agentes de la edificación, dentro del primer pilar fundamental de la LOE, hemos estudiado las actuaciones de los peritos expertos y su incidencia en este objetivo, previa selección de casos de gran interés y dificultad. Fruto de ello se han formulado propuestas tendentes a la especialización de este colectivo, evitando conductas “irregulares” que tanto daño provocan a los agentes reclamados como a los propietarios afectados. Este daño es evidente pudiendo ocasionar condenas injustas, enriquecimientos ilícitos o bien falsas expectativas de satisfacción de daños mal dictaminados y costosas e ineficaces reparaciones. De cara a la consecución del pilar de la calidad de la edificación, mediante los requisitos básicos planteados por la LOE y desarrollados por el Código Técnico de la Edificación (Real Decreto 314/2006, de 17 de marzo), hemos procesado datos de expedientes de reclamaciones por daños que afectan a edificios ejecutados bajo el nuevo régimen LOE. Con esta base se han analizado las causas generadoras de las diversas lesiones y su frecuencia para que de este análisis puedan establecerse pautas de actuación para su prevención. Finalmente, tras demostrar que las garantías obligatorias impuestas por la LOE sólo abarcan un pequeño porcentaje de los posibles daños a la edificación, insistimos en la necesidad de la plena eficacia de la Ley mediante la aprobación de todas las garantías previstas y para todo tipo de edificaciones. En suma, se ha diseñado la tesis como una matriz abierta en la que podremos continuar incorporando datos de la evolución de la doctrina, la jurisprudencia y la estadística de los daños en la edificación. ABSTRACT The approval of Law 38/1999 on November 5, 1999, (Official Gazette BOE 266/1999 of 11.6.1999, p. 38925), was the culmination of a long period of over 20 years of gestation for which deep agreements were needed between all stakeholders affected. Although several parliamentary groups denounced its incomplete approval, regarding mandatory guarantees to the purchaser, its enactment caused general satisfaction among most of the the building agents. This assessment remains after fourteen years since its partial enactment. Its essential purpose, “to regulate the building process”, is based on 3 pillars: 1.- To complete the legal configuration of the agents involved in it, setting their obligations in order to establish their responsibilities. 2.- To promote the buildings quality. 3.- To specify users´guarantees against possible buildings damage. These three issues are strongly related, since the obligations and responsibilities of the actors are the basis of the users’guarantees constitution, defined by the basic performance required by buildings. Based on the qualitative and quantitative analysis of the fulfillment of the new law’s objectives, made by monitoring the three pillars, we propose measures to the full enactment of this Directive, by the development of the Royal Decree, provided in its Second Additional Provision, once maturity in the sectors of the building and insurance is achieved. Throughout this process of study we have seen that the skill identification of damage, particularly those affecting the stability of the building, is an essential tool for the proper allocation of responsibilities of the new regime installed by the art. 17 LOE, based on the application of the three degrees of responsibility "ex lege" for property damage and limitation periods. To support this proposal, we have analyzed: 1.- The evolution of the building sector in Europe and Spain during the years before and after the enactment of the Law, due to the influence of cycles of activity produced in industry regulation, the responsibilities attributed to agents, promotion of the quality and the assurances given to acquirers. 2.- The scope of various laws on liability and building agents warranties in the countries of our economic environment. 3.- The long period of LOE generation, focusing on the developments in recent drafts and parliamentary procedure. 4.- The doctrinal development in the Transition from the regime of responsibilities, set by art. 1591 of the Civil Code, and its Jurisprudence, to the new liability regime established by art. 17 LOE. In this task, while we have noted assimilation by the Judges and Magistrates of the doctrinal principles of the LOE, we have also analyzed the work of experts, whose skilled identification of the damage causes helps the fair and efficient allocation of responsibilities. 5 - The effectiveness of the LOE based on knowledge of the siniestral statistics, which are already consolidated data, after the cancellation of nearly 15,000 claims to Architects. 6.- We have also studied the degree of compliance with the user and owner guarantees, established in art. 19 and the D.A. 1th of the LOE, exposing the real effects achieved and the pending tasks ahead. Analyzing the allocation of the building agents´ responsibilities, within the first cornerstone of the LOE, we have studied the expert witnesses actions and their impact on this duty, selecting cases of great interest and difficulty in this aim. The result of this enterprise has been to propose the specialization of this group, avoiding "irregular" behaviors that create as much damage as the agents claimed to affected owners. This damage is evident and can cause wrong convictions, illicit enrichment, false expectations and inefficient and costly damage repairs. In order to achieve the pillar of building quality through the basic requirements set by the LOE and developed by the Technical Building Code (Royal Decree 314/ 2006 of 17 March), we have analyzed records of damage claims involving buildings executed under the new regime LOE. On this basis we have analyzed the root causes of various damages and their frequency, from these data it will be easy to propose lines of action for prevention. Finally, after demonstrating that mandatory warranties imposed by LOE cover only a small percentage of the potential building damage, we emphasize the need for the full effectiveness of the Law by the obligation all the guarantees provided in the art. 19 LOE, and for all types of buildings. In conclusion, this thesis is designed as an open matrix in which we will continue including data on the evolution of the doctrine, jurisprudence and the statistics of the damage to the building.
Resumo:
The convergence process among European academic degrees pursues the exchange of graduate students and the adaptation of university programs to social demand. Within the framework of the European Higher Education, European universities will need to be more competitive not only by increasing or maintaining the student enrolment, but also in their academic performance. Thus, the reinforcing of English language education within the University Programs might play an important role to reach these objectives. In this sense, a complete survey was accomplished at the Agricultural Egineering School of Madrid (ETSIA ) addressing issues such as: identification the needs for bilingual instruction at ETSIA, identification resources needed and interest and background in English language of students and professors (San José et al., 2013). The conclusions and recommendations to promote the bilingual instruction in the ETSIA, taking into account the approaches followed by other Spanish universities, are presented in this work.
Resumo:
Los sistemas transaccionales tales como los programas informáticos para la planificación de recursos empresariales (ERP software) se han implementado ampliamente mientras que los sistemas analíticos para la gestión de la cadena de suministro (SCM software) no han tenido el éxito deseado por la industria de tecnología de información (TI). Aunque se documentan beneficios importantes derivados de las implantaciones de SCM software, las empresas industriales son reacias a invertir en este tipo de sistemas. Por una parte esto es debido a la falta de métodos que son capaces de detectar los beneficios por emplear esos sistemas, y por otra parte porque el coste asociado no está identificado, detallado y cuantificado suficientemente. Los esquemas de coordinación basados únicamente en sistemas ERP son alternativas válidas en la práctica industrial siempre que la relación coste-beneficio esta favorable. Por lo tanto, la evaluación de formas organizativas teniendo en cuenta explícitamente el coste debido a procesos administrativos, en particular por ciclos iterativos, es de gran interés para la toma de decisiones en el ámbito de inversiones en TI. Con el fin de cerrar la brecha, el propósito de esta investigación es proporcionar métodos de evaluación que permitan la comparación de diferentes formas de organización y niveles de soporte por sistemas informáticos. La tesis proporciona una amplia introducción, analizando los retos a los que se enfrenta la industria. Concluye con las necesidades de la industria de SCM software: unas herramientas que facilitan la evaluación integral de diferentes propuestas de organización. A continuación, la terminología clave se detalla centrándose en la teoría de la organización, las peculiaridades de inversión en TI y la tipología de software de gestión de la cadena de suministro. La revisión de la literatura clasifica las contribuciones recientes sobre la gestión de la cadena de suministro, tratando ambos conceptos, el diseño de la organización y su soporte por las TI. La clasificación incluye criterios relacionados con la metodología de la investigación y su contenido. Los estudios empíricos en el ámbito de la administración de empresas se centran en tipologías de redes industriales. Nuevos algoritmos de planificación y esquemas de coordinación innovadoras se desarrollan principalmente en el campo de la investigación de operaciones con el fin de proponer nuevas funciones de software. Artículos procedentes del área de la gestión de la producción se centran en el análisis de coste y beneficio de las implantaciones de sistemas. La revisión de la literatura revela que el éxito de las TI para la coordinación de redes industriales depende en gran medida de características de tres dimensiones: la configuración de la red industrial, los esquemas de coordinación y las funcionalidades del software. La literatura disponible está enfocada sobre todo en los beneficios de las implantaciones de SCM software. Sin embargo, la coordinación de la cadena de suministro, basándose en el sistema ERP, sigue siendo la práctica industrial generalizada, pero el coste de coordinación asociado no ha sido abordado por los investigadores. Los fundamentos de diseño organizativo eficiente se explican en detalle en la medida necesaria para la comprensión de la síntesis de las diferentes formas de organización. Se han generado varios esquemas de coordinación variando los siguientes parámetros de diseño: la estructura organizativa, los mecanismos de coordinación y el soporte por TI. Las diferentes propuestas de organización desarrolladas son evaluadas por un método heurístico y otro basado en la simulación por eventos discretos. Para ambos métodos, se tienen en cuenta los principios de la teoría de la organización. La falta de rendimiento empresarial se debe a las dependencias entre actividades que no se gestionan adecuadamente. Dentro del método heurístico, se clasifican las dependencias y se mide su intensidad basándose en factores contextuales. A continuación, se valora la idoneidad de cada elemento de diseño organizativo para cada dependencia específica. Por último, cada forma de organización se evalúa basándose en la contribución de los elementos de diseño tanto al beneficio como al coste. El beneficio de coordinación se refiere a la mejora en el rendimiento logístico - este concepto es el objeto central en la mayoría de modelos de evaluación de la gestión de la cadena de suministro. Por el contrario, el coste de coordinación que se debe incurrir para lograr beneficios no se suele considerar en detalle. Procesos iterativos son costosos si se ejecutan manualmente. Este es el caso cuando SCM software no está implementada y el sistema ERP es el único instrumento de coordinación disponible. El modelo heurístico proporciona un procedimiento simplificado para la clasificación sistemática de las dependencias, la cuantificación de los factores de influencia y la identificación de configuraciones que indican el uso de formas organizativas y de soporte de TI más o menos complejas. La simulación de eventos discretos se aplica en el segundo modelo de evaluación utilizando el paquete de software ‘Plant Simulation’. Con respecto al rendimiento logístico, por un lado se mide el coste de fabricación, de inventario y de transporte y las penalizaciones por pérdida de ventas. Por otro lado, se cuantifica explícitamente el coste de la coordinación teniendo en cuenta los ciclos de coordinación iterativos. El método se aplica a una configuración de cadena de suministro ejemplar considerando diversos parámetros. Los resultados de la simulación confirman que, en la mayoría de los casos, el beneficio aumenta cuando se intensifica la coordinación. Sin embargo, en ciertas situaciones en las que se aplican ciclos de planificación manuales e iterativos el coste de coordinación adicional no siempre conduce a mejor rendimiento logístico. Estos resultados inesperados no se pueden atribuir a ningún parámetro particular. La investigación confirma la gran importancia de nuevas dimensiones hasta ahora ignoradas en la evaluación de propuestas organizativas y herramientas de TI. A través del método heurístico se puede comparar de forma rápida, pero sólo aproximada, la eficiencia de diferentes formas de organización. Por el contrario, el método de simulación es más complejo pero da resultados más detallados, teniendo en cuenta parámetros específicos del contexto del caso concreto y del diseño organizativo. ABSTRACT Transactional systems such as Enterprise Resource Planning (ERP) systems have been implemented widely while analytical software like Supply Chain Management (SCM) add-ons are adopted less by manufacturing companies. Although significant benefits are reported stemming from SCM software implementations, companies are reluctant to invest in such systems. On the one hand this is due to the lack of methods that are able to detect benefits from the use of SCM software and on the other hand associated costs are not identified, detailed and quantified sufficiently. Coordination schemes based only on ERP systems are valid alternatives in industrial practice because significant investment in IT can be avoided. Therefore, the evaluation of these coordination procedures, in particular the cost due to iterations, is of high managerial interest and corresponding methods are comprehensive tools for strategic IT decision making. The purpose of this research is to provide evaluation methods that allow the comparison of different organizational forms and software support levels. The research begins with a comprehensive introduction dealing with the business environment that industrial networks are facing and concludes highlighting the challenges for the supply chain software industry. Afterwards, the central terminology is addressed, focusing on organization theory, IT investment peculiarities and supply chain management software typology. The literature review classifies recent supply chain management research referring to organizational design and its software support. The classification encompasses criteria related to research methodology and content. Empirical studies from management science focus on network types and organizational fit. Novel planning algorithms and innovative coordination schemes are developed mostly in the field of operations research in order to propose new software features. Operations and production management researchers realize cost-benefit analysis of IT software implementations. The literature review reveals that the success of software solutions for network coordination depends strongly on the fit of three dimensions: network configuration, coordination scheme and software functionality. Reviewed literature is mostly centered on the benefits of SCM software implementations. However, ERP system based supply chain coordination is still widespread industrial practice but the associated coordination cost has not been addressed by researchers. Fundamentals of efficient organizational design are explained in detail as far as required for the understanding of the synthesis of different organizational forms. Several coordination schemes have been shaped through the variation of the following design parameters: organizational structuring, coordination mechanisms and software support. The different organizational proposals are evaluated using a heuristic approach and a simulation-based method. For both cases, the principles of organization theory are respected. A lack of performance is due to dependencies between activities which are not managed properly. Therefore, within the heuristic method, dependencies are classified and their intensity is measured based on contextual factors. Afterwards the suitability of each organizational design element for the management of a specific dependency is determined. Finally, each organizational form is evaluated based on the contribution of the sum of design elements to coordination benefit and to coordination cost. Coordination benefit refers to improvement in logistic performance – this is the core concept of most supply chain evaluation models. Unfortunately, coordination cost which must be incurred to achieve benefits is usually not considered in detail. Iterative processes are costly when manually executed. This is the case when SCM software is not implemented and the ERP system is the only available coordination instrument. The heuristic model provides a simplified procedure for the classification of dependencies, quantification of influence factors and systematic search for adequate organizational forms and IT support. Discrete event simulation is applied in the second evaluation model using the software package ‘Plant Simulation’. On the one hand logistic performance is measured by manufacturing, inventory and transportation cost and penalties for lost sales. On the other hand coordination cost is explicitly considered taking into account iterative coordination cycles. The method is applied to an exemplary supply chain configuration considering various parameter settings. The simulation results confirm that, in most cases, benefit increases when coordination is intensified. However, in some situations when manual, iterative planning cycles are applied, additional coordination cost does not always lead to improved logistic performance. These unexpected results cannot be attributed to any particular parameter. The research confirms the great importance of up to now disregarded dimensions when evaluating SCM concepts and IT tools. The heuristic method provides a quick, but only approximate comparison of coordination efficiency for different organizational forms. In contrast, the more complex simulation method delivers detailed results taking into consideration specific parameter settings of network context and organizational design.
Resumo:
Esta tesis aborda metodologías para el cálculo de riesgo de colisión de satélites. La minimización del riesgo de colisión se debe abordar desde dos puntos de vista distintos. Desde el punto de vista operacional, es necesario filtrar los objetos que pueden presentar un encuentro entre todos los objetos que comparten el espacio con un satélite operacional. Puesto que las órbitas, del objeto operacional y del objeto envuelto en la colisión, no se conocen perfectamente, la geometría del encuentro y el riesgo de colisión deben ser evaluados. De acuerdo con dicha geometría o riesgo, una maniobra evasiva puede ser necesaria para evitar la colisión. Dichas maniobras implican un consumo de combustible que impacta en la capacidad de mantenimiento orbital y por tanto de la visa útil del satélite. Por tanto, el combustible necesario a lo largo de la vida útil de un satélite debe ser estimado en fase de diseño de la misión para una correcta definición de su vida útil, especialmente para satélites orbitando en regímenes orbitales muy poblados. Los dos aspectos, diseño de misión y aspectos operacionales en relación con el riesgo de colisión están abordados en esta tesis y se resumen en la Figura 3. En relación con los aspectos relacionados con el diseño de misión (parte inferior de la figura), es necesario evaluar estadísticamente las características de de la población espacial y las teorías que permiten calcular el número medio de eventos encontrados por una misión y su capacidad de reducir riesgo de colisión. Estos dos aspectos definen los procedimientos más apropiados para reducir el riesgo de colisión en fase operacional. Este aspecto es abordado, comenzando por la teoría descrita en [Sánchez-Ortiz, 2006]T.14 e implementada por el autor de esta tesis en la herramienta ARES [Sánchez-Ortiz, 2004b]T.15 proporcionada por ESA para la evaluación de estrategias de evitación de colisión. Esta teoría es extendida en esta tesis para considerar las características de los datos orbitales disponibles en las fases operacionales de un satélite (sección 4.3.3). Además, esta teoría se ha extendido para considerar riesgo máximo de colisión cuando la incertidumbre de las órbitas de objetos catalogados no es conocida (como se da el caso para los TLE), y en el caso de querer sólo considerar riesgo de colisión catastrófico (sección 4.3.2.3). Dichas mejoras se han incluido en la nueva versión de ARES [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 puesta a disposición a través de [SDUP,2014]R.60. En fase operacional, los catálogos que proporcionan datos orbitales de los objetos espaciales, son procesados rutinariamente, para identificar posibles encuentros que se analizan en base a algoritmos de cálculo de riesgo de colisión para proponer maniobras de evasión. Actualmente existe una única fuente de datos públicos, el catálogo TLE (de sus siglas en inglés, Two Line Elements). Además, el Joint Space Operation Center (JSpOC) Americano proporciona mensajes con alertas de colisión (CSM) cuando el sistema de vigilancia americano identifica un posible encuentro. En función de los datos usados en fase operacional (TLE o CSM), la estrategia de evitación puede ser diferente debido a las características de dicha información. Es preciso conocer las principales características de los datos disponibles (respecto a la precisión de los datos orbitales) para estimar los posibles eventos de colisión encontrados por un satélite a lo largo de su vida útil. En caso de los TLE, cuya precisión orbital no es proporcionada, la información de precisión orbital derivada de un análisis estadístico se puede usar también en el proceso operacional así como en el diseño de la misión. En caso de utilizar CSM como base de las operaciones de evitación de colisiones, se conoce la precisión orbital de los dos objetos involucrados. Estas características se han analizado en detalle, evaluando estadísticamente las características de ambos tipos de datos. Una vez concluido dicho análisis, se ha analizado el impacto de utilizar TLE o CSM en las operaciones del satélite (sección 5.1). Este análisis se ha publicado en una revista especializada [Sánchez-Ortiz, 2015b]T.3. En dicho análisis, se proporcionan recomendaciones para distintas misiones (tamaño del satélite y régimen orbital) en relación con las estrategias de evitación de colisión para reducir el riesgo de colisión de manera significativa. Por ejemplo, en el caso de un satélite en órbita heliosíncrona en régimen orbital LEO, el valor típico del ACPL que se usa de manera extendida es 10-4. Este valor no es adecuado cuando los esquemas de evitación de colisión se realizan sobre datos TLE. En este caso, la capacidad de reducción de riesgo es prácticamente nula (debido a las grandes incertidumbres de los datos TLE) incluso para tiempos cortos de predicción. Para conseguir una reducción significativa del riesgo, sería necesario usar un ACPL en torno a 10-6 o inferior, produciendo unas 10 alarmas al año por satélite (considerando predicciones a un día) o 100 alarmas al año (con predicciones a tres días). Por tanto, la principal conclusión es la falta de idoneidad de los datos TLE para el cálculo de eventos de colisión. Al contrario, usando los datos CSM, debido a su mejor precisión orbital, se puede obtener una reducción significativa del riesgo con ACPL en torno a 10-4 (considerando 3 días de predicción). Incluso 5 días de predicción pueden ser considerados con ACPL en torno a 10-5. Incluso tiempos de predicción más largos se pueden usar (7 días) con reducción del 90% del riesgo y unas 5 alarmas al año (en caso de predicciones de 5 días, el número de maniobras se mantiene en unas 2 al año). La dinámica en GEO es diferente al caso LEO y hace que el crecimiento de las incertidumbres orbitales con el tiempo de propagación sea menor. Por el contrario, las incertidumbres derivadas de la determinación orbital son peores que en LEO por las diferencias en las capacidades de observación de uno y otro régimen orbital. Además, se debe considerar que los tiempos de predicción considerados para LEO pueden no ser apropiados para el caso de un satélite GEO (puesto que tiene un periodo orbital mayor). En este caso usando datos TLE, una reducción significativa del riesgo sólo se consigue con valores pequeños de ACPL, produciendo una alarma por año cuando los eventos de colisión se predicen a un día vista (tiempo muy corto para implementar maniobras de evitación de colisión).Valores más adecuados de ACPL se encuentran entre 5•10-8 y 10-7, muy por debajo de los valores usados en las operaciones actuales de la mayoría de las misiones GEO (de nuevo, no se recomienda en este régimen orbital basar las estrategias de evitación de colisión en TLE). Los datos CSM permiten una reducción de riesgo apropiada con ACPL entre 10-5 y 10-4 con tiempos de predicción cortos y medios (10-5 se recomienda para predicciones a 5 o 7 días). El número de maniobras realizadas sería una en 10 años de misión. Se debe notar que estos cálculos están realizados para un satélite de unos 2 metros de radio. En el futuro, otros sistemas de vigilancia espacial (como el programa SSA de la ESA), proporcionarán catálogos adicionales de objetos espaciales con el objetivo de reducir el riesgo de colisión de los satélites. Para definir dichos sistemas de vigilancia, es necesario identificar las prestaciones del catalogo en función de la reducción de riesgo que se pretende conseguir. Las características del catálogo que afectan principalmente a dicha capacidad son la cobertura (número de objetos incluidos en el catalogo, limitado principalmente por el tamaño mínimo de los objetos en función de las limitaciones de los sensores utilizados) y la precisión de los datos orbitales (derivada de las prestaciones de los sensores en relación con la precisión de las medidas y la capacidad de re-observación de los objetos). El resultado de dicho análisis (sección 5.2) se ha publicado en una revista especializada [Sánchez-Ortiz, 2015a]T.2. Este análisis no estaba inicialmente previsto durante la tesis, y permite mostrar como la teoría descrita en esta tesis, inicialmente definida para facilitar el diseño de misiones (parte superior de la figura 1) se ha extendido y se puede aplicar para otros propósitos como el dimensionado de un sistema de vigilancia espacial (parte inferior de la figura 1). La principal diferencia de los dos análisis se basa en considerar las capacidades de catalogación (precisión y tamaño de objetos observados) como una variable a modificar en el caso de un diseño de un sistema de vigilancia), siendo fijas en el caso de un diseño de misión. En el caso de las salidas generadas en el análisis, todos los aspectos calculados en un análisis estadístico de riesgo de colisión son importantes para diseño de misión (con el objetivo de calcular la estrategia de evitación y la cantidad de combustible a utilizar), mientras que en el caso de un diseño de un sistema de vigilancia, los aspectos más importantes son el número de maniobras y falsas alarmas (fiabilidad del sistema) y la capacidad de reducción de riesgo (efectividad del sistema). Adicionalmente, un sistema de vigilancia espacial debe ser caracterizado por su capacidad de evitar colisiones catastróficas (evitando así in incremento dramático de la población de basura espacial), mientras que el diseño de una misión debe considerar todo tipo de encuentros, puesto que un operador está interesado en evitar tanto las colisiones catastróficas como las letales. Del análisis de las prestaciones (tamaño de objetos a catalogar y precisión orbital) requeridas a un sistema de vigilancia espacial se concluye que ambos aspectos han de ser fijados de manera diferente para los distintos regímenes orbitales. En el caso de LEO se hace necesario observar objetos de hasta 5cm de radio, mientras que en GEO se rebaja este requisito hasta los 100 cm para cubrir las colisiones catastróficas. La razón principal para esta diferencia viene de las diferentes velocidades relativas entre los objetos en ambos regímenes orbitales. En relación con la precisión orbital, ésta ha de ser muy buena en LEO para poder reducir el número de falsas alarmas, mientras que en regímenes orbitales más altos se pueden considerar precisiones medias. En relación con los aspectos operaciones de la determinación de riesgo de colisión, existen varios algoritmos de cálculo de riesgo entre dos objetos espaciales. La Figura 2 proporciona un resumen de los casos en cuanto a algoritmos de cálculo de riesgo de colisión y como se abordan en esta tesis. Normalmente se consideran objetos esféricos para simplificar el cálculo de riesgo (caso A). Este caso está ampliamente abordado en la literatura y no se analiza en detalle en esta tesis. Un caso de ejemplo se proporciona en la sección 4.2. Considerar la forma real de los objetos (caso B) permite calcular el riesgo de una manera más precisa. Un nuevo algoritmo es definido en esta tesis para calcular el riesgo de colisión cuando al menos uno de los objetos se considera complejo (sección 4.4.2). Dicho algoritmo permite calcular el riesgo de colisión para objetos formados por un conjunto de cajas, y se ha presentado en varias conferencias internacionales. Para evaluar las prestaciones de dicho algoritmo, sus resultados se han comparado con un análisis de Monte Carlo que se ha definido para considerar colisiones entre cajas de manera adecuada (sección 4.1.2.3), pues la búsqueda de colisiones simples aplicables para objetos esféricos no es aplicable a este caso. Este análisis de Monte Carlo se considera la verdad a la hora de calcular los resultados del algoritmos, dicha comparativa se presenta en la sección 4.4.4. En el caso de satélites que no se pueden considerar esféricos, el uso de un modelo de la geometría del satélite permite descartar eventos que no son colisiones reales o estimar con mayor precisión el riesgo asociado a un evento. El uso de estos algoritmos con geometrías complejas es más relevante para objetos de dimensiones grandes debido a las prestaciones de precisión orbital actuales. En el futuro, si los sistemas de vigilancia mejoran y las órbitas son conocidas con mayor precisión, la importancia de considerar la geometría real de los satélites será cada vez más relevante. La sección 5.4 presenta un ejemplo para un sistema de grandes dimensiones (satélite con un tether). Adicionalmente, si los dos objetos involucrados en la colisión tienen velocidad relativa baja (y geometría simple, Caso C en la Figura 2), la mayor parte de los algoritmos no son aplicables requiriendo implementaciones dedicadas para este caso particular. En esta tesis, uno de estos algoritmos presentado en la literatura [Patera, 2001]R.26 se ha analizado para determinar su idoneidad en distintos tipos de eventos (sección 4.5). La evaluación frete a un análisis de Monte Carlo se proporciona en la sección 4.5.2. Tras este análisis, se ha considerado adecuado para abordar las colisiones de baja velocidad. En particular, se ha concluido que el uso de algoritmos dedicados para baja velocidad son necesarios en función del tamaño del volumen de colisión proyectado en el plano de encuentro (B-plane) y del tamaño de la incertidumbre asociada al vector posición entre los dos objetos. Para incertidumbres grandes, estos algoritmos se hacen más necesarios pues la duración del intervalo en que los elipsoides de error de los dos objetos pueden intersecar es mayor. Dicho algoritmo se ha probado integrando el algoritmo de colisión para objetos con geometrías complejas. El resultado de dicho análisis muestra que este algoritmo puede ser extendido fácilmente para considerar diferentes tipos de algoritmos de cálculo de riesgo de colisión (sección 4.5.3). Ambos algoritmos, junto con el método Monte Carlo para geometrías complejas, se han implementado en la herramienta operacional de la ESA CORAM, que es utilizada para evaluar el riesgo de colisión en las actividades rutinarias de los satélites operados por ESA [Sánchez-Ortiz, 2013a]T.11. Este hecho muestra el interés y relevancia de los algoritmos desarrollados para la mejora de las operaciones de los satélites. Dichos algoritmos han sido presentados en varias conferencias internacionales [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1. ABSTRACT This document addresses methodologies for computation of the collision risk of a satellite. Two different approaches need to be considered for collision risk minimisation. On an operational basis, it is needed to perform a sieve of possible objects approaching the satellite, among all objects sharing the space with an operational satellite. As the orbits of both, satellite and the eventual collider, are not perfectly known but only estimated, the miss-encounter geometry and the actual risk of collision shall be evaluated. In the basis of the encounter geometry or the risk, an eventual manoeuvre may be required to avoid the conjunction. Those manoeuvres will be associated to a reduction in the fuel for the mission orbit maintenance, and thus, may reduce the satellite operational lifetime. Thus, avoidance manoeuvre fuel budget shall be estimated, at mission design phase, for a better estimation of mission lifetime, especially for those satellites orbiting in very populated orbital regimes. These two aspects, mission design and operational collision risk aspects, are summarised in Figure 3, and covered along this thesis. Bottom part of the figure identifies the aspects to be consider for the mission design phase (statistical characterisation of the space object population data and theory computing the mean number of events and risk reduction capability) which will define the most appropriate collision avoidance approach at mission operational phase. This part is covered in this work by starting from the theory described in [Sánchez-Ortiz, 2006]T.14 and implemented by this author in ARES tool [Sánchez-Ortiz, 2004b]T.15 provided by ESA for evaluation of collision avoidance approaches. This methodology has been now extended to account for the particular features of the available data sets in operational environment (section 4.3.3). Additionally, the formulation has been extended to allow evaluating risk computation approached when orbital uncertainty is not available (like the TLE case) and when only catastrophic collisions are subject to study (section 4.3.2.3). These improvements to the theory have been included in the new version of ESA ARES tool [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 and available through [SDUP,2014]R.60. At the operation phase, the real catalogue data will be processed on a routine basis, with adequate collision risk computation algorithms to propose conjunction avoidance manoeuvre optimised for every event. The optimisation of manoeuvres in an operational basis is not approached along this document. Currently, American Two Line Element (TLE) catalogue is the only public source of data providing orbits of objects in space to identify eventual conjunction events. Additionally, Conjunction Summary Message (CSM) is provided by Joint Space Operation Center (JSpOC) when the American system identifies a possible collision among satellites and debris. Depending on the data used for collision avoidance evaluation, the conjunction avoidance approach may be different. The main features of currently available data need to be analysed (in regards to accuracy) in order to perform estimation of eventual encounters to be found along the mission lifetime. In the case of TLE, as these data is not provided with accuracy information, operational collision avoidance may be also based on statistical accuracy information as the one used in the mission design approach. This is not the case for CSM data, which includes the state vector and orbital accuracy of the two involved objects. This aspect has been analysed in detail and is depicted in the document, evaluating in statistical way the characteristics of both data sets in regards to the main aspects related to collision avoidance. Once the analysis of data set was completed, investigations on the impact of those features in the most convenient avoidance approaches have been addressed (section 5.1). This analysis is published in a peer-reviewed journal [Sánchez-Ortiz, 2015b]T.3. The analysis provides recommendations for different mission types (satellite size and orbital regime) in regards to the most appropriate collision avoidance approach for relevant risk reduction. The risk reduction capability is very much dependent on the accuracy of the catalogue utilized to identify eventual collisions. Approaches based on CSM data are recommended against the TLE based approach. Some approaches based on the maximum risk associated to envisaged encounters are demonstrated to report a very large number of events, which makes the approach not suitable for operational activities. Accepted Collision Probability Levels are recommended for the definition of the avoidance strategies for different mission types. For example for the case of a LEO satellite in the Sun-synchronous regime, the typically used ACPL value of 10-4 is not a suitable value for collision avoidance schemes based on TLE data. In this case the risk reduction capacity is almost null (due to the large uncertainties associated to TLE data sets, even for short time-to-event values). For significant reduction of risk when using TLE data, ACPL on the order of 10-6 (or lower) seems to be required, producing about 10 warnings per year and mission (if one-day ahead events are considered) or 100 warnings per year (for three-days ahead estimations). Thus, the main conclusion from these results is the lack of feasibility of TLE for a proper collision avoidance approach. On the contrary, for CSM data, and due to the better accuracy of the orbital information when compared with TLE, ACPL on the order of 10-4 allows to significantly reduce the risk. This is true for events estimated up to 3 days ahead. Even 5 days ahead events can be considered, but ACPL values down to 10-5 should be considered in such case. Even larger prediction times can be considered (7 days) for risk reduction about 90%, at the cost of larger number of warnings up to 5 events per year, when 5 days prediction allows to keep the manoeuvre rate in 2 manoeuvres per year. Dynamics of the GEO orbits is different to that in LEO, impacting on a lower increase of orbits uncertainty along time. On the contrary, uncertainties at short prediction times at this orbital regime are larger than those at LEO due to the differences in observation capabilities. Additionally, it has to be accounted that short prediction times feasible at LEO may not be appropriate for a GEO mission due to the orbital period being much larger at this regime. In the case of TLE data sets, significant reduction of risk is only achieved for small ACPL values, producing about a warning event per year if warnings are raised one day in advance to the event (too short for any reaction to be considered). Suitable ACPL values would lay in between 5•10-8 and 10-7, well below the normal values used in current operations for most of the GEO missions (TLE-based strategies for collision avoidance at this regime are not recommended). On the contrary, CSM data allows a good reduction of risk with ACPL in between 10-5 and 10-4 for short and medium prediction times. 10-5 is recommended for prediction times of five or seven days. The number of events raised for a suitable warning time of seven days would be about one in a 10-year mission. It must be noted, that these results are associated to a 2 m radius spacecraft, impact of the satellite size are also analysed within the thesis. In the future, other Space Situational Awareness Systems (SSA, ESA program) may provide additional catalogues of objects in space with the aim of reducing the risk. It is needed to investigate which are the required performances of those catalogues for allowing such risk reduction. The main performance aspects are coverage (objects included in the catalogue, mainly limited by a minimum object size derived from sensor performances) and the accuracy of the orbital data to accurately evaluate the conjunctions (derived from sensor performance in regards to object observation frequency and accuracy). The results of these investigations (section 5.2) are published in a peer-reviewed journal [Sánchez-Ortiz, 2015a]T.2. This aspect was not initially foreseen as objective of the thesis, but it shows how the theory described in the thesis, initially defined for mission design in regards to avoidance manoeuvre fuel allocation (upper part of figure 1), is extended and serves for additional purposes as dimensioning a Space Surveillance and Tracking (SST) system (bottom part of figure below). The main difference between the two approaches is the consideration of the catalogue features as part of the theory which are not modified (for the satellite mission design case) instead of being an input for the analysis (in the case of the SST design). In regards to the outputs, all the features computed by the statistical conjunction analysis are of importance for mission design (with the objective of proper global avoidance strategy definition and fuel allocation), whereas for the case of SST design, the most relevant aspects are the manoeuvre and false alarm rates (defining a reliable system) and the Risk Reduction capability (driving the effectiveness of the system). In regards to the methodology for computing the risk, the SST system shall be driven by the capacity of providing the means to avoid catastrophic conjunction events (avoiding the dramatic increase of the population), whereas the satellite mission design should consider all type of encounters, as the operator is interested on avoiding both lethal and catastrophic collisions. From the analysis of the SST features (object coverage and orbital uncertainty) for a reliable system, it is concluded that those two characteristics are to be imposed differently for the different orbital regimes, as the population level is different depending on the orbit type. Coverage values range from 5 cm for very populated LEO regime up to 100 cm in the case of GEO region. The difference on this requirement derives mainly from the relative velocity of the encounters at those regimes. Regarding the orbital knowledge of the catalogues, very accurate information is required for objects in the LEO region in order to limit the number of false alarms, whereas intermediate orbital accuracy can be considered for higher orbital regimes. In regards to the operational collision avoidance approaches, several collision risk algorithms are used for evaluation of collision risk of two pair of objects. Figure 2 provides a summary of the different collision risk algorithm cases and indicates how they are covered along this document. The typical case with high relative velocity is well covered in literature for the case of spherical objects (case A), with a large number of available algorithms, that are not analysed in detailed in this work. Only a sample case is provided in section 4.2. If complex geometries are considered (Case B), a more realistic risk evaluation can be computed. New approach for the evaluation of risk in the case of complex geometries is presented in this thesis (section 4.4.2), and it has been presented in several international conferences. The developed algorithm allows evaluating the risk for complex objects formed by a set of boxes. A dedicated Monte Carlo method has also been described (section 4.1.2.3) and implemented to allow the evaluation of the actual collisions among a large number of simulation shots. This Monte Carlo runs are considered the truth for comparison of the algorithm results (section 4.4.4). For spacecrafts that cannot be considered as spheres, the consideration of the real geometry of the objects may allow to discard events which are not real conjunctions, or estimate with larger reliability the risk associated to the event. This is of particular importance for the case of large spacecrafts as the uncertainty in positions of actual catalogues does not reach small values to make a difference for the case of objects below meter size. As the tracking systems improve and the orbits of catalogued objects are known more precisely, the importance of considering actual shapes of the objects will become more relevant. The particular case of a very large system (as a tethered satellite) is analysed in section 5.4. Additionally, if the two colliding objects have low relative velocity (and simple geometries, case C in figure above), the most common collision risk algorithms fail and adequate theories need to be applied. In this document, a low relative velocity algorithm presented in the literature [Patera, 2001]R.26 is described and evaluated (section 4.5). Evaluation through comparison with Monte Carlo approach is provided in section 4.5.2. The main conclusion of this analysis is the suitability of this algorithm for the most common encounter characteristics, and thus it is selected as adequate for collision risk estimation. Its performances are evaluated in order to characterise when it can be safely used for a large variety of encounter characteristics. In particular, it is found that the need of using dedicated algorithms depend on both the size of collision volume in the B-plane and the miss-distance uncertainty. For large uncertainties, the need of such algorithms is more relevant since for small uncertainties the encounter duration where the covariance ellipsoids intersect is smaller. Additionally, its application for the case of complex satellite geometries is assessed (case D in figure above) by integrating the developed algorithm in this thesis with Patera’s formulation for low relative velocity encounters. The results of this analysis show that the algorithm can be easily extended for collision risk estimation process suitable for complex geometry objects (section 4.5.3). The two algorithms, together with the Monte Carlo method, have been implemented in the operational tool CORAM for ESA which is used for the evaluation of collision risk of ESA operated missions, [Sánchez-Ortiz, 2013a]T.11. This fact shows the interest and relevance of the developed algorithms for improvement of satellite operations. The algorithms have been presented in several international conferences, [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1.
Resumo:
La presente tesis analiza el resultado de tratar con una plancha caliente la superficie de un estuco de cal, en estado fresco. El estuco a fuego –nombre que recibe la técnica actualmente en desuso- fue muy valorada en un pasado relativamente reciente, de forma que actualmente aparece ciertamente mitificada y sin caracterizar, habiéndose perdido prácticamente su técnica de ejecución. En el capítulo 1 se exponen las hipótesis y objetivos de la investigación realizada, y el e interés y oportunidad de la tesis. En el capítulo 2 se analizan los antecedentes y usos históricos de los estucos, con especial dedicación a los de cal y más concretamente los “planchados” o "al fuego", que son el tema central de esta tesis. Tras un detallado análisis de la bibliografía actual y de la época, se exponen las contradicciones que sobre este acabado se deducen de los diferentes autores consultados. También se sitúa cronológicamente la técnica, en un intento siempre difícil de poner límites a un proceso continuo. Se propone finalmente una técnica de ejecución que, tomando las descripciones más coherentes y creíbles, y mejor contrastadas de los diferentes autores, recupera la técnica perdida, lo que se prueba mediante las correspondientes "ejecuciones piloto". En el capítulo 3 se expone la metodología experimental seguida para caracterizar el efecto de la aplicación de la plancha caliente sobre el estuco de cal: en primer lugar se recuperará en taller el proceso de ejecución a partir de la bibliografía revisada, tomando las descripciones más coherentes y mejor contrastadas de los diferentes autores; posteriormente, se analiza el único caso conocido de esta técnica en el que ha sido posible sacar probetas; a continuación se contrastarán ambas informaciones con objeto de validar el proceso llevado a cabo; por último se proponen los ensayos realizados a las muestras de laboratorio hechas con la técnica recuperada y comparada con el caso real. En el capítulo 4 se lleva a la práctica lo desarrollado en el capítulo anterior, principalmente para determinar los posibles cambios en la superficie acabada, así como en su absorción de agua, brillo, dureza, y porosidad superficial del estuco. Los resultados obtenidos son objeto de análisis y de comparación. Toda la información estudiada hace posible las conclusiones que aparecen el capítulo 5 y que delimitan claramente el efecto que provoca el uso de la plancha caliente sobre el acabado en varios aspectos: economía en el proceso, mejora de los efectos de imitación de mármol y aumento de las propiedades físicas solicitadas a un revestimiento continuo de estas características. Termina el capítulo proponiendo unas cuestiones como futuras líneas de desarrollo de la investigación. ABSTRACT This thesis analyzes the result of dealing with a hot iron the surface of a plaster of lime, fresh state. The stucco fire-name receiving the technique in disuse today- was highly valued in the relatively recent past, so now certainly appears mystified and uncharacterized, having almost lost his playing technique. In Chapter 1 the assumptions and objectives of the research are presented, and the interest and opportunity of the thesis. In chapter 2 the background and historical uses of stucco, with particular attention to the lime and more specifically the "pressed" or "Fire", which are the focus of this thesis are discussed. After a detailed analysis of the current literature and the time, the contradictions that this finish is derived from the different authors consulted are exposed. Also it is situated chronologically the technique, in an always difficult to set limits to a continuous attempt. A technique of execution, taking the most consistent and credible descriptions, and better contrasting of different authors, recovers lost art, which is proved by the corresponding "pilot runs" was finally proposed. In Chapter 3 the experimental methodology to characterize the effect of the application of the hot iron on the lime stucco is exposed: first workshop will recover in the implementation process from the literature reviewed, taking the most consistent descriptions and better contrasted different authors; then it is analyzed the only known case in which this technique has been possible to take samples; then both information will be compared in order to validate the process undertaken; Finally tests performed at the laboratory samples made with the technique recovered and compared with the real case are proposed. Chapter 4 takes practice what it was developed in the previous chapter, mainly to determine possible changes in the finished surface as well as water absorption, gloss, hardness, surface porosity from the stucco. The results are analyzed and compared. All information makes possible to study the conclusions that appear on Chapter 5 and clearly define the effect caused by the use of the hot iron on the finish in several aspects: economy in the process, enhancing the effects of marble imitation and increased physical properties applied to a continuous coating of these features. Chapter finalizes proposing some issues and future lines of research and development.
Resumo:
El crecimiento demográfico y el proceso de urbanización que ha experimentado el planeta en el último siglo se ha traducido, en contextos de pobreza, en la generación de tugurios y en el aumento de la población viviendo en condiciones de habitabilidad precaria (HaP) fruto de la urbanización informal. Situación que, según las estimaciones de Naciones Unidas continuará teniendo lugar en las próximas décadas, especialmente en las ciudades de las regiones menos desarrolladas. Este ha sido el problema específico que se ha querido atender con el presente trabajo: la búsqueda de un instrumento urbano que incida en la reducción de las tasas de precariedad habitacional urbana futuras, la búsqueda de instrumentos que eviten que ese aumento de la urbanización se traduzca en aumento de población condenada a vivir en tugurios durante décadas. Dicha búsqueda ha tenido lugar en el marco de la teoría de la Habitabilidad Básica (HaB) desarrollada por el ICHaBCátedra UNESCO de Habitabilidad Básica de la UPM. Una HaB que consiste en la satisfacción de las necesidades fundamentales de habitabilidad pero, a su vez, o más importante aún, en una esperanza de mejora y progreso paulatino de esas condiciones elementales entendida como herramienta de desarrollo y lucha contra la pobreza. Como herramienta básica, no se trata de ofrecer las condiciones ideales, sino de brindar un camino razonable, que se considera posible, para que miles de millones de personas que viven en HaP o parecen condenadas a tener que hacerlo, puedan acceder a mejores condiciones de vida en tiempos más cortos. Entre las políticas habitacionales no convencionales puestas en marcha desde Hábitat I en 1976, las de habilitación urbana progresiva, y más en particular, la Ocupación Guiada, resultan ser en contextos de escasez económica, el mejor instrumento para hacer frente a la urbanización informal, un instrumento paradigmático mínimo preferente de implantación ex novo de HaB. Lo es, por la atención prestada en la elección del suelo y la parcelación, las dos etapas cabecera del proceso, así como por los mecanismos implementados para atender la etapa de urbanización en su fase provisional, y por dejar la última etapa, la de la edificación de las viviendas, en manos de la población. El proceso de urbanización que se favorece es parecido al de los tugurios y ocupaciones ilegales en lo referente a las etapas y mecanismos de crecimiento. Sin embargo, la diferencia está en las condiciones en las que se produce, en los niveles de salubridad y de seguridad, y en la proyección de futuro. El Programa de Ocupación Guiada 'Alto Trujillo' (POG), puesto en marcha por la municipalidad de Trujillo (Perú) entre 1995 y 2006 fue concebido para hacer frente a los procesos de urbanización informal que estaban teniendo lugar en la ciudad y ha demostrado ser un mecanismo adecuado para garantizar el acceso regulado al suelo, las infraestructuras, los servicios básicos y la vivienda en condiciones de fuerte restricción económica mediante un cogestión acertada entre municipalidad, población y demás actores del proceso. El POG eligió un suelo no vulnerable y en continuidad con el tejido urbano, con la parcelación estableció el orden geométrico del asentamiento y reservó los espacios públicos destinados a equipamientos, zonas verdes y viario, y fijó las dimensiones de las parcelas, acompañó a la población en el proceso de ocupación guiada de las mismas, así como en el posterior desarrollo progresivo del asentamiento haciendo una fuerte apuesta por lo público, relegando la construcción de las viviendas al esfuerzo de los pobladores. Los POG municipales resultan ser un instrumento replicable siempre que se den cinco condiciones: la existencia de un marco institucional adecuado que contemple la descentralización de competencias, que haya interés y continuidad política en el gobierno local, acceso a suelo urbano disponible y voluntad de co-gestión con la población. El análisis del POG ha permitido elaborar una propuesta de replicabilidad del POG basada en la experiencia de soluciones ya implementadas, que han sido contrastadas empíricamente y analizadas para aprender de sus fortalezas, oportunidades, debilidades y amenazas, así como de sus aciertos y errores. La estrategia de replicabilidad del POG se plantea como alternativa a la urbanización informal con mecanismos mejorados para que las ciudades se desarrollen siguiendo unos parámetros mínimos de HaB y no a través de asentamientos informales que dificulten el progreso futuro de las familias que los habitan y de las mismas ciudades de las que forman parte. Esta propuesta de replicabilidad, que precisa ser adaptada a cada contexto, tenía una clara vocación: intentar ser instrumento en la región del planeta donde, según las estimaciones, en los próximos treinta años el crecimiento demográfico y el proceso de urbanización serán más fuertes: África Subsahariana. Por ello, con el apoyo de expertos mozambiqueños en temas de habitabilidad, se estudió la replicabilidad en Mozambique incorporando las medidas necesarias que darían respuesta a los condicionantes particulares del país. ABSTRACT The demographic growth and the urbanisation process that the planet has experienced in the last century has turned into the generation of slums and in the increase of population living in conditions of precarious habitability (HaP) result of the informal urbanisation, in contexts of poverty. According to the United Nations estimations, this situation will continue taking place in the next decades, especially in the cities of the least developed regions. The present work has wanted to attend this specific problem by the search of an urban instrument that has an impact on the reduction of the urban future precarious housing rates, a search of instruments that prevent that this urbanisation spread become an increase of population doomed to live in slums during decades. The above mentioned search has taken place in the frame of the Basic Habitability theory (HaB) developed by the ICHaB-Cátedra UNESCO of Basic Habitability of the UPM. HaB consists of the satisfaction of the fundamental habitability needs but, in turn, or still more important, it is the hope of improvement and gradual progress of these elementary conditions. The HaB is understood as a tool of development and fight against poverty. As a basic tool, it does not offer the ideal conditions, but it offers a reasonable way, which is considered to be possible, so that thousands of million persons who live in HaP or that seem to be doomed to have to do it, could gain access to better living conditions in shorter times. Between the non conventional housing policies started up from Habitat I in 1976, those of urban progressive fitting out, and more especially, the Guided Occupation, has turned out to be, in contexts of economic shortage, the best instrument to face the informal urbanisation, a preferential and minimum paradigmatic instrument of ex-novo HaB implementation. It is so due to the attention given to the appropriate site selection and the land allotment, both headboard stages of the process, as well as to the mechanisms implemented to attend the urbanisation stage in its provisional phase, and to leave the last stage, the building process, in population hands. The urbanisation process that is favored is similar to that of the slums and squatting in what concerns the stages and mechanisms of growth. Nevertheless, the difference is in the conditions in which it takes place, in the levels of health and safety, and in the future projection. The Program of Guided Occupation 'Alto Trujillo' (PGO), turned on by the Provincial City Hall of Trujillo (Peru) between 1995 and 2006, was conceived to face the processes of informal urbanisation that took place in the city and it has demonstrated to be a mechanism adapted to guarantee the regulated access to soil, infrastructures, basic services and housing in conditions of strong economic restriction by means of a succeeded co-management between municipality, population and other process actors. The PGO chose a non vulnerable soil in continuity with the urban fabric, with the land allotment established the settlement geometric order, reserved the public spaces allocated for urban facilities, green spaces and streets, and fixed the plot dimensions, accompanied the population in the plot guided occupation process, as well as in the later progressive settlement development betting strongly for the public components, relegating the housing construction to the settlers effort. The municipal PGO turn out to be a replicable instrument under five conditions: the existence of an institutional suitable frame that contemplates the decentralization competitions, interest and political continuity in the local government, access to urban available soil and will of co-management with the population. The PGO analysis has allowed to elaborate a replicability proposal of the PGO based on the experience of the already implemented solutions, which have been empirically confirmed and analyzed to learn of its strengths, opportunities, weaknesses and threats, as well as of its successes and mistakes. The replicability strategy of the PGO is considered an alternative to the informal urbanisation with improved mechanisms in order that the cities can develop following a few HaB's minimal parameters, but not through informal settlements that would make difficult the families future progress and that of the cities where they live. This replicability proposal, that needs to be adapted to every context, had a clear vocation: try to be an instrument in the region of the planet where, according to the estimations, in the next thirty years the demographic growth and the urbanisation process will be stronger: Sub-Saharan Africa. Therefore, with the support of Mozambican experts in habitability topics, the replicability was studied in Mozambique incorporating the necessary measures that would give response to the country's determinants.
Resumo:
Históricamente la estrategia de localización de la infraestructura religiosa católica en Chile ha estado condicionada por intenciones destinadas a la captación y tutela de feligreses, proceso desarrollado a través de intervenciones que han generado externalidades difíciles de anticipar y posibles de visualizar en un marco temporal mayor. En este contexto la producción e instalación de los templos católicos en distintos lugares de la ciudad condicionaron los territorios y marcaron presencia en su afán por colonizar y mantener el dominio, mecanismo propio de la institución religiosa que se adaptó al medio y a las circunstancias político social para cumplir su misión y mantener el poder. En esta investigación se buscó identificar desde las edificaciones destinadas al culto, la relación escalar entre localización, modo de instalación y morfología que incluye la forma y técnica de construcción, reconociendo la manera cómo modifican los entornos, el efecto que provocan y las expectativas que abren a nuevas intervenciones. El escenario escogido para realizar el estudio correspondió a un período de la historia de la ciudad de Santiago de Chile no documentado en que las circunstancias políticas, económicas, sociales y culturales contribuyeron a que el modo de disposición de las edificaciones de culto condicionaron el desarrollo urbano y orientaron el crecimiento de la ciudad. El período en que se desarrolló el estudio correspondió a la época de mayor riqueza material y cultural de la historia del país y estuvo modelada por las intenciones y planes de desarrollo tendientes a consolidar lo que se ha denominado el modelo Republicano. Escenario en que el espacio público cobró interés y se transformó en el motor de los cambios e indicador de la escala de la ciudad, estableciendo las condiciones para que las distintas corrientes europeas se manifestaran en el hacer arquitectónico cambiando la imagen original de la ciudad colonial. Este proceso que ocurrió sobre la estructura existente, densificó la manzana a través de la subdivisión predial, que complementado con los avances tecnológicos permitieron mayores alturas de edificación, situación que dio origen a nuevas concepciones espaciales, posibles de desarrollar con los recursos materiales, intelectuales y técnicos disponibles. El estudio se centró en la centuria 1850-1950 analizando la forma como la infraestructura religiosa Católica se localizó en el tejido urbano adoptando distintas tipologías edilicias, en una época caracterizada por el eclecticismo arquitectónico. Específicamente se estudiaron las edificaciones que utilizaron reminiscencias góticas, identificando los casos más significativos, estableciendo el contexto en que se originaron e indagando en la significación que tuvieron por la función que cumplieron, considerando emplazamiento y conexión con el entorno construido, conformación, dimensiones, destino y patrocinios. El área de estudio se fundamentó por la concentración de construcciones con la tendencia historicista, producciones que en el corto y mediano plazo orientaron las transformaciones de la ciudad y por la presencia que conservan hasta estos días. Se observó la incidencia de la acción de la Iglesia Católica en las políticas de Estado, orientando las decisiones de planificación y ocupación del territorio, condicionando la localización de los templos a fin de conseguir las mayores coberturas de la población y el mayor rendimiento de las inversiones. En el contexto latinoamericano la construcción de iglesias, templos y catedrales con reminiscencias góticas fue una constante que caracterizó al último cuarto del siglo XIX y las tres primeras décadas del siglo XX. El estudio permitió conocer en términos cuantitativos y cualitativos la producción, destacando la morfología y materialidad caracterizada por la adopción de estrategias contemporáneas estructuralmente exigentes. Se observó la utilización de la arquitectura como un medio de acercamiento a la población, capaz de transformar a los edificios en símbolos barriales, que facilitaron la generación de identidad, al convertirse en los referentes materiales que se destacan, que se recuerdan y que asumen la representatividad de barrios, permaneciendo en el tiempo y convirtiéndose en íconos asociados a la cultura local. En síntesis, la instalación de las infraestructuras religiosas en la ciudad de Santiago fue consecuencia de un modo de producción, que entregó lugares de encuentro y símbolos para la ciudad, a través de la localización de los edificios que buscaron ocupar áreas visibles, relevantes y convocantes, lo que consiguieron mediante la instalación geográfica, central y equidistante de conglomerados residenciales consolidados o en vías de desarrollo, como también a través de edificaciones monumentales y siempre destacadas respecto de su entorno, lo que marcó exclusividad y dominio. La elección de tipos arquitectónicos fue coyuntural a los tiempos e inspirada en intelectuales y profesionales mayoritariamente foráneos que aportaron conocimientos y experiencia para auspiciar edificaciones que fueron reconocidas como señeras y precursoras de la época. La intensidad en el uso de los recursos que demandaron las exigentes estructuras obligó a la iglesia católica a establecer estrategias de financiación destinadas a suplir la falta de recursos provenientes del Estado. Para lo cual convocaron a distintos actores los que participaron desde sus fronteras y en función de sus intereses cubriendo desde el altruismo hasta la rentabilización de su patrimonio. La organización iglesia católica se comporta de la misma manera que cualquier otra organización: busca expandirse, concentrar, controlar y administrar. Busca codificar todo su entorno (Raffestin, 2011), busca trascender y materialmente lo logra desde sus construcciones. ABSTRACT Historically the location strategies of the catholic religious infrastructure in Chile has been conditioned by intentions aimed at attracting and guardianship of parishioners, process developed through interventions that have generated externalities difficult to anticipate and possible to visualize in a in a major temporary frame. In this context, the production and installation of the catholic churches in different places in the city determined the territories and marked presence in their quest to colonize and maintain domain, mechanism of the religious institution that was adapted to the environment and in the political and social circumstances to fulfill its mission and maintain power. This research sought to identify from the buildings intended for worship in a multi-scale relationship between location, the placement mode, morphology and shape and construction technique and the effect caused by them, the way how they alter the environments and the expectations that are open to new interventions. The chosen scenario for the study corresponded to a not documented period in the history of the city of Santiago de Chile in which political, economic, social and cultural circumstances contributed to the form of disposition of the buildings of worship that determined the urban development and guided the growth of the city. The study period was the epoch of largest material and cultural wealth of Chile history and it was modeled by the intentions and development plans tending to consolidate what has been named the Republican ideal. Scenario in which public space gained interest and became the engine of change and indicator of the scale of the city, establishing the conditions for the various European trends manifested themselves in transforming the original image of the colonial city. This process that took place on the existing structure, produced a higher density of the original blocks through the predial compartimentation, which supplemented with technological advances enabled greater building heights, a situation that gave rise to new spatial conceptions, possible of developing with the material resources, intellectuals and technicians available at the moment. The study focused on the century 1850-1950 by analyzing how the Catholic religious infrastructure was located in the urban fabric by adopting different typologies locality, in an epoch characterised by architectural eclecticism. Specifica lly, it is studied the buildings that used gothic reminiscences, identifying the most significant cases, establishing the context in which they originated and inquiring about the significance that they had for the role it played, considering location and connection to the built environment, shaping, dimensions, destination, and sponsorships. The study area was established by the concentration of buildings with this historicist trend, productions that in the short and medium term guided the transformation of the city and the presence that keeps up to these days. It was noted the incidence of the of the Catholic Church actions in guiding State policies, planning decisions and occupation of the territory, as well as conditioning the location of the temples in order to achieve greater coverage of the population and the greatest return on investment. In the context of Latin America the construction of churches, temples and cathedrals with reminiscences gothic was a constant that characterized the last quarter of the nineteenth century and the first three decades of the twentieth century. The study allowed to know in quantitative and qualitative terms the production of the period, highlighting the morphology and materiality characterized by contemporary and structurally challenging strategies. It was noted the use of architecture as a means of approaching to the population, able to transform buildings into neighborhood symbols, which facilitated the production of identity, to become the reference materials that stand out, that will be remembered and that assume the representativeness of neighborhoods, remaining in the time and becoming icons associated with the local culture. In synthesis, the installation of religious infrastructure in the city of Santiago was result of a mode of production, that provided meeting places and symbols for the city, through the location of buildings that sought to occupy visible, relevant and summoning areas, what they obtained by means of the geographical, central and equidistant installation of consolidated residential conglomerates cluster or about to development, as also through always outstanding and monumental buildings with respect to its surroundings, which marked uniqueness and domain. The choice of architectural types was related to the time and inspired by intellectuals and professionals mostly outsiders who contributed with expertise and experience to sponsor buildings were recognized as outstanding and precursor of the time. The intensity of use of the resources that requested the demanding structures forced to the Catholic church to establish funding strategies designed to compensate for the lack of funds from the State. For which convened to different actors who participated from their borders and depending on their interests covering from the altruism up to the rentabilización of its patrimony. The Catholic Church organization behaves the same way as any other organization: seeks to expand, focus, control and manage. Looking for coding the entire environment (Raffestin, 2011), seeks to transcend and succeeds materially from its building.
Resumo:
El trabajo de investigación que presentamos tiene como principal objetivo, la recopilación, el registro, el análisis y la reflexión sobre una época, tan trascendental como poco estudiada desde el ámbito arquitectónico, como es el período comprendido entre las dos normas de mayor relevancia en relación a la protección del Patrimonio Histórico Español del último siglo. Nos referimos a la Ley sobre Defensa, Conservación y Acrecentamiento del Patrimonio Histórico Nacional de 13 de mayo de 1933 y la Ley 13/1985, de 25 de junio, del Patrimonio Histórico Español. A través de la investigación realizada, se pretende aportar una visión integral de esta etapa, desde el enfoque arquitectónico, fundamentando la misma en el desarrollo de pautas metodológicas, abordadas desde la recopilación exhaustiva del material bibliográfico y documental para su posterior análisis. A partir de esta fase inicial, se han identificado los nexos comunes entre los estudios existentes sobre el patrimonio monumental español previos a la Guerra Civil y las investigaciones dedicadas a la historia de las últimas décadas del siglo XX. De esta forma, se ha procurado trazar un “puente” documental, con el que trasponer virtualmente el vacío bibliográfico existente. Históricamente, la protección del patrimonio histórico edificado y urbano, ha preocupado y ocupado a multitud de profesionales que, desde disciplinas dispares, han emprendido la tarea ímproba de comprender y explicar cuáles han sido los avatares, históricos y legales, que han marcado su evolución. Tal preocupación ha generado una bibliografía ingente y diversa, desde la protección formal y precisa, sobre uno u otro material, pasando por el marco historiográfico de las tendencias conservacionistas y las teorías decimonónicas, las filigranas formadas por las cuantiosas normas promulgadas desde la Novísima Recopilación, hasta la incidencia del planeamiento urbano en la tutela del patrimonio, incluidas la trama de competencias y yuxtaposiciones administrativas. Documentos de toda índole y profundidad científica, que como mosaicos hispanomusulmanes, dibujan el panorama patrimonial en el que la criba de material resulta una tarea, en ocasiones, inextricable. El título de este documento, en sí mismo, circunscribe la materia que ha sido el objeto de análisis durante el proceso de investigación, el Patrimonio Arquitectónico Monumental. El eje o núcleo basal de estudio se sitúa en los bienes inmuebles, los edificados, que, a su vez, ostentan la declaración de Bien de Interés Cultural, y que, por ende, pertenecen al Patrimonio Histórico Español. La metodología de trabajo se ha desarrollado de forma concéntrica, desde aspectos generales de la protección del patrimonio monumental, como el marco legal que antecede a la promulgación de la Ley de 1933, y el estado previo de los bienes susceptibles de ser preservados. Reconocemos en el ámbito legislativo, el fundamento orgánico que regula y dirige la tutela del patrimonio histórico español y la acción conservadora, y que delimita el ámbito a partir del cual se condiciona el devenir de los bienes culturales. Del esquema de situación surgido del análisis previo, se han detectado los factores claves en la transición hacia la Ley de Patrimonio Histórico Español; la evolución conceptual del “Patrimonio”, como apreciación genérica, y el testimonio de este progreso a través de los valores históricos, artísticos y culturales. El presente documento de investigación, consta de una primera fase, correspondiente al Capítulo 1, que se ha desarrollado a partir, principalmente, de la ordenación jurídica que rige el Patrimonio Histórico Español, a través de leyes, decretos, órdenes y disposiciones anexas, complementado con el material bibliográfico dedicado a la revisión histórica del proceso legal de la protección del patrimonio histórico-artístico. Si bien no ha sido nuestro propósito realizar un estudio pormenorizado del volumen jurídico e histórico que precede a la Ley de 1933, y que da inicio al período de estudio de la presente investigación, sí lo ha sido centrarnos en la elaboración de un extracto de aquellos elementos de la doctrina de mayor relevancia y repercusión en la protección del patrimonio histórico-artístico y/o monumental español. A lo largo de este estudio hemos comprobado lo que algunos juristas ya habían planteado, acerca de la profunda dispersión, ramificación, y diversificación de esfuerzos, tanto en la legislación específica como en la urbanística. Esta disgregación se ha extendido al ámbito de las medidas de reconocimiento caracterizado por la elaboración de múltiples catálogos e inventarios, con desigual transcendencia, alcance y utilidad. El resultado ha sido una división de esfuerzos, desdibujando el objetivo y convirtiendo la acción del reconocimiento en múltiples empresas inconexas y de escasa trascendencia. Nuestra investigación avanza en el análisis de la protección del patrimonio, como concepto globalizador, con el desarrollo del Capítulo 2, en el que se incluye una serie de mecanismos directos e indirectos que, individualmente, suelen carecer de la fuerza efectiva que muchos de los monumentos o conjuntos monumentales requieren para sobrevivir al paso del tiempo y sus circunstancias. En primer lugar, en este segundo capítulo nos hemos centrado, específicamente, en el mecanismo regulado por la Ley del Patrimonio Histórico Español, y el régimen general de protección implementado a partir de su promulgación en 1985. En especial, consideraremos la declaración de Interés Cultural como grado máximo de protección y tutela de un bien, y su posterior inscripción en el Registro General correspondiente, dependiente del Ministerio de Educación, Cultura y Deporte. Este mecanismo representa el instrumento por antonomasia que condensa las facultades de tutela del Estado sobre un bien del que se considera poseedor y aglutinador de valores “culturales” —como cohesión de los valores históricos, artísticos, sociales, etc. — representativos de la idiosincrasia española, y sobre el cual no existen dudas sobre la necesidad de garantizar su permanencia a través de su conservación. En segunda instancia, hemos analizado el Planeamiento Urbanístico, como aglutinador de valores culturales contenidos en la ciudad y como contenedor de los efectos generados por el hombre a partir de su interacción con el medio en el que habita y se relaciona. En tercer término, hemos recopilado y estudiado la concepción de los catálogos, como noción genérica de protección. Desde hace siglos, este género ha estado definido como una herramienta capaz de intervenir en la protección del patrimonio histórico, aunque de una manera difícilmente cuantificable, mediante la identificación, enumeración y descripción de una tipología concreta de monumentos o grupos de ellos, contribuyendo al reconocimiento de los valores cualitativos contenidos en éstos. El tercer capítulo analiza el mecanismo directo de tutela que ejerce la Administración en el patrimonio monumental. La declaración de monumentalidad o de Bien de Interés Cultural y su inclusión en el Registro General de Protección. La protección teórica y la protección jurídica de un monumento, analizadas hasta el momento, resultan tan necesarias como pueriles si no van seguidas de su consumación. En el caso de este tipo de patrimonio monumental, toda acción que tenga como objeto resguardar los valores implícitos en un bien mueble o inmueble, y en su materia, implica el cumplimiento de la protección. Por último, el cuarto capítulo se convierte en el punto culminante, y por ende crucial, del proceso de protección del Patrimonio Cultural, el de la consumación de la intervención. La teoría, la crítica, la normativa y hasta las doctrinas más radicales en materia de protección del patrimonio cultural, carecen de sentido si no las suceden los hechos, la acción, en antítesis a la omisión o la desidia. De ello ha dado pruebas elocuentes la propia historia en multitud de ocasiones con la destrucción, por indolencia o desconocimiento, de importantes vestigios del patrimonio arquitectónico español. Por este motivo, y para ser consecuentes con nuestra tesis hemos recuperado, concentrado y analizado la documentación de obra de tres monumentos imprescindibles del patrimonio construido (la Catedral de Burgos, el Palacio-Castillo de la Aljafería en Zaragoza y la Muralla de Lugo). En ocasiones, al examinar retrospectivamente las intervenciones en monumentos de gran envergadura, física y cultural como catedrales o murallas, algunos investigadores han tenido la sospecha o prevención de que las actuaciones no han seguido un plan de actuación premeditado, sino que han sido el resultado de impulsos o arrebatos inconexos producto de la urgencia por remediar algún tipo de deterioro. En oposición a esto, y a través del estudio de las intervenciones llevadas a cabo en los tres monumentos mencionados, hemos podido corroborar que, a excepción de intervenciones de emergencia fruto de circunstancias puntuales, existe coherencia desde el proceso de análisis de situación de un bien a la designación de prioridades, que ha regido el proceso restaurador a lo largo de dos siglos. La evolución de las intervenciones realizadas en los monumentos analizados ha estado definida, además de por su complejidad, magnitud y singularidad constructiva, por el devenir de su estructura y su uso. En conclusión, la efectividad de la protección del patrimonio cultural español, radica en la concomitancia de múltiples aspectos, entre ellos: el cumplimiento acertado de las normas vigentes, específicas y accesorias; el conocimiento del bien y de sus valores históricos, artísticos, y culturales; su catalogación o inclusión en los inventarios correspondientes; el compromiso de los agentes e instituciones de los cuales depende; la planificación de las tareas necesarias que garanticen tanto la salvaguarda estructural como la conservación de sus valores; y la incorporación de un plan de seguimiento que permita detectar eventuales peligros que atenten contra su conservación. Pero, la situación óptima estaría dada por un sistema en el que estos mecanismos —regulaciones específicas y urbanísticas, Declaraciones de Bien de Interés Cultural, Catálogos e Inventarios, etc. — funcionaran, de forma parcial o total, como una maquinaria, donde cada pieza operara con independencia relativa, pero en sintonía con los demás engranajes. Hasta el momento, la realidad dista mucho de esta situación, convirtiendo esta convivencia en una utopía. Tanto los legisladores, como las autoridades y los técnicos involucrados, deben tener presente que, de ellos, de los parámetros asignados por la legislación, de la implementación de los instrumentos estipulados por ésta y de las decisiones tomadas por cada uno de los poderes directivos de los órganos competentes, dependerá el alcance y efectividad de la protección, ya que en cada vertiente existe, en mayor o menor medida, un porcentaje de interpretación y subjetividad. ABSTRACT The research that we present has as the main objective to collect, record, analyzed and reflection on a time, that was little studied from the architectural field. It is the period between the two laws of most relevance to the protection of Spanish Historical Heritage of the last century. We refer to the Law on the Protection and Conservation of National Heritage of 1933 and Law 16/1985 of Spanish Historical Heritage. Through this research, it aims to provide a comprehensive view of the stage from the architectural approach, basing it on the development of methodological guidelines. The investigation was initiated by the bibliography and documentary for further analysis. After this initial phase, we have identified the common links between existing studies on the Spanish architectural heritage prior to the Civil War and dedicated research into the history of the late twentieth century. Thus, we have tried to draw a documental bridge, with which virtually transpose the gap that has existed. Historically, professionals from diverse disciplines have been worried and busy of the protection of the built and urban heritage. They have undertaken the daunting task of understanding and explaining the historical and legal difficulties, which have marked its evolution. This concern has generated an enormous and diverse literature, from formal and precise protection, in the framework of conservation historiographical trends and nineteenth-century theories. Also, they have studied the impact of urban planning in the protection of heritage, including the competences and administrative juxtapositions. They have generated a lot of documents of all kinds and scientific depth. The title of this document, in itself, circumscribes the matter that has been analyzed during this research process, the Monumental Architectural Heritage. The basal studio is located in the historical buildings, which, in turn, hold the declaration of cultural interest, and thus belong to the Spanish Historical Heritage. The work methodology was developed concentrically from general aspects of the protection of monuments, such as the legal framework that predates the enactment of the 1933 Act, and the previous state of the monuments that should be preserved. We recognize in the legislative sphere, the organic base that regulates and directs the tutelage of Spanish heritage and conservative action. The situation scheme emerged from the previous analysis, and we detected the key factors in the transition to the Spanish Historical Heritage Act; the conceptual evolution of the Heritage as a generic assessment, and witness this progress through historical, artistic and cultural values. This research paper consists of a first phase, corresponding to Chapter 1, which has developed from the legal regulation governing the Spanish Historical Heritage, through laws, decrees, orders and related provisions, supplemented the bibliography dedicated to the historical review of the legal process of protecting historical and artistic heritage. While it was not our intention to conduct a detailed study of the legal and historical volume preceding the 1933 Act, and that started the study period of this investigation, yes he has been focusing on the production of an extract from those elements of the doctrine with greater relevance and impact on the protection of Spanish art-historical and / or architectural heritage. Throughout our study we have seen what some jurists had already raised, about the scattering, branching and diversification of efforts, both in specific law and in urban law. This disaggregation has been extended to the field of recognition measures characterized by the development of multiple catalogs and inventories, with varying significance, scope and usefulness. The result has been a division of efforts, blurring the objective and turning the action of the recognition in multiple attempts little consequence. Our research advances in the analysis of heritage protection, as globalization concept in the Chapter 2, which includes a number of direct and indirect mechanisms that individually, often lack the effective force that many of monuments have required to survive the test of time and circumstances. First, in this second chapter we focused specifically on the mechanism regulated by the Spanish Historical Heritage Act, and the general protection regime implemented since its enactment in 1985 . In particular, we consider the declaration of cultural interest as maximum protection and protection of cultural assets, and their subsequent entry in the relevant General Register under the Ministry of Education, Culture and Sports . This mechanism is the instrument par excellence that condenses the powers of state care about a cultural asset, and which represents the cohesion of the historical, artistic, social values , etc. Secondly, we analyzed the Urban Planning, as a unifying cultural value in the city and as a container for the effects caused by man from its interaction with the environment in which he lives and relates. Thirdly, we have collected and studied the origin of catalogs, as generic notion of protection. For centuries, this genre has been defined as a tool to intervene in the protection of historical heritage, although difficult to quantify, through the identification, enumeration and description of a particular typology of monuments, and that contributing to the recognition of qualitative values contained therein. The third chapter analyzes the direct mechanism of protection performed by the Administration in the monuments with the statement of Cultural asset and inclusion in the General Protection Register. The theoretical and legal protection of a monument is as necessary as puerile if they are not followed by intervention. For this type of architectural heritage, any action which has the aim to safeguard the values implicit in the cultural asset involves protection compliance. Finally, the fourth chapter becomes the highlight, because it treated of the end process of the cultural heritage protection, the consummation of the intervention. The theory, the criticism, the rules and even the radical doctrines on the protection of cultural heritage, are meaningless if they do not take place the facts, the action, in antithesis to the omission. The history of the architectural heritage has given eloquent proof by itself. A lot of vestiges have been lost, in many times, for the destruction, through indolence or unknowledge. For this reason, and to be consistent with our thesis, we have collected and analyzed the projects documentation of three monuments (the Burgos Cathedral, the Aljafería Palace-Castle in Zaragoza and the Wall of Lugo). Sometimes, some researchers have suspected that there had not been planning. They suspect that the projects have been the result of different emergency situations. In opposition of this, we confirm that, except for emergency interventions result of specific circumstances, there have been a process of analysis to conclude in the priorities designation, which has guided the restoration process over two centuries. The complexity, magnitude and constructive uniqueness have defined the evolution of intervention. In conclusion, the effectiveness of the protection of Spanish cultural heritage lies in the conjunction of many aspects, including: the successful implementation of existing, specific and ancillary standards; the knowledge of good and its historical, artistic and cultural values; the cataloging and inclusion in the relevant inventories; and the commitment of the actors and institutions on which it depends. These planning tasks are necessary to ensure both structural safeguards as conservation values; and the introduction of a monitoring plan to detect possible dangers that threaten its conservation. But, the optimal situation would be given by a system in which these urban-regulations and specific mechanisms, would work together like a machine, where each piece operated with relative independence, but in tune with the other gears. So far, the reality is far from this situation, turning this coexistence in a utopia. Both legislators and officials and technicians involved must be aware that the effectiveness and scope of protection depends on your insight and commitment.
Resumo:
El proyecto de una tienda concentra un poco de todo aquello que interesa al arquitecto: conforma una suerte de encrucijada en la que se dan cita, junto a cuestiones disciplinares que la hacen muy atractiva y ponen a prueba su habilidad como proyectista, la necesidad de aunar recursos compositivos procedentes de otros terrenos periféricos a la arquitectura para dar una respuesta adecuada a los requerimientos específicos de imagen y persuasión que la actividad comercial comporta. Las difíciles condiciones de partida, habitualmente configuraciones espaciales no excesivamente favorables, donde las preexistencias y los contornos coartan y encierran un espacio al que hay que dotar de un nuevo orden; el tamaño reducido y las posibilidades de control total de la obra que de éste se derivan; el corto plazo de tiempo y la rapidez de respuesta que la estrategia comercial impone; su posición estratégica, en relación directa con la calle, y la mayor evidencia que, por tanto, se le asigna a la fachada y al escaparate como ‘primeros anuncios’ de la actividad; la integración y el comentario recíproco entre arquitectura y objeto que tiene lugar en su seno…, son algunas de las razones que explican este interés y justifican que la tienda −ese espacio acotado tan apto para el invento y la innovación−, constituya un banco de pruebas donde poder ensayar nuevos conceptos de la arquitectura al reunir espacial y temporalmente los condicionantes ideales requeridos para la experimentación y la comprobación de hallazgos. Aunque escasas, existen en la arquitectura contemporánea tiendas que han logrado ocupar por méritos propios un lugar destacado dentro de la obra de sus autores. Entre las merecedoras de ese reconocimiento habría que citar la ‘mítica’ sastrería Kniže proyectada por Adolf Loos a comienzos del siglo XX en Viena, el Negozio Vitrum que Giuseppe Terragni diseñara en Como en los años treinta, o la sucursal londinense de las líneas aéreas de Iraq construida en los sesenta por Alison y Peter Smithson. La elección, lejos de ser gratuita, obedece a razones fundadas. Dentro de las circunstancias temporales en las que se gestaron −las tres fueron proyectadas y construidas a lo largo del pasado siglo en un arco que abarca algo más de cincuenta años (1907-1961)−, los ejemplos seleccionados aúnan toda una serie de ‘coincidencias’ entre las que no resulta difícil establecer ciertos paralelismos: las tres marcan la talla de unos creadores que fueron capaces de dedicar la misma intensidad creativa a estos temas ‘menores’, corroborando que el carácter de la arquitectura también puede hacerse grande en lo pequeño; las tres, debido al momento de madurez en el que se abordó su diseño, reflejan su condición de laboratorio experimental al servicio de los intereses proyectuales que en ese momento ocupaban la mente de los arquitectos; las tres corroboran hipótesis ya apuntadas en arquitecturas anteriores, prueban líneas de trabajo no materializadas por falta de oportunidad y testan de manera menos comprometida soluciones que luego se trasladarán a obras con mayor vocación de permanencia; obras −y esto es algo especialmente sorprendente− con las que mantuvieron una estrecha relación en el espacio y en el tiempo, convirtiéndose incluso en plataformas de experimentación paralelas: baste en este sentido con apuntar la cercanía física −a ‘metros’ de distancia− y temporal −realizadas en los mismos años− entre la sastrería Kniže (1907- 1913;1928) y la Casa en la Michaelerplatz (1910-11); la tienda Vitrum (1930) y la Casa del Fascio (1929; 1932-36) o las oficinas de venta de las Iraqi Airways (1960-61) y la sede del The Economist (1959-64). Esta potencialidad que la tienda encierra para erigirse en laboratorio de experimentación y ensayo de la arquitectura, constituye la clave de la investigación que la tesis propone. ABSTRACT A little of everything that interests the architect is concentrated in the designing of a shop: it forms a kind of crossroads bringing together, apart from certain disciplinary questions rendering it particularly attractive and testing one’s ability as a designer, the need to coordinate compositional resources from fields peripheral to architecture in order to devise an adequate response to the specific requirements of image and persuasion that are part and parcel of business activity. The difficult start-up conditions, the generally not overly favourable spatial configurations ‒where the pre-existing conditions and shape of the site encroach on and enclose a space which has to be given a new order‒, the reduced size and possibilities afforded in terms of controlling the work, the short time frame and the rapid response imposed by the business tactics and its strategic position and direct frontal relationship with the street, make the shopfront and the display window are the ‘first advertisements” of the activity, or the integration and the reciprocal commentary between architecture and what takes place within: these are but some of the reasons explaining this interest and justifying the claim that the shop –a dimensional space so well suited to invention and innovation− constitutes a test-bed for trying out new concepts of architecture, combining in space and time the ideal conditions for experiment and the examination of its findings. Albeit not numerous, there are shops in contemporary architecture which have managed on their own merit to obtain a special place among the works of their authors. Among those earning such recognition, one should mention the ‘mythical’ Kniže tailoring establishment designed by Adolf Loos at the beginning of the 20th century in Vienna, the Negozio Vitrum designed by Giuseppe Terragni in Como in the thirties, or the London offices of Iraqi Airways built in the sixties by Alison and Peter Smithson. This selection, far from gratuitous, is based on well-founded reasons. Within the circumstances of the time-frame in which they were developed −the three were designed and built during the 20th century in a period that spans just over fifty years (1907-1961)− the chosen examples bring together a whole series of ‘coincidences’ where it is not difficult to draw certain parallels: the three bear witness to the stature of creators who were capable of devoting the same creative intensity to these ‘minor’ themes, thus corroborating the fact that the nature of the architecture can also be great in less important works; the three, thanks to the moment of maturity in which their design was carried out, reflect their condition as an experimental laboratory at the service of the particular designing interests which at the time occupied the minds of these architects; the three confirm hypotheses already displayed in previous architectures, they test lines of work which had not materialised through lack of opportunity, and in a less comprised manner check solutions that were later transferred to works with a greater vocation for permanence; works −and this is something especially surprising – with which they maintained a close relationship in time and space, even becoming parallel experimental platforms: in this sense, we need only to mention the physical proximity –just metres away− and proximity in time –built within the same years− between the Kniže shop (1907-1913; 1928) and the House of Michaelerplatz (1910-11); the Vitrum shop (1930) and the Casa del Fascio (1929;1932-36); and the Iraqi Airways sales offices (1960-61) and the headquarters of The Economist (1959-64). The potential of the shop to set itself up as an experimental laboratory and architectural rehearsal constitutes the main focus of the research put forward by this thesis.