35 resultados para Formulación de procedimientos
Resumo:
La determinación de la carga última o de rotura de una estructura, constituye un problema importante que, en esencia, consiste en conocer su nivel de seguridad respecto al colapso. El objetivo de esta comunicación consiste en presentar un modelo elastoplástico de cálculo de estructuras de entramado plano, las características del programa de computador y una comparación entre los resultados obtenidos con este modelo y los deducidos mediante procedimientos aproximados. La finalidad del estudio realizado reside en la obtención de unos criterios de proyecto que consideren la influencia de los errores de ejecución en la carga última y, de esta forma, estimar de un modo consistente los niveles de tolerancia admisibles en la construcción de una estructura. Si bien la formulación que sigue se dirige, de un modo específico a las estructuras metálicas de edificación, la extensión al hormigón y otros tipos estructurales es directa.
Resumo:
El problema de la interpolación polinómica de Birkhoff, como es conocido, no siempre admite solución. Se presenta un método como alternativa a este tipo de problemas para la obtención de interpolantes con unas condiciones de continuidad determinadas y en el cual el criterio de aproximación es el de minimización de un cierto funcional real, utilizando el método de los elementos finitos. Se analiza la eficiencia del método en diversos ejemplos de aplicación 1-0 y 2-D.
Resumo:
Informe presentado a la Sociedad Española para la Comunicación del Estrecho de Gibraltar (SECEG). Se describe en este informe la problemática estructural que aparece en el análisis del impacto entre sólidos deformables con especial énfasis en el caso del choque de una embarcación contra una pila de puente. Se lleva a cabo una revisión de los procedimientos de cálculo existentes, extendiendo el estudio desde los modelos mas simples de impacto entre cuerpos rígidos hasta los métodos basados en una formulación rigurosa de la mecánica de los medios continuos. Se comentan los programas de computador existentes para resolver estas situaciones de impacto y las técnicas que permiten considerar la influencia de las fuerzas hidrodinámicas en el choque. Por último se expone una metodología tentativa de diseño y cálculo de las defensas de las pilas ante la acción del choque de una embarcación.
Resumo:
La consideración de los efectos producidos por la colisión de un barco con una pila de un puente sobre el Estrecho de Gibraltar constituye una exigencia en un diseño adecuado de la estructura. En efecto, la existencia de un tráfico marítimo interno - con barcos que pueden alcanzar las 500.000 toneladas - las importantes corrientes que se generan en la zona, representan factores que, incluso con un estricta regulación y control de la navegación en el Estrecho, elevan la probabilidad de ocurrencia de este suceso. Sin embargo, una comprobación adecuada de la integridad estructural del puente bajo la acción del choque de un barco debería llevarse a cabo únicamente en estados avanzados del proyecto. Un cálculo de este tipo precisa un esfuerzo computacional muy importante y, por otra parte, las consecuencias del choque, raras veces modifican los parámetros significativos del diseño y su concepción general, y sólo en algunos casos exige la modificación de detalles constructivos y la disposición del pertinente sistema de defensa alrededor de las pilas. En este artículo, se presenta de un modo sucinto la formulación general de la dinámica del impacto, cuya aplicación al caso particular del choque del barco con las defensas de las pilas corresponde a una simple aplicación. Alternativamente, se expone un método aproximado para el estudio estructural de los efectos del impacto. Finalmente, se comentan las posibilidades de aplicación de los procedimientos anteriores a un puente sobre el Estrecho y se dan indicaciones de los programas de computador más importantes que permiten un análisis de este tipo.
Resumo:
El ruido derivado de las actividades de ocio es uno de los contaminantes acústicos más importantes en la sociedad actual. Este foco de ruido no sólo se encuentra presente en los entorno de los bares, pubs o discotecas, sino también en las zonas donde se desarrollan los eventos festivos de la ciudad. Sin embargo, son pocos los estudios y actuaciones llevadas a cabo desde el punto de vista ambiental que permitan conocer las principales características del ruido de ocio, los métodos de medida o los parámetros más adecuados. Por este motivo, se han fijado en estos aspectos los objetivos de esta tesis doctoral. Para el estudio del ruido de ocio nocturno se ha desarrollado y evaluado un método de medida, basado en la realización de medidas binaurales durante un recorrido y en medidas de larga duración en puntos fijos de las distintas zonas de ocio de Madrid y Cuenca. A partir de los resultados obtenidos, se ha realizado una caracterización acústica del ruido ocio, se ha definido un procedimiento de actuación en el que se incluye un modelo de predicción, y se ha desarrollado un modelo clasificador capaz de diferenciar el ruido de ocio del ruido de tráfico rodado. En el caso de los eventos de ocio también se ha desarrollado un método de evaluación y medida adaptado a sus características, con el que se han medido los eventos más importantes acontecidos durante un año en Madrid y Cuenca, del análisis de estas medidas se ha determinado qué eventos son los más ruidosos, así como sus características principales y las diferencias entre ellos. Este estudio pretende servir de apoyo en la gestión del ruido ambiental derivado de las actividades de ocio, presentando datos cualitativos y cuantitativos de este tipo de ruido en sus distintas facetas y aportando nuevas herramientas que faciliten su gestión. ABSTRACT Leisure noise is one of the most important environmental pollutants nowadays. This noise is not only nearby leisure venues where people go at night, but also around leisure events like popular parties or concerts placed in urban areas. There are few studies and actions about leisure noise from the environmental noise point of view, and consequently, there are no information about the leisure noise characteristics, the most appropriate measurement methods or the most interesting parameters to evaluate this kind of noise. Consequently, these are the aims of this PhD thesis. About the noise around leisure venues, a measurement method has been defined by using the Soundwalker technique. Besides, fixed point measurements have been done in different leisure areas. With the results of these measurements, a noise characterization has been done and a guide has been developed to act in case of leisure noise problems, including a method to predict the leisure noise in this kind of areas. As well as that, a classifying model has been done to differenciate leisure noise and road traffic noise. A measurement procedure has been developed in the leisure events case. Following this procedure, the most important events happened during a year in two different cities have been measured. With these results, the noisiest events, the most important characteristics of each kind of event and the differences between them have been pointed out. This study tries to support the environmental noise management in the leisure noise case. It provides cualitative and quantitative data of leisure noise levels in different situations; it also defines an action protocol to resolve leisure noise problems and it defines new tools to manage this kind of noise.
Resumo:
Ecuador, país sudamericano, aprobó en el año 2008 una Constitución en la que subyace un modelo de desarrollo humano multidimensional y alternativo al vigente. Sus dimensiones sociales, económicas, políticas, culturales y ambientales se encuentran en los textos correspondientes a los “Derechos”, “Régimen de Desarrollo” y “Régimen del Buen Vivir”; en tanto que las dimensiones territoriales se hallan expuestas en la “Organización Territorial del Estado”, conformada por regiones, provincias, cantones y parroquias rurales, con sus respectivos gobiernos autónomos descentralizados, a los que la misma Constitución les atribuye, entre otras, las competencias exclusivas de “planificar el desarrollo” y “formular los correspondientes planes de ordenamiento territorial”, y al Estado central la “planificación nacional”. No obstante, el marco legal dictado posteriormente -que otorga al Estado central la competencia de ordenación territorial, mediante la “Estrategia Territorial Nacional”-, no logra regular con eficacia, efectividad y eficiencia este ejercicio competencial, incluyendo en esta condición a los lineamientos técnicos dictados por el organismo nacional de planificación; volviendo urgente la vigencia de una ley que lo asuma, pero que demanda previamente el diseño de un modelo de gestión de estas competencias, propósito al cual procura contribuir el presente trabajo. Su estructura es la siguiente: Capítulo 1: “La problemática, objetivos y antecedentes”, en cuya formulación se destaca el estudio del marco jurídico y técnico vigente en relación a la ordenación territorial, partiendo de una breve visión sobre los empeños previos en Ecuador por adoptarla, y que se complementa con una evaluación preliminar de la experiencia vivida por los gobiernos autónomos descentralizados al formular y gestionar sus primeros planes de desarrollo y de ordenación territorial, en acatamiento del mandato constitucional. Luego se avanza en la definición del objetivo general del trabajo y de un conjunto coherente de objetivos específicos. Concluye este capítulo con el análisis del estado de la cuestión: los antecedentes sobre la ordenación territorial en América Latina, en el marco de sus predecesoras históricas. Capítulo 2: “Diseño del modelo de gestión”, que se inicia con el planteamiento de la metodología a seguir, condicionada especialmente por los propios textos constitucionales que vinculan en la relación de “correspondencia” a la ordenación territorial con la planificación del desarrollo y en consecuencia con el ejercicio de las competencias sectoriales asignadas por ella misma a los diferentes niveles de gobierno. Efectivamente, tal relación supone básicamente que la planificación del desarrollo adquiera el carácter de global, total, vale decir integral, en el sentido de que igualmente contemple sus dimensiones territoriales y que la planificación de éstas se integre a la de las dimensiones sociales, económicas, políticas, culturales y ambientales, de manera tal que en cada uno de los niveles la planificación del desarrollo sea un proceso único y un todo. Por estas condiciones, el diseño en cuestión demanda el tratamiento previo de los aspectos contemplados por la metodología en relación con la conceptualización y ordenamiento de la planificación y gestión del modelo de desarrollo humano previsto por la Constitución para los distintos niveles territoriales, seguido del análisis y evaluación del reparto competencial. En este marco se diseña el modelo de gestión en siete componentes específicos que definen los objetivos estratégicos generales a los cuales apuntará la ordenación territorial, estructuran con sus figuras –los planes–, un sistema integrado de alcance nacional, entienden al propio territorio bajo una visión sistémica y proponen un esquema metodológico general para la redacción de tales instrumentos. Luego se aborda en calidad de tema clave, la articulación con la planificación del desarrollo, el establecimiento de las dimensiones territoriales sectoriales y globales de ordenación en cada nivel territorial, que posibilita a su vez la formulación de los contenidos de las determinaciones de los planes y la definición de un conjunto de lineamientos para su gestión. Capítulo 3. “Verificación”, que se ha concretado en la puesta a consideración de un selecto grupo de expertos nacionales en ordenación territorial, el modelo propuesto siguiendo los procedimientos recomendados para este tipo de consultas. Capítulo 4. “Conclusiones Generales”, esto es, un conjunto coherente de proposiciones que condensan los resultados alcanzados en los diferentes capítulos precedentes y que demuestran la validez del modelo propuesto. ABSTRACT Ecuador approved a constitution, by 2008, where a multidimensional human development model, different to the one in force, underlies. Its social, economic, political, cultural and environmental dimensions are at the entries for "Rights", "Development Scheme" and "Rules of Good Living"; while the territorial dimensions are given by the "Territorial Organization of the State" section, consisting of regions, provinces, cantons and rural parishes, with their respective autonomous governments, to which the Constitution conferred, inter alia, the exclusive powers of "development planning" and "land use plan formulation," while the central state has the "national planning" competence. However, the subsequent issued legal framework - which gives the central state competences over land planning, using the "National Spatial Strategy" - fails to effectively regulate this exercise of jurisdiction, including in this condition the technical guidelines dictated by the national planning agency; thus becoming urgent to put in force a law that assume it, which demands the previous design of a management model of these competences, which is the aim that seeks to contribute the present work. Its structure is as follows: Chapter 1: "The problem, objectives and background" that includes the study of the legal and technical framework in force in relation to land planning, starts with a brief overview of previous efforts to adopt it in Ecuador. The chapter is complemented with a preliminary assessment of the experience of the autonomous governments to formulate and manage their early development plans and land planning, in compliance with the constitutional mandate. Subsequently the overall objective of the work and a coherent set of objectives are defined. This chapter concludes with an analysis of the state of art: the history of land use planning in Latin America in the context of their historical predecessors. Chapter 2, "Design of a management model", which begins with the methodological approach to follow, conditioned by the constitutional texts linking the relationship of "correspondence" land planning with development planning and with the exercise of the sectorial competences assigned by itself to different levels of government. Indeed, such a relationship basically means that development planning should acquire a global, comprehensive, complete, total, character in the sense that it also provides for their territorial dimensions and that their planning is integrated to social, economic, political, cultural and environmental factors, so that in each of the levels, development planning is a unique process and a whole. For these conditions, the design in question demands pretreatment of the aspects covered by the methodology in relation to the conceptualization and management of the planning and management of human development model envisaged by the Constitution to the various territorial levels, followed by analysis and evaluation of the distribution of powers. In this framework a management model is designed into seven specific components that define the overall strategic objectives which aim to land planning, structure plans, and an integrated nationwide system, that understand the territory under a systemic vision and propose a general methodological framework to draft these instruments. Then a key issue is addressed, the coordination with development planning, the establishment of sectorial and regional and global dimensions of management at each territorial level, which in turn allows the formulation of the contents of the plans determinations and defining a set of management guidelines. Chapter 3, "Verification", It has traduced into asking for the revision of the proposed model by a select group of national experts in spatial planning by following recommended procedures for such queries. Chapter 4, "General Conclusions", a coherent set of propositions that summarize the results obtained in the different preceding chapters, which demonstrates the validity of the proposed model.
Resumo:
En la actualidad existe un gran conocimiento en la caracterización de rellenos hidráulicos, tanto en su caracterización estática, como dinámica. Sin embargo, son escasos en la literatura estudios más generales y globales de estos materiales, muy relacionados con sus usos y principales problemáticas en obras portuarias y mineras. Los procedimientos semi‐empíricos para la evaluación del efecto silo en las celdas de cajones portuarios, así como para el potencial de licuefacción de estos suelos durantes cargas instantáneas y terremotos, se basan en estudios donde la influencia de los parámetros que los rigen no se conocen en gran medida, dando lugar a resultados con considerable dispersión. Este es el caso, por ejemplo, de los daños notificados por el grupo de investigación del Puerto de Barcelona, la rotura de los cajones portuarios en el Puerto de Barcelona en 2007. Por estos motivos y otros, se ha decidido desarrollar un análisis para la evaluación de estos problemas mediante la propuesta de una metodología teórico‐numérica y empírica. El enfoque teórico‐numérico desarrollado en el presente estudio se centra en la determinación del marco teórico y las herramientas numéricas capaces de solventar los retos que presentan estos problemas. La complejidad del problema procede de varios aspectos fundamentales: el comportamiento no lineal de los suelos poco confinados o flojos en procesos de consolidación por preso propio; su alto potencial de licuefacción; la caracterización hidromecánica de los contactos entre estructuras y suelo (camino preferencial para el flujo de agua y consolidación lateral); el punto de partida de los problemas con un estado de tensiones efectivas prácticamente nulo. En cuanto al enfoque experimental, se ha propuesto una metodología de laboratorio muy sencilla para la caracterización hidromecánica del suelo y las interfaces, sin la necesidad de usar complejos aparatos de laboratorio o procedimientos excesivamente complicados. Este trabajo incluye por tanto un breve repaso a los aspectos relacionados con la ejecución de los rellenos hidráulicos, sus usos principales y los fenómenos relacionados, con el fin de establecer un punto de partida para el presente estudio. Este repaso abarca desde la evolución de las ecuaciones de consolidación tradicionales (Terzaghi, 1943), (Gibson, English & Hussey, 1967) y las metodologías de cálculo (Townsend & McVay, 1990) (Fredlund, Donaldson and Gitirana, 2009) hasta las contribuciones en relación al efecto silo (Ranssen, 1985) (Ravenet, 1977) y sobre el fenómeno de la licuefacción (Casagrande, 1936) (Castro, 1969) (Been & Jefferies, 1985) (Pastor & Zienkiewicz, 1986). Con motivo de este estudio se ha desarrollado exclusivamente un código basado en el método de los elementos finitos (MEF) empleando el programa MATLAB. Para ello, se ha esablecido un marco teórico (Biot, 1941) (Zienkiewicz & Shiomi, 1984) (Segura & Caron, 2004) y numérico (Zienkiewicz & Taylor, 1989) (Huerta & Rodríguez, 1992) (Segura & Carol, 2008) para resolver problemas de consolidación multidimensional con condiciones de contorno friccionales, y los correspondientes modelos constitutivos (Pastor & Zienkiewicz, 1986) (Fiu & Liu, 2011). Asimismo, se ha desarrollado una metodología experimental a través de una serie de ensayos de laboratorio para la calibración de los modelos constitutivos y de la caracterización de parámetros índice y de flujo (Castro, 1969) (Bahda 1997) (Been & Jefferies, 2006). Para ello se han empleado arenas de Hostun como material (relleno hidráulico) de referencia. Como principal aportación se incluyen una serie de nuevos ensayos de corte directo para la caracterización hidromecánica de la interfaz suelo – estructura de hormigón, para diferentes tipos de encofrados y rugosidades. Finalmente, se han diseñado una serie de algoritmos específicos para la resolución del set de ecuaciones diferenciales de gobierno que definen este problema. Estos algoritmos son de gran importancia en este problema para tratar el procesamiento transitorio de la consolidación de los rellenos hidráulicos, y de otros efectos relacionados con su implementación en celdas de cajones, como el efecto silo y la licuefacciones autoinducida. Para ello, se ha establecido un modelo 2D axisimétrico, con formulación acoplada u‐p para elementos continuos y elementos interfaz (de espesor cero), que tratan de simular las condiciones de estos rellenos hidráulicos cuando se colocan en las celdas portuarias. Este caso de estudio hace referencia clara a materiales granulares en estado inicial muy suelto y con escasas tensiones efectivas, es decir, con prácticamente todas las sobrepresiones ocasionadas por el proceso de autoconsolidación (por peso propio). Por todo ello se requiere de algoritmos numéricos específicos, así como de modelos constitutivos particulares, para los elementos del continuo y para los elementos interfaz. En el caso de la simulación de diferentes procedimientos de puesta en obra de los rellenos se ha requerido la modificacion de los algoritmos empleados para poder así representar numéricamente la puesta en obra de estos materiales, además de poder realizar una comparativa de los resultados para los distintos procedimientos. La constante actualización de los parámetros del suelo, hace también de este algoritmo una potente herramienta que permite establecer un interesante juego de perfiles de variables, tales como la densidad, el índice de huecos, la fracción de sólidos, el exceso de presiones, y tensiones y deformaciones. En definitiva, el modelo otorga un mejor entendimiento del efecto silo, término comúnmente usado para definir el fenómeno transitorio del gradiente de presiones laterales en las estructuras de contención en forma de silo. Finalmente se incluyen una serie de comparativas entre los resultados del modelo y de diferentes estudios de la literatura técnica, tanto para el fenómeno de las consolidaciones por preso propio (Fredlund, Donaldson & Gitirana, 2009) como para el estudio del efecto silo (Puertos del Estado, 2006, EuroCódigo (2006), Japan Tech, Stands. (2009), etc.). Para concluir, se propone el diseño de un prototipo de columna de decantación con paredes friccionales, como principal propuesta de futura línea de investigación. Wide research is nowadays available on the characterization of hydraulic fills in terms of either static or dynamic behavior. However, reported comprehensive analyses of these soils when meant for port or mining works are scarce. Moreover, the semi‐empirical procedures for assessing the silo effect on cells in floating caissons, and the liquefaction potential of these soils during sudden loads or earthquakes are based on studies where the underlying influence parameters are not well known, yielding results with significant scatter. This is the case, for instance, of hazards reported by the Barcelona Liquefaction working group, with the failure of harbor walls in 2007. By virtue of this, a complex approach has been undertaken to evaluate the problem by a proposal of numerical and laboratory methodology. Within a theoretical and numerical scope, the study is focused on the numerical tools capable to face the different challenges of this problem. The complexity is manifold; the highly non‐linear behavior of consolidating soft soils; their potentially liquefactable nature, the significance of the hydromechanics of the soil‐structure contact, the discontinuities as preferential paths for water flow, setting “negligible” effective stresses as initial conditions. Within an experimental scope, a straightforward laboratory methodology is introduced for the hydromechanical characterization of the soil and the interface without the need of complex laboratory devices or cumbersome procedures. Therefore, this study includes a brief overview of the hydraulic filling execution, main uses (land reclamation, filled cells, tailing dams, etc.) and the underlying phenomena (self‐weight consolidation, silo effect, liquefaction, etc.). It comprises from the evolution of the traditional consolidation equations (Terzaghi, 1943), (Gibson, English, & Hussey, 1967) and solving methodologies (Townsend & McVay, 1990) (Fredlund, Donaldson and Gitirana, 2009) to the contributions in terms of silo effect (Ranssen, 1895) (Ravenet, 1977) and liquefaction phenomena (Casagrande, 1936) (Castro, 1969) (Been & Jefferies, 1985) (Pastor & Zienkiewicz, 1986). The novelty of the study lies on the development of a Finite Element Method (FEM) code, exclusively formulated for this problem. Subsequently, a theoretical (Biot, 1941) (Zienkiewicz and Shiomi, 1984) (Segura and Carol, 2004) and numerical approach (Zienkiewicz and Taylor, 1989) (Huerta, A. & Rodriguez, A., 1992) (Segura, J.M. & Carol, I., 2008) is introduced for multidimensional consolidation problems with frictional contacts and the corresponding constitutive models (Pastor & Zienkiewicz, 1986) (Fu & Liu, 2011). An experimental methodology is presented for the laboratory test and material characterization (Castro 1969) (Bahda 1997) (Been & Jefferies 2006) using Hostun sands as reference hydraulic fill. A series of singular interaction shear tests for the interface calibration is included. Finally, a specific model algorithm for the solution of the set of differential equations governing the problem is presented. The process of consolidation and settlements involves a comprehensive simulation of the transient process of decantation and the build‐up of the silo effect in cells and certain phenomena related to self‐compaction and liquefaction. For this, an implementation of a 2D axi‐syimmetric coupled model with continuum and interface elements, aimed at simulating conditions and self‐weight consolidation of hydraulic fills once placed into floating caisson cells or close to retaining structures. This basically concerns a loose granular soil with a negligible initial effective stress level at the onset of the process. The implementation requires a specific numerical algorithm as well as specific constitutive models for both the continuum and the interface elements. The simulation of implementation procedures for the fills has required the modification of the algorithm so that a numerical representation of these procedures is carried out. A comparison of the results for the different procedures is interesting for the global analysis. Furthermore, the continuous updating of the model provides an insightful logging of variable profiles such as density, void ratio and solid fraction profiles, total and excess pore pressure, stresses and strains. This will lead to a better understanding of complex phenomena such as the transient gradient in lateral pressures due to silo effect in saturated soils. Interesting model and literature comparisons for the self‐weight consolidation (Fredlund, Donaldson, & Gitirana, 2009) and the silo effect results (Puertos del Estado (2006), EuroCode (2006), Japan Tech, Stands. (2009)). This study closes with the design of a decantation column prototype with frictional walls as the main future line of research.
Resumo:
La investigación que aquí se presenta trata de establecer el potencial de las herramientas simplificadas de certificación energética de edificios existentes, desarrolladas como fruto de la Directiva 2002/91/CE y su trasposición parcial en el RD 235/2013, para obtener mejoras en la calificación energética del edificio residencial, a partir de la incorporación de mejoras de diseño pasivo. Para ello, en una primera fase teórica, se ha establecido un análisis comparativo entre ambas herramientas, comenzando con un estudio pormenorizado de sus fundamentos técnicos, de cada uno de los módulos de los que se compone cada procedimiento y de los complementos de los que disponen. Se han reunido así los errores u omisiones detectados en su uso y los límites de la certificación a través de dichos procedimientos en cuanto a una rehabilitación energética pasiva. Por último, y con toda esta información, se ha realizado una guía de ayuda al técnico, que facilita la elección del procedimiento más adecuado en función de las condiciones o datos de partida disponibles del inmueble, y el alcance detectado para cada programa. En una segunda fase práctica, se ha aplicado dicho análisis a un caso práctico real, que ha permitido comparar las calificaciones obtenidas a través de ambos procedimientos tras la aplicación de mejoras de diseño pasivo. Como conclusión, destacar la necesidad de una herramienta de certificación unificada, que aunando esfuerzos de ambos equipos, solvente los errores que cada uno de los procedimientos arrastra de forma independiente. Las simplificaciones por parte de cada uno de los procedimientos son muy diferentes, y en términos de aprovechamientos pasivos, difícilmente ignorables. Tales son, simplificaciones en datos climáticos, mecanismos de control solar, orientaciones, sombras arrojadas o geometrización de cerramientos translúcidos a partir de parámetros de superficie. Las diferencias, tanto en la programación de las herramientas como en los resultados finales, llegan a ser muy acusadas, obteniéndose diferencias en los resultados obtenidos para la calificación mejorada de una vivienda existente entre ambos procedimientos, de hasta 2 letras, tras la aplicación de mejoras pasivas de la envolvente.
Resumo:
A menudo, la fase del vuelo en ruta sobre áreas de baja densidad de tráfico, se desarrollan en espacios aéreos de alta cota, en los que el servicio de vigilancia es deficiente o simplemente no existente. En este tipo de espacio aéreo garantizar las separaciones entre aeronaves desde el segmento terrestre requiere de procedimientos adecuados a los medios disponibles y que, en general, desembocan en la utilización de unas mínimas de separación muy grandes. En este tipo de espacio aéreo, se ha planteado desde distintos organismos la posibilidad de delegar la responsabilidad de la separación a la aeronave, desarrollando ésta las funciones necesarias para poder asumir tal responsabilidad sin disminuir los umbrales de seguridad. Para que la aeronave pueda asumir la responsabilidad de la separación es necesario dotar a las tripulaciones de nuevos medios técnicos y procedimientos operacionales, los cuales trabajando de forma continua y automática permitan el desarrollo seguro del vuelo en esas circunstancias. El planteamiento de algunos de estos sistemas embarcados así como su validación desde el punto de vista de su aceptación por las tripulaciones es el objetivo del trabajo de investigación realizado y cuyos resultados se presentan en esta tesis. El sistema que se propone trata de resolver los riesgos con los tráficos circundantes garantizando la auto‐separación en vuelo de crucero, evitando y resolviendo conflictos. La aeronave que detecta un riesgo/conflicto negocia una propuesta de solución con la aeronave “intrusa”, una vez la propuesta ha sido negociada, el piloto confirma la maniobra a realizar por la aeronave, la aeronave radiodifunde un mensaje con las intenciones de la maniobra, seguidamente el piloto automático maniobra el avión para implementar la solución y el director de vuelo muestra al piloto la maniobra que se está realizando. ABSTRACT The flight in route phase over areas of low traffic density is usually performed in high altitude airspace, in which the surveillance system is deficient or simply nonexistent. In this type of airspace, to guarantee the separation between aircrafts from the ground, adequate procedures are required to be used with the available systems, and this generally leads to the use of high separation minima. Also, in this type of airspace, it has been discussed by several organizations the possibility of delegating the responsibility of the aircraft separation to the aircraft itself, it carrying out the necessary functions to take on such responsibility without lowering the safety threshold. In order for the aircraft to take on the responsibility of the separation, it is necessary to provide the crew with new technical means and operational procedures, which will result in safe flight under those circumstances. The discussion of some of these systems and their validation from the point of view of acceptance by the crews is the objective of this achieved research work, the findings of which are presented here. The proposed system assists in the surveillance providing the autopilot with information to guarantee the self‐separation with the surrounding in flight traffic, avoiding and solving conflicts. The aircraft which detects the risk/conflict starts a negotiation with the intruder aircraft for finding a conflict resolution, then the pilot of the aircraft approves the solution maneuver and the aircraft broadcasts a message with the maneuver which will be executed. The autopilot maneuvers the aircraft to execute the solution, the evolution of which is shown in the proposed system display and the flight director.
Resumo:
La evolución de los roles de la Administración y empresas en la prestación de servicios públicos, así como las crecientes restricciones presupuestarias para financiarlos, están propiciando una cada vez mayor utilización del sistema concesional para la financiación y gestión de carreteras. Ante esta situación, cabe cuestionarse si la regulación de las prestaciones a obtener se está introduciendo de forma adecuada en los contratos. Uno de los aspectos más relevantes en este sentido es el relacionado con la seguridad de la infraestructura, sobre el cual la empresa concesionaria tiene capacidad de actuación pero, en un sentido económico estricto, pocos incentivos para mejorarla. Todo ello a pesar de los elevados costes sociales derivados de la accidentalidad. Esta tesis analiza la idoneidad de los indicadores e incentivos de seguridad vial que se vienen aplicando en concesiones de carreteras, encontrándose una gran heterogeneidad e incluso incorrecciones técnicas en su formulación. Además se pone de manifiesto la poca vinculación que tienen con la estructura de costes y beneficios de las actuaciones de mejora de seguridad vial, por lo que su introducción en los contratos resulta anodina. Con el objeto de superar esta situación, en esta tesis se analizan en profundidad los aspectos que intervienen en la formulación de indicadores e incentivos de seguridad vial. De este análisis se deduce la ecuación que liga, por tipología de carretera, el beneficio social derivado del nivel de seguridad de la carretera y el coste para alcanzarlo. A través de esta ecuación se determina el nivel de seguridad óptimo desde el punto de vista económico‐social. La investigación continúa extrapolando métodos de la teoría microeconómica de incentivos al campo de las concesiones de carreteras, a fin de determinar la formulación del incentivo de seguridad vial teóricamente óptimo. Asimismo, la tesis toma en consideración la experiencia en la aplicación práctica de incentivos en concesiones vigentes, realizándose una propuesta para superar las controversias que se están produciendo actualmente en España. Además, se ha simulado la aplicación de la formulación propuesta a diversas concesiones con un doble objetivo: verificar la viabilidad económica de su aplicación y corroborar en qué medida se adecua mejor al óptimo económico‐social. Como resultado, se proponen un indicador y un incentivo concretos que inducen a las concesionarias a orientar su gestión hacia la consecución del nivel de seguridad vial óptimo desde el punto de vista económico‐social, todo ello dentro de un marco de viabilidad presupuestaria. Changes in the roles of Government and the Private Sector in the provision of public services along with the budget constraints to finance them are resulting in an increasing use of the concession system for financing and managing roads. Taking this into account, the question is whether the regulation of quality criteria is being properly introduced in the contracts or not. One of the most important aspects at this respect is the road safety. On the one hand, concessionaires are able to manage this aspect up to a point. On the other hand, from an strict economic point of view, they have little incentive to improve it, despite the high social costs of accidents. This thesis has analyzed the suitability of indicators and incentives usually introduced in road concession contracts, finding high heterogeneity, and even technical inaccuracies on their formulation. It has also been found the lack of connection between these incentives and the costs of measures to improve road safety, therefore they are not expected to fulfil their purpose. In order to overcome this situation, this thesis firstly analyzes in depth the issues involved in the development of road safety indicators and incentives. This analysis yields the equation which links the social benefit derived from the level of road safety and the cost to achieve it. In its turn, through this equation it is possible to meet the optimal road safety level from the socio‐economic point of view. Secondly, this thesis extrapolates microeconomic methods to the field of highway concessions, with the aim of determining the formulation of the optimal road safety incentive. Furthermore, the thesis takes into account the experience in the practical application of incentives on existing concessions, performing a proposal to settle the disputes between concessionaires and the Public Administrations. Finally, the thesis simulates the implementation of the proposed indicator and incentive to real concessions with the aim of verifying the economic feasibility of their application and confirming how they match the socio‐economic optimum. As a result, this thesis proposes an indicator and incentive that induce companies to drive the management of the concession towards achieving the optimal road safety level, all within a framework of the budgetary feasibility.
Resumo:
La Tesis decodifica una selección de veinte proyectos representativos de Sejima-SANAA, desde su primer proyecto construido, la Casa Platform I, 1987, hasta el Centro Rolex, 2010, año en que Sejima y Nishizawa –SANAA- reciben el Premio Pritzker. De los veinte proyectos once son de Sejima: Casa Platform I, Casa Platform II, Residencia de Mujeres, Casa N, Pachinco Parlor I, Villa en el Bosque, Comisaría en Chofu, Casa Y, Apartamentos en Gifu, Edificio de equipamientos en la Expo Tokio 96, Pachinko Parlor III; y nueve de SANAA: edificio Multimedia en Oogaki, estudio de viviendas metropolitanas,Park Café en Koga, De Kunstlinie en Almere, Museo de Kanazawa, Pabellón de Toledo, Escuela de Zollverein, Casa Flor y Centro Rolex. La decodificación lee la obra de Sejima-SANAA a la inversa para ‘reconstruir’, en un ejercicio de simulación ficticia, una versión verosímil y coherente de los que podrían haber sido sus procesos proyectuales; podrían, porque los verdaderos son imposibles de dilucidar. Los que se proponen se pretenden exclusivamente verosímiles y plausibles. Con ello se pretende contribuir al entendimiento y comprensión de la arquitectura de Sejima-SANAA y, tangencialmente y en menor medida, a la teoría sobre el ejercicio proyectual arquitectónico. La decodificación se centra en dos aspectos concretos: la forma arquitectónica y el papel proyectual de la estructura portante. Ambas decodificaciones se extienden inevitablemente a otros aspectos relacionados, como, por ejemplo, la naturaleza del espacio arquitectónico. El procedimiento de investigación partió de una descripción objetiva y pormenorizada de los significantes formales y estructurales de cada proyecto desde su propia configuración física y geométrica. Esa descripción ‘objetiva’, llevada al límite, permitió que afloraran estructuras conceptuales y lógicas subyacentes de cada proyecto. Unida a interpretación crítica, –mediante su relación y confrontación con otras arquitecturas y otros modos de hacer conocidos- permitió trazar la reconstitución ficticia que persigue la decodificación. Ese trabajo se materializó en veinte ensayos críticos y se acompañó de un conjunto de otros textos sobre temas sugeridos o reclamados por el proceso de investigación. El conjunto de todos esos textos constituye el material de trabajo de la tesis. A partir de ahí, con una visión de conjunto, la tesis identifica una trayectoria de estrategias formales y una trayectoria de estrategias proyectuales relacionadas con lo portante. Juntas conforman el grueso de la tesis que se expone en los cuatro capítulos centrales. Los precede un capítulo introductorio que expone el recorrido biográfico de K. Sejima y la trayectoria profesional de Sejima-SANAA; y los siguen de unos textos transversales sobre forma, lugar y espacio. La tesis termina con una síntesis de sus conclusiones. Las estrategias formales se exponen en tres capítulos. El primero, ‘Primeras estrategias formales’ agrupa proyectos de la primera etapa de Sejima. El segundo capítulo está dedicado enteramente al proyecto de los apartamentos en Gifu, 1994-98, que según esta tesis, supuso un importante punto de inflexión en la trayectoria de Sejima; tanto el tercer capítulo lleva por nombre ‘Estrategias formales después de Gifu’ y recoge los proyectos que le siguieron. Las ‘Primeras estrategias formales’, varias y balbucientes, se mueven en general en torno a dos modos o procedimientos de composición, bien conocidos: por partes y sistemático. Éste última inicia en la trayectoria de SANAA un aspecto que va a ser relevante de aquí en adelante: entender el proyecto como propuesta genérica en la que, más allá de su realidad específica y tangible, subyace una lógica, en cada proyecto la suya, extrapolable a otros lugares, otras dimensiones, incluso otros programas: cada proyecto podría dar lugar a otros proyectos de la misma familia. La composición sistemática incluye, entre otros, la Casa Platform II, basada en la definición de un elemento constructivo, y la formulación de unas leyes de repetición y de posibles modos de agrupación. Incluye también la Residencia de Mujeres Saishunkan Seiyaku- proyecto que lanzó a Sejima a la fama internacional-, que también sería un sistema, pero distinto: basado en la repetición regular de una serie de elementos a lo largo de una directriz generando un hipotético contenedor infinito del que el proyecto sería tan solo un fragmento. La estrategia formal del edificio de Gifu ahondaría en la voluntad genérica del proyecto, adoptando la lógica de un juego. El proyecto sería una partida del juego, pero no la única posible, podrían jugarse otras. Esta hipótesis del juego está verificada en ‘El Juego de Gifu’ que - tras formular el juego identificando sus elementos (tablero y fichas), reglas y procedimientos- juega una partida: la que habría dado lugar al edificio proyectado por Sejima. Gifu extiende el concepto de ‘repetir’ un elemento constructivo a la de repetir un patrón espacial, lo que conlleva: la desvinculación entre forma y función; y un nuevo concepto de flexibilidad, que deja de referirse al uso flexible del edificio construido para pertenecer al momento proyectual en que se asignan funciones específicas a los patrones espaciales. Esta tesis propone que esa asignación de funciones sería uno de los últimos eslabones del proceso proyectual, algo opuesto a la premisa moderna de “la forma sigue a la función”. Las estrategias formales ‘Después de Gifu’ tienen también lógicas de juego, pero cada estrategia responde a un juego distinto, como dejan entrever sus nombres: ‘Tableros de Juego’, que con distintos grados de madurez estaría presente en varios proyectos; ‘Elementos de Catálogo’ en el Museo de Kanazawa; ‘Forma apriorística’, en la Casa Flor y ‘Repetición de una situación topológica’, en el Centro Rolex. Todas esas estrategias, o juegos, mantienen aspectos comunes relativos a la forma arquitectónica, precisamente los aspectos Gifu: la repetición aplicada al patrón espacial, y lo que conlleva: desvinculación entre forma y función y la nueva acepción de flexibilidad. ‘Tableros de Juego’ consiste en configurar cada sistema de proyecto (estructura, cerramientos, particiones y mobiliario) eligiendo elementos ofrecidos por una geometría de base, en cada proyecto la suya, en general reticular: intersecciones, líneas, módulos. Cada sistema se configura, en principio, sin relación de subordinación con cualquiera de los demás; cuando esa subordinación es ineludible, el juego determina que el sistema portante no puede materializar el orden geométrico de base, lo que se traduce en que no ejerce el papel dominante. Por lo tanto, ‘Tableros de Juego’ transgrede la lógica de la planta libre moderna: la estructura ni refleja ni revela el orden de base y los sistemas no respetan las relaciones de subordinación jerárquica y encadenada que aquella determinaba. Esta estrategia de ‘Tableros de juego’ deriva en soluciones y proyectos formales muy distintos: los proyectos de Oogaki y Park Café, que presentarían ‘Tableros de Juego’ incipientes; De Kunstlinie en Almere y la Escuela de Zollverein, que presentarían una consolidación de esta estrategia; y el Pabellón de Vidrio de Toledo que resultaría de la subversión de la estrategia. Este último proyecto, además, lleva el concepto de repetición más allá del elemento constructivo y del patrón espacial (que en este caso tiene forma de burbuja) parar acabar afectando a la propia experiencia del espectador, que esté donde esté, siempre tiene la sensación de estar en el mismo sitio. Esta tesis denomina a ese espacio repetitivo como ‘espacio mantra’. La estrategia ‘Elementos de Catálogo’ se ilustra con el Museo de Kanazawa. Su lógica parte de la definición de una serie de elementos, muy pocos, y se basa en el ingente número de posibles combinaciones entre sí. Gifu habría anunciado el catalogo de elementos en la caracterización de sus patrones espaciales. La estrategia ‘Forma Apriorística’ se ilustra con la Casa Flor. La decisión sobre el tipo de forma -en este caso la de una ameba- estaría al principio del proceso proyectual, lo que no quiere decir que sea una forma arbitraria: la forma de la ameba lleva implícita la repetición de un patrón espacial (el seudópodo) y una apoteosis del concepto de repetición que, alcanzando la experiencia espacial, da lugar a un espacio repetitivo o mantra. El ‘Espacio Mantra’ es uno de los leitmotivs, que se emplean como argumento en la última estrategia formal que la Tesis decodifica: el Centro Rolex. Con respecto a la estructura portante, la tesis identifica y traza una trayectoria de cinco estrategias proyectuales: preeminencia, ocultación, disolución, desaparición y desvirtuación. --Ocultación, reduce el papel dominante de la estructura. Al principio es una ocultación literal, casi un tapado de los elementos estructurales, como en Gifu; luego se hace más sofisticada, como la ocultación por camuflaje o la paradójica ocultación por multiplicación de Park Café. --La disolución merma la condición dominante de la estructura que en lugar de configurarse como sistema unitario u homogéneo se fragmenta en varios subsistemas. --La desaparición se refiere a estructuras que desaparecen como sistemas propios y autónomos, a proyectos en los que la función portante es desempeñada por otros sistemas como el de las particiones. La desaparición culmina con la Casa Flor, cuyo perímetro ejerce la función portante y además es transparente, está desmaterializado: la estructura se ha hecho invisible, ha desaparecido. --La desvirtuación se refiere a estructuras que sí se presentan como sistemas propios y autónomos, pero dejan de tener un papel preeminente por cuanto no materializan el orden de base: esta estrategia es correlativa a la estrategia formal ‘Tableros de juego’. Las conclusiones de la tesis están en la propia organización de la tesis: la identificación de las estrategias. Aún así, y como epílogos, se exponen seis. Las dos primeras subrayan el hilo conductor del trabajo realizado, que radica en la cualidad genérica de las estrategias proyectuales en Sejima-SANAA. Las cuatro siguientes dilucidan hasta qué punto hay, en sus proyectos, rasgos o significantes formales y/o estructurales que sean a su vez señales características del panorama arquitectónico contemporáneo; y plantean la pregunta estrella: ¿hay algunos que, apuntando más lejos, supongan aportaciones originales? --Como aportaciones originales la tesis destaca: la identificación entre el ideal genérico y proyecto concreto; y la propuesta de un espacio nuevo, híbrido, una suerte de estadio intermedio entre el espacio subdividido y compartimentado de la tradición y el continuo moderno. --Como síntomas de contemporaneidad se destacan: respecto de la forma, la traslación de la especificidad formal de la parte al conjunto; y respecto de la estructura, la tendencia contemporánea a hacer estructuras cada vez más ligeras y livianas, que tienden a lo evanescente. Ésta última, la tendencia al evanescencia estructural, podría tener la condición de aportación original, no en vano la desaparición de la estructura lleva la evanescencia hacia sus últimas consecuencias, y en el caso de estructuras con presencia física, hace que dejen de ser el sistema ordenador orquestador del proceso proyectual. ABSTRACT The Thesis decodes a selection of twenty representative Sejima-SANAA projects, from the first one built, the Platform I House in 1987, to the Rolex Center in 2010, year in which Sejima and Nishizawa –SANAA- received the Pritzker Prize. Eleven projects are from Sejima: Platform I, Platform II, Saishunkan Seiyaku Women´s Dormitory, N- House, Pachinco Parlor I, Villa in the Forest, Policy Box at Chofu Station, Y-House, Gifu Kitigata Apartment, World City Expo ´96 Facilities Building, Pachinko Parlor III; and nine from SANAA: Multimedia Workshop in Ogaki, Metropolitan Housing Studies, Park Café in Koga, De Kunstlinie in Almere, Kanazawa Museum, Glass Pavilion at the Toledo Museum of Art, Zollverein School, Flower House and the Rolex Center. This decoding reads the Sejima-SANAA’s projects inversely aiming ‘to reconstruct', in a fictitious simulation exercise, a likely and coherent version of what her/their projectual processes ‘could’ have been; ‘could’, because the true ones are impossible to explain. The ones proposed here pretend only to be likely and reasonable. By so doing the Thesis tries to contribute to the understanding and comprehension of Sejima-SANAA architecture and, tangentially and to a lesser extent, to the theory of architectural projects exercise. Decoding centers in two specific aspects: architectural form, and projectual role of the load bearing structure. Both decodes inevitably extend to other related aspects such as, for example, the nature of space. The research procedure begun by carrying out an objective and detailed description of the formal and structural signifiers of each project; looking at them from their physical and geometric configuration. Taken to the limit, the ‘objective’ descriptions allowed the conceptual structures and underlying logics of each project to arise. Together with critical interpretations, which related and confronted them with other architectures and well-known projectual working ways, it became possible to outline and trace the intended fictitious reconstruction decodes. The descriptive analytical work materialized in twenty critical essays, and was accompanied by a set of other essays on subjects suggested or demanded by the research process. Together, all those texts were the material basis on which thesis work was built. Looking at the whole and taking it from there, the thesis identifies two related projectual trajectories: a trajectory of formal strategies and a trajectory of strategies having to do with structural systems and components. Both, together, constitute the bulk of the thesis, as presented in the four central chapters. Preceding them there is an introductory chapter outlining the biographical path of Kazuyo Sejima and the professional trajectory of Sejima-SANAA. And following them there is another one containing transversal texts on form, place and space. The thesis ends with a synthesis on conclusions. The formal strategies are displayed in three chapters. The first one, `Early formal strategies' groups the first phase projects by Sejima. The second one, ‘Formal strategies of Gifu’s paradigm’, is entirely dedicated to the Gifu apartments project, 1994-98, which according to this thesis meant an important inflexion point in Sejima’s trajectory; so much so that the third chapter is named `Formal strategies after Gifu' and gathers the selected projects that followed it. The ‘Early formal strategies', diverse and tentative, move in general around two well-known projectual composition methods ‘composition by parts’, and ‘systematic composition’. This last one –systematic composition- begins and leads in SANAA’s trajectory an aspect which will remain relevant from here on: the understanding of the project as if it were an specific instance of a generic proposal in which -below and beyond the project tangible reality- there lays a logic that could be applicable at other places, for other dimensions, even with other programs; from each project, other projects of the same family could rise. The set of projects using this systematic composition method include, among others, the ‘Platform II House, based on the definition of a constructive element and of rules having to do with its replicas and their possible groupings. It also includes the Saishunkan Seiyaku Women Residence -project that launched Sejima to international fame- that could also be seen as a system, but of a different kind: a system based on the regular repetition of a series of elements along a directive line, thus generating a hypothetical infinite container of which the project would be only a fragment. The formal strategy of the Gifu apartments building would push further towards the generic project concept, adopting the logic of a game. The project would be a bout, a round, one play…, but not the only possible one; others could be played. The thesis confirms this game hypothesis -after having formulated `The Game of Gifu' and identified its elements (board, chips, rules and procedures)- playing the one play from which the building as projected by Sejima would have raised. Gifu extends the concept of ‘repeating a constructive element’ to that of ‘repeating a space pattern element’, and to what it implies: the decoupling of form and function, leading to a new concept of flexibility that no longer refers to the flexible use of the constructed building but to the projectual moment at which the specific functions are assigned to the space patterns. This thesis proposes that this allocation of functions would be one of the last steps in projectual process, quite opposite from the modern premise: “form follows function”. The Formal strategies after Gifu do also have a game logic; but, as their names reveal, each strategy responds to a different game: ‘Game Boards’, present with different maturity levels in several projects; ‘Elements from a Catalogue’, in the Kanazawa Museum; ‘Aprioristic Form’, in the Flower House; and ‘Repetition of a topologic situation', in the Rolex Center. All of these strategies, or games, maintain common aspects having to do with architectural form; aspects that were already present, precisely, in Gifu: repetition of space pattern units, uncoupling of form and function, and a new meaning of flexibility. -`Game Boards’ consists on setting up a base geometry -each project his, generally reticular- and give form to each project system (structure, closings, partitions and furniture) by choosing elements -intersections, lines, modules- it offers. Each project system is formed, in principle, with no subordinated relation with any of the others; when subordination is unavoidable, the game rules determine that the load bearing structural system may not be the one to materialize the base geometric order, which means that it does not exert the dominant role. Therefore, ‘Game Boards' transgresses the Modern logic, because the structure neither reflects nor reveals the base order, and because the systems do not respect any of the hierarchic and chained subordination relations that the ‘free plan’ called for. ‘Game Boards' leads to quite different solutions and formal projects: the Oogaki and Park Coffee projects show incipient Game Boards; The Almere Kunstlinie and the Zollverein School present consolidations of this strategy; and the Toledo’s Glass Pavilion results from subverting the strategy. In addition, the Toledo project takes the repetition concept beyond that of using a constructive element and a space pattern element (in this case with a bubble form) to end up affecting the personal experience of the spectator, who, wherever he is, feels to always be in the same place. This thesis denominates that repetitive space as ‘Mantra space '. -‘Elements from a Catalogue’ is shown with the Kanazawa Museum. Its logic starts from the definition of a series of elements, very few, and it is based on the huge number of possible combinations among them. The ‘Elements from a Catalogue’ approach was announced in the Gifu project when characterizing its space pattern elements. -Aprioristic Form' is illustrated by the Flower House. The decision on the type of form -in this case the form of an amoeba- would be the beginning of the projectual process, but it does not mean it is arbitrary form: the amoeba form implies repeating a space pattern (pseudopodia) and an apotheosis of the repetition concept: embracing the space experience, it gives rise to a repetitive or mantra space. ‘Mantra Space’ is one of leitmotivs used as an argument in the last formal strategy Thesis decodes: the Rolex Center. With respect to the ‘Projectual strategies of the load bearing structure’, the thesis finds and traces a trajectory of five projectual strategies: ‘preeminence, concealment, dissolution, disappearance and desvirtuación’. --Preeminence is present in Sejima’s first works in which she resorts to structures which have a dominant preeminent role in the project in so far as they impersonate the greater scale and/or materialize the base geometric order. In later works that preeminence will be inverted, the projects aiming towards its opposite: lighter, slighter, smaller structures. -Concealment reduces the dominant role of the structure. At the outset concealment is literal, almost hiding the structural elements, as in Gifu; soon it will become more sophisticated, such as the concealment by camouflage or the paradoxical concealment by multiplication in the Koga Park Café. -Dissolution diminishes the dominant condition of the structure: instead of its’ being configured as unitary or homogenous system is fragmented in several subsystems. -Disappearance talks about structures that fade away as self referred and independent systems; projects in which the load bearing function is carried out by other systems such as the set of partitions. Disappearance reaches its zenith at the Flower House, whose perimeter functions structurally being, in addition, transparent, immaterial: its structure has become invisible, has disappeared. -Desvirtuación talks about structures that do appear like independent self-systems, but which that do not longer have a preeminent paper, inasmuch as they do not materialize the base order. This strategy correlates with the ‘Game Boards’ formal strategy. The thesis conclusions are show by the organization of the thesis itself: its identification of the different strategies. Even so, as epilogues, the thesis exposes six ‘Conclusions’. The first two emphasize the leading thread of the work done, rooted in the generic quality of the Sejima-SANAA projectual strategies. The following four expound to what extent their projects show features, or formal and/or structural signifiers, which also are or can be read as characteristic signals of the contemporary architectonic panorama, and raise the key question: aiming farther, may some of them be taken as original contributions? -As original contributions the conclusions highlight: the identification between the generic ideal and the concrete project; and the proposal of a new, hybrid space, kind of an intermediate stage between the traditional subdivided compartmented space and the continuous modern. -As symptoms of contemporaneousness: in relation to the form it highlights the transferring of the formal specificity from the part to the whole; and in relation to the structure, it underscore the contemporary tendency towards lighter and growingly slimmer structures, tending to the evanescent. This last one, the tendency towards structural evanescence, could have condition of being an original contribution, not in vain it carries the structural disappearance towards its last consequences; and in the case of structures with physical presence, it makes them to cease being the ordering system orchestrating the projectual process.
Resumo:
Este documento es una introducción con carácter divulgativo a los fundamentos matemáticos básicos empleados por Albert Einstein para la formulación de la teoría de relatividad general. La mayoría de ellos se pueden emplear en otros campos como la óptica no lineal o la teoría de cuerdas, donde muchas expresiones deben tener el carácter de covarianza general, es decir, sus expresiones no deben depender del sistema de referencia escogido.
Resumo:
Este documento es una introducción con carácter divulgativo a los fundamentos matemáticos básicos empleados por Albert Einstein para la formulación de la teoría de relatividad general. La mayoría de ellos se pueden emplear en otros campos como la óptica no lineal o la teoría de cuerdas, donde muchas expresiones deben tener el carácter de covarianza general, es decir, sus expresiones no deben depender del sistema de referencia escogido.
Resumo:
En el trabajo se ha reflejado la génesis del término „desarrollo sostenible‟ y la preocupación social y de los gobiernos hacia la sostenibilidad de los recursos, generando una política forestal a escala internacional, cuyo hito inicial desempeña la Cumbre de Rio y otros procesos, donde surge el término „sostenibilidad‟ - procesos gubernamentales que ponen su atención en los bosques,entre ellos el Proceso paneuropeo del que emanan los Criterios e indicadores de la gestión forestal sostenible, así como otros foros donde aparece la vinculación entre los productos y la sostenibilidad de los bosques de donde proceden. A partir de esos conceptos aparecen los sistemas de certificación, primero FSC, promovido por las ONG ambientalistas, y en respuesta a ello, el sistema PEFC de los propietarios forestales privados con las industrias forestales. En su introducción, el trabajo recoge como surge y evoluciona esta preocupación y como se sucede y desarrollan los sistemas de certificación en España, orientados tanto a la superficie forestal como a sus productos derivados. Tratando de ser una herramienta técnica, en estos últimos quince años, se han ido planteando metodologías y propuestas técnicas que puedan garantizar el origen sostenible del bosque de donde procede la materia prima. Aunque la persistencia de la masa forestal como término tiene importancia, no considera numerosos aspectos incluidos en el concepto “gestión forestal sostenible”. El trabajo manifiesta qué es y cómo se origina la Gestión Forestal Sostenible y muy ligado con ello, el origen de la certificación como herramienta, explicando cómo se incardina la certificación forestal española con las estructuras internacionales y se construyen nuevas estructuras a escala española y autonómica. Se expone el dominio y alcance técnico de la certificación, sus inicios y un análisis de la diversidad de sistemas y etiquetas existentes -como ha ido evolucionando a escala internacional y nacional, por sistemas, sectores y continentes, con especial atención en España, recopilando lo sucedido relevante para el sector forestal, industrias forestales y sistemas de certificación en los años de estudio de elaboración de la tesis. Se refleja la relevancia que adquiere la certificación forestal y de la cadena de custodia para la industria del papel, tanto por las regulaciones, normativas y legislación que involucran al producto derivado del bosque como por ser herramienta que enlaza el bosque sostenible con el consumidor. La aplicación de todas esas especificaciones técnicas que muestran la sostenibilidad del bosque y al trazabilidad en el proceso productivo comporta una carga administrativa de recopilación de información, de control para el seguimiento asociado con los registros necesarios, y de archivo de documentos, conforme a las exigencias que plantean los sistemas de certificación forestal. Por tanto, es importante definir un método y procedimientos genéricos para los correspondientes sistemas de gestión preexistentes en las empresas del sector de pasta y papel (de calidad/ de medio ambiente/integrados), para implantar un Sistema de Cadena de Custodia genérico (común a FSC y PEFC) en una instalación de celulosa y papel y un sistema de diligencia debida. Para ello, ha sido necesario analizar la línea de producción y establecer los puntos de su diagrama en los que se requiere el control de la trazabilidad, puntos en los que se procede al seguimiento y registro de la materia prima, materia semielaborada y producto, y de ahí proceder a redactar o retocar los procedimientos de gestión calidad/ medioambiental, en su caso, para incluir los campos de registro. Según determinen los procedimientos, se efectuará un seguimiento y registro de los, derivados que configuran una característica y se determinará una serie de indicadores del sistema de trazabilidad de la madera en la industria de celulosa y papel, es decir, un conjunto de parámetros cuantitativos y descriptivos, sujetos al seguimiento de forma periódica, que muestren el cambio y permitan observar la evaluación y control del Sistema de Cadena de Custodia. Además de asegurar la trazabilidad de la madera y fibra en la industria de pasta y papel y con ello la sostenibilidad del bosque del que procede, se avalará la legalidad de los aprovechamientos que proporcionan ese recurso maderable, cumpliendo así no sólo la legislación vigente sino también ambos sistemas de certificación FSC y PEFC. El sistema de cadena de custodia de la pasta y papel se caracteriza por los indicadores de seguimiento que permite el control de la trazabilidad. ABSTRACT This paper traces the origins of the term „Sustainable Development‟ and of both citizen and institutional concern for the sustainability of resources, leading to the enactment of a forestry policy at international level, of which the initial milestones are the Rio Summit and other processes in which the term „Sustainability‟ was born. Those forestfocused institutional initiatives include the pan-European process that led to the publication of Sustainable Forest Management Criteria and Indicators, and other forums that highlight the link between finished wood-based products and the sustainability of the forests from which that wood is sourced. Those concepts were the culture in which forest certification systems were engendered, first FSC, promoted by environmental NGOs, and subsequently PEFC, fostered in response to FSC by private forest owners and forest-based industries. In its Introduction, this paper looks at how such concern arose and has evolved and how certification systems came into existence in Spain and developed to encompass both forest lands and forest-based products. As part of a mission to provide an applicable technical tool, new methodologies and technical proposals have been put forward over the past fifteen years aimed at guaranteeing the sustainable origin of the forest from which raw material is sourced. Although the maintenance of forest stands as a term in its own right is important, it does not take many of the aspects included in the concept of “sustainable forest management” into account. This thesis describes what SFM is and how it was born, underlying the close link between SFM and the origin of certification as a tool, explaining how Spanish forest certification is embodied in international structures, while new structures are built here in Spain on both the national and regional scale. This work also details the domain and scope of forest certification from the technical standpoint, explains its beginnings, and assesses the various systems and labels that exist - how certification has evolved internationally and nationally across systems, sectors and continents, with special emphasis on Spain. It provides a compilation of events relevant to forestry, forest industries and forest certification systems that have taken place during the years this thesis has been in preparation. It reflects on the relevance that forest and chain of custody certification holds for the paper industry, in view not only of the regulations, policies and legislation that affect forest-based products but also of its role as a tool that bonds the sustainable forest with the consumer. Implementing the range of technical specifications to demonstrate forest sustainability and traceability throughout the production process entails the administrative burden of collecting information and providing controls to process the relevant records and documents to be kept on file in compliance with the requirements made by forest certification schemes. It is therefore important to define a generic method, together with its relevant procedures,that fits the management systems (quality / environmental / integrated)existing today in pulp and paper companies, in order to implement a generic Chain of Custody scheme (common to FSC and PEFC) in a pulp and paper mill, and a due diligence system. To achieve that, it has first been necessary to analyse the production line and establish points along the route where traceabilitycontrols need to be implemented and points where raw material, semi-finished goods and end products should be monitored and recorded. Subsequently, the procedures in quality / environmental management systems need to be drafted or amended as required to include fields that reflect those records. As required by the procedures, forest-based products that have a specific characteristic shall be monitored and recorded, and a number of indicators identified in the traceability system of wood for pulp & paper, i.e.createa set of quantitative and descriptive parameters subject to regular monitoringthat reveal changes and enable the Chain of Custody system to be assessed and controlled. In addition to ensuring the traceability of wood and fibre in the pulp and paper industry -and so the sustainability of the forest from which it is sourced -, the legality of the harvesting that produces that timber will also be enhanced, thus fulfilling not only the law but also both FSC and PEFC certification schemes. The chain of custody system for pulp and paper is characterised by monitoring indicators that enable traceability to be controlled.
Resumo:
El presente trabajo de Tesis se ha centrado en el diseño, fabricación y caracterización de dispositivos basados en fibras de cristal fotónico infiltrado selectivamente con cristales líquidos, polímeros y una mezcla de ambos. Todos los dispositivos son sintonizables, y su área de aplicación se centra en comunicaciones ópticas y sensores. La manipulación y fusionado de fibras fotónicas, el llenado selectivo de determinadas cavidades y la alineación recíproca de fibras mantenedoras de polarización son tareas muy específicas y delicadas para las que se requieren protocolos muy estrictos. Previo a la fabricación de dispositivos ha sido necesaria por tanto una tarea de sistematización y creación de protocolos de fabricación. Una vez establecidos se ha procedido a la fabricación y caracterización de dispositivos. Los dispositivos fabricados se enumeran a continuación para posteriormente detallar una a una las singularidades de cada uno. • Interferómetros intermodales hechos a partir de una porción de fibra fotónica soldada entre dos fibras estándar, bien monomodo o PANDA (mantenedora de polarización). Estos interferómetros han sido sumergidos o bien llenados selectivamente con cristales líquidos para así sintonizar la señal interferométrica guiada a través de la fibra. • Infiltración de fibras fotónicas con cristales líquidos colestéricos con especial énfasis en la fase azul (blue phase) de estos materiales. Las moléculas de cristal líquido se autoalinean en volumen por lo que la infiltración de fibras fotónicas con estos cristales líquidos es muy interesante, pues es conocida la dificultad de alinear apropiadamente cristales líquidos dentro de cavidades micrométricas de las fibras fotónicas. • Grabación de redes holográficas de forma selectiva en las cavidades de una fibra fotónica. Estas redes holográficas, llamadas POLICRYPS (POlymer-LIquid CRYstal-Polymer Slices), son redes fabricadas a base de franjas de polímero y cristal líquido alineado perpendicularmente a dichas franjas. Las franjas son a su vez perpendiculares al eje de la fibra como lo puede ser una red de Bragg convencional. El cristal líquido, al estar alineado perpendicularmente a dichos franjas y paralelo al eje de la fibra, se puede conmutar aplicando un campo eléctrico externo, modificando así el índice efectivo de la red. Se puede fabricar por lo tanto una red de Bragg sintonizable en fibra, muy útil en comunicaciones ópticas. • Llenado selectivo de fibras fotónicas con polidimetilsiloxano (PDMS), un polímero de tipo silicona. Si se realiza un llenado selectivo asimétrico se puede inducir birrefringencia en la fibra. El índice de refracción del PDMS tiene una fuerte dependencia térmica, por lo que se puede sintonizar la birrefringencia de la fibra. • Estudio teórico de llenado selectivo de fibras fotónicas con PDMS dopado con nanopartículas de plata de 5, 40 y 80 nm. Estas nanopartículas poseen un pico de absorción en torno a los 450 nm debido a resonancias superficiales localizadas de plasmones (LSPR). La resonancia del plasmon tiene una fuerte dependencia con el índice de refracción del material colindante, y al ser éste PDMS, la variación de índice de refracción se ve amplificada, obteniendo una absorción sintonizable. Se ha propuesto la fabricación de polarizadores sintonizables usando esta técnica. Como ya se ha dicho, previamente a la fabricación ha sido necesaria la protocolización de diversos procedimientos de fabricación de alta complejidad, así como protocolizar el proceso de toma de medidas para optimizar los resultados. Los procedimientos que han requerido la formulación de protocolos específicos han sido los siguientes: • Llenado selectivo de cavidades en una fibra fotónica. Dichas fibras tienen generalmente un diámetro externo de 125 μm, y sus cavidades son de entre 5 y 10 μm de diámetro. Se han desarrollado tres técnicas diferentes para el llenado/bloqueado selectivo, pudiéndose combinar varios protocolos para la optimización del proceso. Las técnicas son las siguientes: o Llenado y bloqueado con un prepolímero. Dicho prepolímero, también llamado adhesivo óptico, está inicialmente en estado líquido y posee una cierta viscosidad. Las cavidades de la fibra fotónica que se desea llenar o bloquear poseen un diámetro diferente al resto, por lo que en el proceso de llenado aparecen dos frentes de llenado dependientes de su diámetro. A mayor diámetro, mayor velocidad de llenado. Polimerizando cuando existe dicha diferencia en los frentes se puede cortar por medio, obteniendo así una fibra parcialmente bloqueada. o Colapsamiento de las cavidades de menor diámetro mediante aplicación de calor. El calor producido por un arco voltaico de una soldadora de fibra estándar fusiona el material exterior de la fibra produciendo el colapsamiento de las cavidades de menor diámetro. En esta técnica también es necesaria una diferencia de diámetros en las cavidades de la fibra. o Bloqueo una a una de las cavidades de la fibra fotónica con adhesivo óptico. Este procedimiento es muy laborioso y requiere mucha precisión. Con este sistema se pueden bloquear las cavidades deseadas de una fibra sin importar su diámetro. • Alineación de una fuente de luz linealmente polarizada con una fibra mantenedora de polarización ya sea PANDA o fotónica. Así mismo también se han alineado entre sí fibras mantenedoras de polarización, para que sus ejes rápidos se fusionen paralelos y así el estado de polarización de la luz guiada se mantenga. • Sistematización de toma de medidas para caracterizar los interferómetros modales. Éstos son altamente sensibles a diversas variables por lo que el proceso de medida es complejo. Se deben aislar variables de forma estrictamente controlada. Aunque todos los dispositivos tienen en común el llenado selectivo de cavidades en una fibra fotónica cada dispositivo tiene sus peculiaridades, que van a ser explicadas a continuación. ABSTRACT The present Thesis has been centered in the design, fabrication and characterization of devices based on photonic crystal fibers selectively filled with liquid crystals, polymers and a mixture of both. All devices are tunable and their work field is optical communications and sensing The handling and splicing of photonic crystal fibers, the selective filling of their holes and the aligning of polarization maintaining fibers are very specific and delicate tasks for which very strict protocols are required. Before the fabrication of devices has therefore been necessary task systematization and creation of manufacturing protocols. Once established we have proceeded to the fabrication and characterization of devices. The fabricated devices are listed below and their peculiarities are detailed one by one: • Intermodal interferometers made with a portion of photonic crystal fiber spliced between two optical communication fiber pigtails, either single mode or PANDA (polarization-maintaining) fiber. These interferometers have been submerged or selectively filled with liquid crystals to tune the interferometric guided signal. • Infiltration of photonic fibers with cholesteric liquid crystals with special emphasis on their blue phase (blue phase). The liquid crystal molecules are self-aligning in volume so the infiltration of photonic fibers with these liquid crystals is very interesting. It is notoriously difficult to properly align liquid crystals within micron cavities such as photonic fibers. • Selectively recording of holographic gratings in the holes of photonic crystal fibers. These holographic gratings, called POLICRYPS (POlymer-LIquid CRYstal-Polymes Slices), are based on walls made of polymer and liquid crystal aligned perpendicular to them. These walls are perpendicular to the axis of the fiber as it can be a conventional Bragg grating. The liquid crystal is aligned perpendicular to the walls and parallel to the fiber axis, and can be switched by applying an external electric field and thus change the effective index of the grating. It is thus possible to manufacture a tunable Bragg grating fiber, useful in optical communications. •Asymmetrically selective filling of photonic crystal fibers with a silicone polymer like called polydimethylsiloxane (PDMS) to induce birefringence in the fiber. The refractive index of PDMS has temperature dependence, so that the birefringence of the fiber can be tuned. • Theoretical study of photonic crystal fibers selectively filled with PDMS doped with silver nanoparticles of 5, 40 and 80 nm. These nanoparticles have an absorption peak around 450 nm due to localized surface plasmon resonances (LSPR). Plasmon resonance has a strong dependence on the refractive index of the adjacent material, and as this is PDMS, the refractive index variation is amplified, obtaining a tunable absorption. Fabrication of tunable polarizers using this technique has been proposed. Before starting the fabrication, it has been necessary to optimize several very delicate procedures and different protocols have been designed. The most delicate procedures are as follows: • Selective filling of holes in a photonic crystal fiber. These fibers generally have an outer diameter of 125 μm, and their holes have a diameter around between 5 and 10 μm. It has been developed three different techniques for filling / selective blocking, and they can be combined for process optimization. The techniques are: o Filling and blocked with a prepolymer. This prepolymer also called optical adhesive is initially in liquid state and has a certain viscosity. The holes of the photonic crystal fiber that are desired to be filled or blocked should have a different diameter, so that in the filling process appear two different fronts depending on the hole diameter. The holes with larger diameter are filled faster. Then the adhesive is polymerized when there is such a difference on the front. A partially blocked fiber is obtained cutting between fronts. o Collapsing of holes of smaller diameter by application of heat. The heat produced by an arc of a standard fusion splicer fuses the outer fiber material producing the collapsing of the cavities of smaller diameter. In this technique also you need a difference of diameters in the fiber holes. o Blocking one by one the holes of photonic crystal fiber with optical adhesive. This procedure is very laborious and requires great precision. This system can block unwanted cavities regardless fiber diameter. • Aligning a linearly polarized light source with a polarization-maintaining fiber (either a PANDA fiber as a photonic crystal fiber). It is needed also an aligning between polarization-maintaining fibers, so that their fast axes parallel merge and that is state of polarization of light guided is maintained. • Systematization of taking measurements to characterize the modal interferometers. These are highly sensitive to several variables so the measurement process is very complicated. Variables must be fixed in a very controlled manner. Although all devices have the common characteristic of being selectively filled PCFs with some kind of material, each one has his own peculiarities, which are explained below.