83 resultados para La hipótesis de Justo
em Universidad Politécnica de Madrid
Resumo:
El buen dimensionado de los elementos de evacuación de los edificios es fundamental para conseguir una evacuación segura de los ocupantes en un evento accidental de fuego. Para ello es necesario conocer previamente la asignación de personas que previsiblemente los van a utilizar en caso de emergencia. En el presente trabajo de investigación, se desarrolla un método de cálculo que permite abarcar todos los escenarios posibles de bloqueos en caso de incendio permitiendo así conocer de antemano las distribuciones de personas en las vías de evacuación de manera conservadora. Dicho método de cálculo es aplicable tanto la justificación del cumplimiento de CTE DB-SI3, como en cualquier reglamentación internacional de protección contra incendios. ABSTRACT A good dimensioning of egress and elements of evacuation in buildings is essential for a safe evacuation of occupants in event of accidental fire. This requires prior knowledge of allocated number of people that will use them in an emergency. In this research, a calculation method is developed to cover every possible scenario of unavailable exit in case of fire, thereby allowing to know in advance the distributions of people on the escape routes and conservatively. This calculation method is applicable to both the confirmation of compliance with Spanish regulations, as in any international fire code.
Resumo:
Esta tesis examina el papel de la red viaria y el planeamiento urbanístico en la localización de las actividades terciarias. A partir de los años sesenta se produce una modificación de los patrones de comportamiento espacial de las actividades productivas. En la raíz de estos cambios está los procesos de globalización e internacionalización de la economía y un importante aumento de la utilización vehículos privados. Todo ello da lugar a una preocupación entre los profesionales por la identificación de variables en esa organización espacial, y por la búsqueda de modelos que mejorasen las condiciones de competitividad en el entramado urbano, reclamado también la formulación de conceptos diferentes, capaces de entender los cambios territoriales de la reestructuración permanente en que viven las economías capitalistas avanzadas. En este marco, hay un aumento importante de las actividades terciarias o proceso de terciarización; que es el principio basilar para la suburbanización de este sector. Consiste, en buena medida, en unas necesidades de descentralización y dispersión de las actividades terciarias por todo el territorio, con demandas de nuevos espacios para todo tipo de actividades empresariales. Se va así generando un espacio urbano complejo, con nuevas actividades, distintas de la residencial, y con tipologías edificatorias diferentes: centros comerciales, hipermercados, zocos o edificios de empresas dedicadas a servicios avanzados y altamente cualificados. Adquiere, por tanto, un fuerte protagonismo los espacios periféricos de las grandes ciudades. En la transformación de este territorio interviene el planeamiento urbanístico porque prevé la ocupación del suelo y la forma de uso. Y también la carretera considerada clave en el desarrollo histórico de la ciudad. Consecuentemente, se impulsan una plétora de nuevas líneas de investigación y nuevas formas de aproximación al estudio de las relaciones entre las infraestructuras viarias y los usos del suelo. El interés del proyecto de investigación es, por todo ello, estudiar en que medida la localización del terciario depende del planeamiento urbano y de las variaciones en la red viaria. Es decir, la hipótesis de este trabajo se puede enunciar diciendo que: en la aparición del terciario inciden dos variables, el planeamiento urbanístico y la red viaria; lógicamente siendo consciente de la dificultad intrínseca de separar algún parámetro y sus relaciones de un sistema funcional urbano. Centrando este enfoque sobre el caso particular del corredor de la carretera de La Coruña (N-VI) situado en el oeste de la Comunidad de Madrid. Es un ámbito suburbano que comprende los términos municipales de Las Rozas y Majadahonda, un segmento del municipio de Madrid (abarca los barrios de Aravaca, el Plantío y Valdemarín, y una pequeña superficie de la Casa de Campo, Ciudad Universitaria y El Pardo), y la mitad septentrional del municipio de Pozuelo de Alarcón. La conclusión general a la que se ha llegado es que se trata de un fenómeno complejo, en el que se detecta que: A) La aprobación de un nuevo Plan Urbanístico no supone un cambio inmediato en la evolución cuantitativa de la implantación de actividades terciarias en edificio exclusivo en el área de estudio. B) Se evidencia una relación directa entre la implantación de una nueva infraestructura de transporte o modificación de algún elemento importante y el crecimiento de la localización de actividades terciarias. C) Resulta difícil verificar que cuando confluyen mejoras o nuevas construcciones en la red viaria y una estrategia en el planeamiento dirigida a la ordenación e intervención del espacio terciario, el número de edificios terciarios aumente. ABSTRACT This thesis examines the role of road networks and urban planning in the location of tertiary activities. Since the sixties there is a modification of spatial behavior patterns of production activities. At the root of these changes is the process of globalization and internationalization of the economy and a significant increase in private car use. This leads to a concern among professionals in the identification of variables in the spatial organization, and the search for models that would improve the competitive conditions in the urban framework, also called for the formulation of different concepts, able to understand the changes territorial restructuring that live permanently in the advanced capitalist economies. In this context, there is a significant increase in tertiary activities or process outsourcing, which is the beginning basilar to the suburbanization of the sector. It consists, in large part, on the Needs of decentralization and dispersal of tertiary activities throughout the territory, demands for new spaces for all types of business activities. It is thus generating a complex urban area, with new activities, other than residential and with different building typologies: shopping malls, hypermarkets, souks and buildings of companies engaged in advanced and highly skilled services. Thus takes strong role peripheral areas of big cities. In the transformation of this region is involved in providing for urban planning land use and how to use. And the road is considered key in the historical development of the city. Consequently, they are promoting a plethora of new research and new ways of approaching the study of the relationship between road infrastructure and land use. The interest of the research project is, for all that, consider to what extent depends on the location of tertiary urban planning and changes in the road network. That is, the hypothesis of this work can be stated by saying that: the emergence of two variables affecting tertiary, urban planning and road network, of course being aware of the inherent difficulty of separating any parameters and functional relationships of an urban. Approach focusing on the particular case of the road corridor from La Coruña (N-VI) located in the west of Madrid. It is a suburban area comprising the municipalities of Las Rozas and Majadahonda, a segment of the city of Madrid (covering the districts of Aravaca, the planting and Valdemarín, and a small area of the Casa de Campo, Ciudad Universitaria and El Pardo) , and the northern half of the town of Pozuelo de Alarcón. The general conclusion has been reached is that this is a complex phenomenon, which is detected: A) The approval of a new Urban Plan is not an immediate change in the quantitative evolution of the implementation of tertiary activities in exclusive building in the study area. B) It shows a direct relationship between the introduction of a new transport infrastructure or amendment to an important and growing element of the location of tertiary activities. C) It is difficult to verify that when improvements or new construction come together in the road network and planning a strategy aimed at the management and intervention of third space, the number of commercial buildings increases.
Resumo:
Se analiza el sistema constructivo, estructura y acabados, del aljibe de época almohade de la Casa de las Veletas de Cáceres, cuya datación está en torno a los siglos X a XII. Cconstruido en base a once columnas y un pilar, son de ladrillo los dieciséis arcos de herradura levantados en dirección NE-SO, y las cinco bóvedas de cañón, que descansan sobre los mismos. Los muros son de tapia tipo tabiya, los enlucidos de cal, y el hallazgo de una moldura plantea la hipótesis de la existencia de decoraciones, por lo que originariamente pudo haber tenido otro uso. Los estudios se apoyan en la documentación histórica, lectura muraria y caracterización de morteros por FTIR.
Resumo:
La siguiente tesis nace a partir de la implementación de la actividad de buceo deportivo en el año 2002 en la Caleta de pescadores artesanales de Maitencillo, quinta región, Chile. Los pescadores administran, para su explotación, un tipo de área marina protegida llamada área de manejo y explotación de recursos bentónicos (AMERB), por lo que se hizo indispensable implementar un Plan de Gestión para el buceo deportivo con la finalidad de regular y controlar la actividad para proteger los recursos existentes en el área, sus ecosistemas y su biodiversidad. Para ello, se construyó un Sendero Submarino con 3 circuitos para el buceo. La tesis contextualiza el desarrollo y ejecución del proyecto y evalúa el Plan de Gestión y la utilización del Sendero Submarino y, para ello, se desarrolla una metodología para el cálculo de la capacidad de carga del Sendero y para la evaluación del Plan de Gestión, a través de indicadores biofísicos, socioeconómicos y de gobernabilidad. Esta tesis plantea un modelo de desarrollo a partir del principio del Ecodesarrollo, destacando, principalmente, que es la comunidad local de pescadores artesanales quien ejecuta y administra el proyecto, sin necesidad de recurrir a operadores privados de buceo y, por tanto, logrando para si los beneficios y el control de la actividad; por otro lado, destaca también que es una actividad a baja escala, con bajos impactos ambientales y por tanto sustentable y replicable para otras organizaciones de pescadores. Los resultados indican que con la información biofísica obtenida se pueden tomar medidas de gestión para la actividad de buceo de acuerdo al estado de los recursos bentónicos principales explotados por los pescadores, ya sea restringiendo la actividad, o suspendiéndola por algún período. Los resultados muestran que la cantidad de buceadores que utilizan el Sendero Submarino está muy por debajo de la capacidad de carga calculada, lo que hace que la presión de esta actividad sobre los recursos y el ecosistema marino sea muy baja. Los resultados socioeconómicos y de gobernabilidad indican que esta actividad ha generado ingresos adicionales para los pescadores que trabajan en esta actividad y también ha generado nuevos puestos de trabajo; además, la organización sindical se ha ido fortaleciendo al crear la comisión de ecoturismo y dar responsabilidades a otros pescadores en la gestión de la actividad. La tesis confirma la hipótesis de que “Los Senderos Submarinos pueden ser una forma de turismo sostenible en áreas marinas protegidas”. The present thesis is based on the implementation of scuba diving activities in the year 2002, in the local fishing cove of Maitencillo, Fifth region, Chile. The local fishermen manage the exploitation process of a type of protected marine area called benthic resource management and exploitation area (BRMEA); for this reason, the implementation of a Management programme for scuba diving to regulate and control this activity to protect the resources in the area, their ecosystems and biodiversity, became a priority. In 2002, an Underwater Path was built, with three tracks for scuba diving practice. This thesis contextualises the development and implementation of the Management programme and the use of the Underwater Path. It also develops a methodology to calculate the payload for the Underwater Path, and to assess the Management project through biophysical, economic and governance indicators. This thesis also proposes a development model by the principle of Sustainable development, with the local community of fishermen implementing and handling the project, without the intervention of private diving agencies, generating economic and social benefits, keeping environmental impact to a minimum level, and making it sustainable and worth emulating for other fishermen organisations. The results indicate, through the biophysical data obtained, that it is possible to take managerial measures regarding the scuba diving activity, according to the state of the most exploited benthic resources, by either restricting the activity or plainly suspending it for some time. The results show that the amount of divers using the Underwater path are way below the calculated payload, which keeps the strain that scuba diving causes on these resources and marine ecosystem to the minimum. The results of the socioeconomic and governance issues indicate that this activity has generated additional profits for the fishermen working in this activity, and also new jobs. Furthermore, the syndicate has strengthened thanks to the creation of an ecotourism commission and by assigning other local fishermen with responsibilities in the organisation of the activity. The thesis confirms the hypothesis that states, “Underwater Paths can become a form of sustainable tourism in protected marine areas”
Resumo:
La necesidad de una movilidad más sostenible en nuestras ciudades hacen que la bicicleta tome cada vez mayor importancia como modo de transporte urbano. A su vez, también aumenta el interés de los investigadores por conocer mejor los factores relacionados con el uso de la bicicleta. Tradicionalmente se ha prestado atención a los factores relacionados con el uso de la bicicleta que son directamente observables, dejando en un segundo plano las percepciones, actitudes o normas sociales de los usuarios respecto a este modo de transporte. Esta tesis ha profundizado en este segundo tipo de factores mediante la búsqueda de variables latentes que puedan definirlos. Se parte contemplando las características de la bicicleta como modo urbano de transporte y los condicionantes territoriales para su uso. En los siguientes capítulos se hace un repaso exhaustivo de los factores que condicionan el uso de la bicicleta en la literatura científica. También se profundiza en el planteamiento de las teorías del comportamiento del usuario de transporte para poder desarrollar el marco teórico sobre el que enfocar la búsqueda de las variables latentes. Finalmente, se repasa el tratamiento recibido por la bicicleta en las técnicas de análisis de la demanda. La hipótesis de partida mantenida plantea que las variables psicosociales pueden ser especialmente influyentes en la decisión de usar la bicicleta. Estas variables, junto con las variables tradicionales de los usuarios de transporte, mejorarían el conocimiento que tenemos sobre los factores que inciden en su uso. Con la finalidad de poder explorar e identificar estas variables se propone una metodología basada en modelos de ecuaciones estructurales. Estos modelos permiten contemplar las interacciones entre variables y trabajar con variables latentes que medimos a través de indicadores. Aplicando la metodología propuesta a un caso de estudio en la Ciudad Universitaria de Madrid se ha podido identificar cuatro variables latentes: conveniencia, probici, limitaciones externas y condicionantes físicos. Estas variables mejoran el conocimiento sobre los factores explicativos de la decisión de usar la bicicleta entre los usuarios de Ciudad Universitaria.
Resumo:
El ruido como fenómeno físico capaz de generar molestias y de impactar la salud es uno de los agentes perturbadores presentes en las comunidades del siglo XXI, principalmente en las grandes urbes donde existe concentración poblacional, tal es el caso de la ciudad de Barquisimeto, capital del estado Lara en Venezuela, la cual ocupa el cuarto lugar en importancia a nivel nacional según criterios de ubicación geopolítica, densidad poblacional, infraestructuras, actividades económicas y educativas. La presente tesis doctoral, cuya área de emplazamiento es el centro de dicha ciudad, consiste en una investigación científica experimental de carácter correlacional, en la que se estableció la siguiente hipótesis �a mayor tiempo de exposición al ruido, mayores efectos neurológicos y psicológicos en la población que ocupa el centro de Barquisimeto�. Su singularidad y relevancia radica en articular el estudio del ruido como agente físico con la incidencia de éste en la actividad bioeléctrica cerebral humana y sus efectos en las inteligencias múltiples, tomando como basamento la teoría de las inteligencias múltiples del Dr. Howard Gardner, catedrático de la Universidad de Hardvard, siendo un importante aporte científico en el campo de la física, la medicina y la psicología. Para alcanzar la cristalización de la presente investigación, se realizó una revisión del estado del arte sobre la temática abordada. Tras analizar las fuentes, tanto bibliográficas como digitales, se diseñó el desarrollo de la misma gestionándose la autorización de la Alcaldía del Municipio Iribarren, tomando en consideración que en la fase experimental se aplicaron instrumentos de recolección de datos y se realizaron mediciones en espacios públicos. La fase experimental se ejecutó en seis etapas, obedeciendo a las siguientes variables: a.) Percepción neurológica y psicológica (estudio subjetivo); b) Sonoridad; c.) Dosimetría; d.) Valoración neurológica; e) Valoración psicológica sobre las inteligencias múltiples; f) Mapa de conflicto acústico. En relación al estudio subjetivo se tomó una muestra recurriendo al muestreo aleatorio estratificado, quedando conformada por 67 Residentes, 64 Funcionarios Públicos, 66 comerciantes formales y 64 Comerciantes Informales para un total de 261 sujetos, a los que se viiiaplicó una encuesta titulada Cuestionario Ruambar, conteniendo 30 Ítemes sobre la percepción de efectos neurológicos y psicológicos del ruido, utilizando la escala de Lickert. Para la toma de datos de la sonoridad y de la dosimetría se utilizaron métodos científicos estandarizados, usándose las normas ISO 1996-1, ISO 1999, los Decretos Reales 1367/2007 y el 286/2006; y los criterios técnicos de la OMS. Para lograr una mayor precisión y confiabilidad de los datos, se evaluó el cálculo de la incertidumbre según el documento GUM �Guide for the expresión of uncertainly in Measurement de la International Organization for Standardization� para medidas de categoría A. [JCGM 100:2008]. En cuanto a la valoración neurológica, se siguió el protocolo de la Sociedad Americana de Neurología. En el estudio neurológico participaron voluntariamente 192 sujetos, utilizándose un electroencefalógrafo Digital Stellate Systems con 18 electrodos que determinó la actividad bioeléctrica de los sujetos, estando sometidos a una estimulación sonora de 1000 Hz y a presiones sonoras de 20, 40, 60, 80 y 100 dB (A). Con respecto a la valoración psicológica del efecto del ruido sobre las inteligencias múltiples se diseñó el Test RUAMIN con 24 ítemes y con adaptación a una escala psicométrica. Con respecto a la prueba de hipótesis las correlaciones obtenidas son lineales positivas exceptuando el estrato funcionarios, confirmándose que se acepta la hipótesis planteada para los estratos residentes, comerciantes formales y comerciantes informales, y siendo esta misma hipótesis nula para el estrato funcionarios. Finalmente, como resultado de la investigación se elaboró un mapa de conflicto acústico con el propósito de establecer los puntos de mayor impacto acústico en la zona de emplazamiento, estableciéndose comparaciones entre los mismos y pudiendo ser útil el mencionado mapa para la adopción de disposiciones legales y civiles en aras de mejorar la calidad de vida de los ciudadanos.
Resumo:
Durante los últimos años la física atómica ha vuelto a cobrar un papel fundamental en los planes de investigación, entre los que destacan aquellos dedicados al estudio teórico y experimental de la fusión nuclear. Concretamente, en el concepto de fusión por confinamiento inercial se pueden distinguir cuatro grandes áreas donde es básico el conocimiento de las propiedades atómicas de la materia. Estas son: 1. Modelado de la interacción entre haces de partículas o láser con la cápsula combustible 2. Simulación de blancos de irradiación indirecta mediante conversión a rayos X 3. Diagnosis de experimentos 4. Láseres de rayos X La modelación de los plasmas en fusión depende principalmente de la densidad electrónica. En fusión por confinamiento magnético (tokamaks), los plasmas tienen densidades bajas, por lo que, en general, es suficiente considerar un modelo corona, en el que la mayoría de los iones se encuentran en su estado fundamental o con un número pequeño de estados excitados, estableciéndose sus poblaciones mediante un balance entre la ionización colisional/recombinación radiativa y excitación/decaimiento espontáneo. Sin embargo, los plasmas característicos de la fusión por confinamiento inercial tienen densidades más altas, aunque, normalmente, no lo suficientes como para poder establecer condiciones de equilibrio local termodinámico (balance entre procesos colisionales). Estas densidades, que se podrían clasificar como intermedias, se caracterizan por la aparición de un mayor número de estados excitados por ión y por la importancia tanto de los procesos colisionales como radiativos. Además de lo expuesto anteriormente, en ciertos regímenes de plasma, las variables termodinámicas locales, fundamentalmente presión (densidad) y temperatura, varían fuertemente con el tiempo, de manera que cuando los tiempos característicos de esta variación son menores que los propios de relajación de los procesos atómicos, el sistema no puede tratarse en estado estacionario, siendo necesario resolver las ecuaciones de balance con dependencia temporal. Estas ecuaciones de tasa o de balance contienen una serie de términos que representan los distintos procesos mediante una serie de coeficientes cuyas expresiones dependen de las condiciones del plasma, por lo que el problema es fuertemente no lineal. Por otra parte, hay que añadir que si el medio es ópticamente grueso a la radiación, en las ecuaciones de tasa aparecen términos radiativos que incluyen el campo de radiación, por lo que es necesario resolver la ecuación de transferencia en cada línea o bien, utilizar otras aproximaciones, que sin resolver dicha ecuación, permitan tener en cuenta el campo de radiación en la línea. Por todo ello, el objetivo de esta Tesis se centra en el desarrollo de un modelo original para el cálculo de la distribución de los estados de ionización en un plasma de fusión por confinamiento inercial en condiciones de no-equilibrio termodinámico local, caracterizado por: 1. Resolución de las ecuaciones de balance en estado estacionario y con dependencia temporal, considerando a las distintas especies iónicas tanto en su estado fundamental como en posibles estados excitados. 2. Elección de especies iónicas y número de estados excitados en función de las condiciones de densidad y temperatura del plasma. En el caso de una evolución temporal el número de estados excitados y su distribución se adecúan en cada caso a las condiciones del plasma. 3. Tratamiento de medios ópticamente finos y gruesos, utilizándose para estos últimos una evaluación aproximada del campo de radiación en la línea. 4. Capacidad de acoplamiento a un modelo hidrodinámico a través de la temperatura electrónica, densidad y campo de radiación. Entre todas estas características, se debe hacer constar que las principales aportaciones originales se refieren, en primer lugar, a la forma original de resolver las ecuaciones de tasa con dependencia temporal, ya que se tiene en cuenta la evolución de todos los estados: fundamentales y excitados, frente a la hipótesis habitual de resolver las ecuaciones temporales sólo de los estados fundamentales, y suponer los excitados en estado estacionario, es decir, que siguen el comportamiento de su correspondiente fundamental. En segundo lugar, la elección del número de estados excitados por cada funda- X mental, que se realiza mediante un cálculo inicial donde se considera todos los iones del plasma en estado fundamental, para en función de las densidades de población obtenidas, elegir los estados fundamentales y sus correspondientes excitados que se deben considerar. Y por último, señalar que en el tratamiento de medios ópticamente gruesos se ha conseguido obtener una evaluación de la radiación absorbida por el plasma, independientemente de la geometría del mismo, sin necesidad de resolver la ecuación de transferencia en la línea, y sin acudir a otros métodos, que sin resolver dicha ecuación, necesitan la definición de una geometría para el plasma, por ejemplo, factores de escape. El modelo ha sido comparado y contrastado tanto con resultados teóricos como experimentales, observando unos resultados muy aceptables, de lo cual se deduce que el modelo es capaz de suministrar la evaluación de los parámetros atómicos en este tipo de plasmas. A partir de esta Tesis, el modelo se puede potenciar, a través de varias líneas de investigación que se han identificado: 1. Tratamiento de medios ópticamente gruesos con resolución de la ecuación de transferencia en las líneas. 2. Evaluación detallada de las secciones eficaces de los distintos procesos que tienen lugar en plasmas, y que aparecen en las ecuaciones de balance a través de los coeficientes de tasa.
Resumo:
La Tesis Doctoral nace con una intensa vocación pedagógica. La hipótesis de trabajo se establece en torno a una cuestión de interés personal, un tema sobre el que se vertebran, desde el comienzo del doctorado, los diferentes cursos y trabajos de investigación: LA CASA DOMÍNGUEZ como paradigma de la dialéctica en la obra de Alejandro de la Sota. La clasificación de la realidad en categorías antagónicas determina un orden conceptual polarizado, una red de filiaciones excluyentes sobre las que Sota construye su personal protocolo operativo: la arquitectura intelectual o popular, experimental o tradicional, universal o local, ligera o pesada, elevada o enterrada, etc. Se propone el abordaje de una cuestión latente en el conjunto de la obra ‘sotiana’, desde la disección y el análisis de una de sus obras más pequeñas: la casa Domínguez. Se trata de una organización sin precedentes, que eleva la estrategia dialéctica al paroxismo: la vivienda se separa en dos estratos independientes, la zona de día, elevada, y la zona de noche, enterrada; cada uno de los estratos establece su propio orden geométrico y constructivo, su propio lenguaje y carácter, su propia identidad e incluso su propio presupuesto. Las relaciones entre interior y exterior se especializan en función de la actividad o el reposo, estableciéndose una compleja red de relaciones, algunas evidentes y otras celosamente veladas, entre los diferentes niveles. La estancia destinada a las tareas activas se proyecta como un objeto de armazón ligero y piel fría; la precisa geometría del cubo delimita la estancia vigilante sobre el paisaje conquistado. La ladera habitada se destina al reposo y se configura como una topografía verde bajo la que se desarrollan los dormitorios en torno a patios, grietas y lucernarios, generando un paisaje propio: la construcción del objeto frente a la construcción del lugar La casa Domínguez constituye uno de los proyectos menos estudiados, y por lo tanto menos celebrados, de la obra de Don Alejandro. Las publicaciones sucesivas reproducen la documentación gráfica junto a la memoria (epopeya) que el propio Sota compone para la publicación del proyecto. Apenas un par de breves textos críticos de Miguel Ángel Baldellou y, recientemente de Moisés Puente, abordan la vivienda como tema monográfico. Sin embargo, la producción de proyecto y obra ocupó a De la Sota un periodo no inferior a diez años, con casi cien planos dibujados para dos versiones de proyecto, la primera de ellas, inédita. El empeño por determinar hasta el último detalle de la ‘pequeña’ obra, conduce a Sota a controlar incluso el mobiliario interior, como hiciera en otras obras ‘importantes’ como el Gobierno Civil de Tarragona, el colegio mayor César Carlos o el edificio de Correos y Telecomunicaciones de León. La complicidad del cliente, mantenida durante casi cuarenta años, habilita el despliegue de una importante colección de recursos y herramientas de proyecto. La elección de la casa Domínguez como tema central de la tesis persigue por lo tanto un triple objetivo: en primer lugar, el abordaje del proyecto como paradigma de la dialéctica ‘sotiana’, analizando la coherencia entre el discurso de carácter heroico y la obra finalmente construida; en segundo lugar, la investigación rigurosa, de corte científico, desde la disección y progresivo desmontaje del objeto arquitectónico; y por último, la reflexión sobre los temas y dispositivos de proyecto que codifican la identificación entre la acción de construir y el hecho de habitar, registrando los aciertos y valorando con actitud crítica aquellos elementos poco coherentes con el orden interno de la propuesta. This doctoral thesis is the fruit of a profound pedagogical vocation. The central hypothesis was inspired by a question of great personal interest, and this interest has, since the very beginning of the doctorate, been the driving force behind all subsequent lines of research and investigation. The “Casa Domínguez” represents a paradigm of the dialectics found in the work of Alejandro de la Sota. The perception of reality as antagonistic categories determines a polarized conceptual order, a network of mutually excluding associations upon which Sota builds his own personal operative protocol: intellectual or popular architecture, experimental or traditional, universal or local, heavy or light, above or below ground, etc. Through the analysis and dissection of the “Casa Domínguez”, one of Sota’s smallest projects, an attempt is made to approach the underlying question posed in “Sotian” work as a whole. This is about organization without precedent, raising the strategic dialectics to levels of paroxysm. The house is divided into two separate levels, the day-time level above ground, and the lower night-time level beneath the surface of the ground. Each level has its own geometrical and stuctural order, its own language and character, its own identity and even has its own construction budget. The interaction between the two areas is centered on the two functions of rest and activity, and this in turn establishes a complex relationship network between both, which is sometimes self-evident, but at other times jealously guarded. The living area designed for daily activity is presented as an object of light structure and delicate skin; the precise geometry of the cube delimiting the ever watchful living area’s domain over the land it has conquered. A green topography is created on the slope below which lies an area adapted for rest and relaxation. Two bedrooms, built around patios, skylights and light crevices, generate an entirely independent environment: the construction of an object as opposed to the creation of a landscape. The “Casa Domínguez” project has been subject to much less scrutiny and examination than Don Alejandro’s other works, and is consequently less well-known. A succession of journals have printed the blueprint document together with a poetic description (epopee), composed by Sota himself, to mark the project’s publication. There has, however, scarcely been more than two brief critical appraisals, those by Miguel Ángel Baldellou and more recently by Moisés Puente, that have regarded the project as a monographic work. The project and works nevertheless occupied no less than ten years of De La Sota’s life, with over a hundred draft drawings for two separate versions of the project, the first of which remains unpublished. The sheer determination to design this “small” work in the most meticulous detail, drove Sota to manage and select its interior furniture, as indeed he had previously done with more “important” works like the Tarragona Civil Government, César Carlos College, or the Post Office telecommunications building in León. Client collaboration, maintained over a period of almost forty years, has facilitated an impressive array of the project’s tools and resources. The choice of “Casa Domínguez” as the central subject matter of this thesis, was made in pursuance of a triple objective: firstly, to approach the project as a paradigm of the “Sotian” dialectic, the analysis of the discourse between the heroic character and the finished building; secondly, a rigorous scientific investigation, and progressive disassembling and dissecting of the architectonic object; and finally, a reflection on aspects of the project and its technology which codify the identification between the action of construction and the reality of living, thus marking its achievements, whilst at the same time subjecting incoherent elements of the proposal’s established order to a critical evaluation.
Resumo:
El tema central de investigación en esta Tesis es el estudio del comportamientodinámico de una estructura mediante modelos que describen la distribución deenergía entre los componentes de la misma y la aplicación de estos modelos parala detección de daños incipientes.Los ensayos dinámicos son un modo de extraer información sobre las propiedadesde una estructura. Si tenemos un modelo de la estructura se podría ajustar éstepara que, con determinado grado de precisión, tenga la misma respuesta que elsistema real ensayado. Después de que se produjese un daño en la estructura,la respuesta al mismo ensayo variará en cierta medida; actualizando el modelo alas nuevas condiciones podemos detectar cambios en la configuración del modeloestructural que nos condujeran a la conclusión de que en la estructura se haproducido un daño.De este modo, la detección de un daño incipiente es posible si somos capacesde distinguir una pequeña variación en los parámetros que definen el modelo. Unrégimen muy apropiado para realizar este tipo de detección es a altas frecuencias,ya que la respuesta es muy dependiente de los pequeños detalles geométricos,dado que el tamaño característico en la estructura asociado a la respuesta esdirectamente proporcional a la velocidad de propagación de las ondas acústicas enel sólido, que para una estructura dada es inalterable, e inversamente proporcionala la frecuencia de la excitación. Al mismo tiempo, esta característica de la respuestaa altas frecuencias hace que un modelo de Elementos Finitos no sea aplicable enla práctica, debido al alto coste computacional.Un modelo ampliamente utilizado en el cálculo de la respuesta de estructurasa altas frecuencias en ingeniería es el SEA (Statistical Energy Analysis). El SEAaplica el balance energético a cada componente estructural, relacionando la energíade vibración de estos con la potencia disipada por cada uno de ellos y la potenciatransmitida entre ellos, cuya suma debe ser igual a la potencia inyectada a cadacomponente estructural. Esta relación es lineal y viene caracterizada por los factoresde pérdidas. Las magnitudes que intervienen en la respuesta se consideranpromediadas en la geometría, la frecuencia y el tiempo.Actualizar el modelo SEA a datos de ensayo es, por lo tanto, calcular losfactores de pérdidas que reproduzcan la respuesta obtenida en éste. Esta actualización,si se hace de manera directa, supone la resolución de un problema inversoque tiene la característica de estar mal condicionado. En la Tesis se propone actualizarel modelo SEA, no en término de los factores de pérdidas, sino en términos deparámetros estructurales que tienen sentido físico cuando se trata de la respuestaa altas frecuencias, como son los factores de disipación de cada componente, susdensidades modales y las rigideces características de los elementos de acoplamiento.Los factores de pérdidas se calculan como función de estos parámetros. Estaformulación es desarrollada de manera original en esta Tesis y principalmente sefunda en la hipótesis de alta densidad modal, es decir, que en la respuesta participanun gran número de modos de cada componente estructural.La teoría general del método SEA, establece que el modelo es válido bajounas hipótesis sobre la naturaleza de las excitaciones externas muy restrictivas,como que éstas deben ser de tipo ruido blanco local. Este tipo de carga es difícil dereproducir en condiciones de ensayo. En la Tesis mostramos con casos prácticos queesta restricción se puede relajar y, en particular, los resultados son suficientementebuenos cuando la estructura se somete a una carga armónica en escalón.Bajo estas aproximaciones se desarrolla un algoritmo de optimización por pasosque permite actualizar un modelo SEA a un ensayo transitorio cuando la carga esde tipo armónica en escalón. Este algoritmo actualiza el modelo no solamente parauna banda de frecuencia en particular sino para diversas bandas de frecuencia demanera simultánea, con el objetivo de plantear un problema mejor condicionado.Por último, se define un índice de daño que mide el cambio en la matriz depérdidas cuando se produce un daño estructural en una localización concreta deun componente. Se simula numéricamente la respuesta de una estructura formadapor vigas donde producimos un daño en la sección de una de ellas; como se tratade un cálculo a altas frecuencias, la simulación se hace mediante el Método delos Elementos Espectrales para lo que ha sido necesario desarrollar dentro de laTesis un elemento espectral de tipo viga dañada en una sección determinada. Losresultados obtenidos permiten localizar el componente estructural en que se haproducido el daño y la sección en que éste se encuentra con determinado grado deconfianza.AbstractThe main subject under research in this Thesis is the study of the dynamic behaviourof a structure using models that describe the energy distribution betweenthe components of the structure and the applicability of these models to incipientdamage detection.Dynamic tests are a way to extract information about the properties of astructure. If we have a model of the structure, it can be updated in order toreproduce the same response as in experimental tests, within a certain degree ofaccuracy. After damage occurs, the response will change to some extent; modelupdating to the new test conditions can help to detect changes in the structuralmodel leading to the conclusión that damage has occurred.In this way incipient damage detection is possible if we are able to detect srnallvariations in the model parameters. It turns out that the high frequency regimeis highly relevant for incipient damage detection, because the response is verysensitive to small structural geometric details. The characteristic length associatedwith the response is proportional to the propagation speed of acoustic waves insidethe solid, but inversely proportional to the excitation frequency. At the same time,this fact makes the application of a Finite Element Method impractical due to thehigh computational cost.A widely used model in engineering when dealing with the high frequencyresponse is SEA (Statistical Energy Analysis). SEA applies the energy balance toeach structural component, relating their vibrational energy with the dissipatedpower and the transmitted power between the different components; their summust be equal to the input power to each of them. This relationship is linear andcharacterized by loss factors. The magnitudes considered in the response shouldbe averaged in geometry, frequency and time.SEA model updating to test data is equivalent to calculating the loss factorsthat provide a better fit to the experimental response. This is formulated as an illconditionedinverse problem. In this Thesis a new updating algorithm is proposedfor the study of the high frequency response regime in terms of parameters withphysical meaning such as the internal dissipation factors, modal densities andcharacteristic coupling stiffness. The loss factors are then calculated from theseparameters. The approach is developed entirely in this Thesis and is mainlybased on a high modal density asumption, that is to say, a large number of modescontributes to the response.General SEA theory establishes the validity of the model under the asumptionof very restrictive external excitations. These should behave as a local white noise.This kind of excitation is difficult to reproduce in an experimental environment.In this Thesis we show that in practical cases this assumption can be relaxed, inparticular, results are good enough when the structure is excited with a harmonicstep function.Under these assumptions an optimization algorithm is developed for SEAmodel updating to a transient test when external loads are harmonic step functions.This algorithm considers the response not only in a single frequency band,but also for several of them simultaneously.A damage index is defined that measures the change in the loss factor matrixwhen a damage has occurred at a certain location in the structure. The structuresconsidered in this study are built with damaged beam elements; as we are dealingwith the high frequency response, the numerical simulation is implemented witha Spectral Element Method. It has therefore been necessary to develop a spectralbeam damaged element as well. The reported results show that damage detectionis possible with this algorithm, moreover, damage location is also possible withina certain degree of accuracy.
Resumo:
El transporte marítimo, responsable de la canalización del 90% de los flujos comerciales internacionales, se organiza en torno a los puertos. Éstos, que resultan plataformas indispensables para el desarrollo de la economía, compiten entre sí para maximizar el tráfico atraído hacia sus instalaciones. El papel estratégico de los puertos tiene un expreso reconocimiento en el contexto de la Unión Europea, tanto desde la óptica del comercio como bajo el prisma del transporte. No en vano, por los puertos europeos transita más del 90 % del comercio de la Unión con terceros países y aproximadamente, el 40 % del tráfico intracomunitario. Los puertos españoles configuran un eje neurálgico en el desarrollo del transporte marítimo a nivel internacional y una plataforma logística para todo el sur de Europa. Sus más de siete mil novecientos kilómetros de costa y un emplazamiento geográfico estratégico, confirman al territorio nacional como un punto de especial interés por sus establecimientos portuarios. La actividad del Sistema Portuario Español con una cifra de negocio de más de 1000 millones de euros, representa anualmente un 20 % del Producto Interior Bruto específico del sector transporte, aporta un 1.1% al Producto Interior Bruto Nacional y genera 145.000 empleos directos e indirectos. Debido a la actual coyuntura económica ahora, más que nunca, la competencia interportuaria se ha intensificado y sólo aquellos puertos que sean capaces de adaptarse a las nuevas necesidades y que puedan prestar unos servicios portuarios de calidad, fiables y a precios competitivos estarán en condiciones de mantener sus tráficos. La entrada en vigor de la Ley 33/2010, de 5 de agosto, de modificación de la Ley 48/2003, de 26 de noviembre, de régimen económico y de prestación de servicios en los puertos de interés general, marca como uno de sus objetivos principales el fomento de la eficiencia y la competitividad de nuestros puertos a través de la promoción de la competencia. La Ley avanza en la liberalización de los servicios portuarios, en particular, destaca el servicio portuario de manipulación de mercancías en donde se introducen algunas modificaciones con las que pretende dotar de transparencia, así como normalizar el acceso a la profesión y a la formación. Surge por tanto, la conveniencia de investigar las condiciones de prestación de los servicios portuarios, su impacto en la competitividad del sistema portuario y sobre cada uno de los agentes que forman parte de la cadena global del transporte marítimo. En primer lugar, la Autoridad Portuaria, como organismo público que tiene entre sus competencias la gestión y control de los servicios portuarios para lograr que se desarrollen en condiciones óptimas de eficacia, economía, productividad y seguridad. Al analizar el sector mediante el modelo de “Cinco Fuerzas de Porter” descubrimos que el creciente poder de los proveedores de servicios portuarios, especialmente el de manipulación de mercancías y el proceso de descentralización en la gestión de los puertos de interés general está restando atractivo y competitividad al sector. Además según la encuesta realizada a los representantes de las Autoridades Portuarias, existe prácticamente unanimidad acerca de la importancia de los servicios portuarios en la competitividad del puerto y la falta de transparencia existente, particularmente en el servicio de manipulación de mercancías. Por otro lado, pone de manifiesto los aspectos considerados más importantes, que son el coste y la fiabilidad en la prestación del servicio. A continuación se investiga la repercusión del coste de los servicios portuarios en el precio final del producto, es decir, cómo inciden éstos en la competitividad del tejido empresarial al que sirven los puertos y su impacto en el consumidor final. Concluyendo que el coste de los servicios portuarios tiene de media un peso del 12 % frente al coste global del transporte marítimo y aproximadamente un 0.5% respecto al precio del producto. Posteriormente se realiza una exhaustiva investigación de las principales empresas prestadoras de servicios portuarios en España, se sintetizan los principales datos y se realiza un análisis de la estructura y evolución del sector. Se observa una tendencia a la integración en grandes grupos empresariales vinculados al sector marítimo y a la concentración sectorial. Siendo conscientes de la importancia de la optimización de los servicios portuarios para las empresas operadoras de terminales y navieras, se ha procedido a contrastar la hipótesis inicial de que el servicio de manipulación de mercancías es el responsable de la mayor parte (65 %) del coste del paso de la mercancía por el puerto. Por tanto, a la vista de los resultados obtenidos, por la importancia manifestada tanto por parte de las Autoridades Portuarias como por las empresas operadoras de terminales, a partir de éste punto se particulariza la investigación para el servicio portuario de manipulación de mercancías. Se selecciona una muestra significativa de empresas estibadoras, se procede a homogeneizar sus cuentas de pérdidas y ganancias y sus balances. Posteriormente se calcula y analiza un elevado número de ratios económico-financieros que tendremos en cuenta a la hora de evaluar una solicitud para el otorgamiento de una licencia para la prestación del servicio de manipulación de mercancías. Asimismo se ha procedido a realizar una cuenta de pérdidas y ganancias y un balance modelo, tanto para la empresa media, construida a partir de los ratios medios, como para una empresa ideal desde el punto de vista empresarial, construida a partir de los mejores ratios obtenidos. Ante la necesidad detectada en el estado del arte de la falta de mecanismos para dotar de transparencia al sector, mediante esta estructura la Autoridad Portuaria dispondrá de una herramienta que le permita objetivizar el proceso de toma de decisiones a la hora de establecer sus condiciones en los Pliegos de Prescripciones Particulares y otorgar las licencias, así como evaluar la rentabilidad de la empresa a lo largo del periodo de prestación del servicio. Por un lado, una empresa prestadora de servicios portuarios, debe obtener una rentabilidad acorde con las expectativas de sus accionistas y como mínimo superior al coste de capital de la misma. Al mismo tiempo, la Administración que tutela la prestación del servicio, la Autoridad Portuaria, debe verificar la viabilidad de la propuesta, pues ello será garantía de éxito de la empresa y por tanto de continuidad de prestación del servicio en el puerto pero también debe asegurar una competitividad en costes. Al proceder a la extracción de conclusiones a partir de los ratios económico-financieros obtenidos para las empresas estibadoras (Ratio medio Beneficios/Ventas=4.68%) se pone de manifiesto que claramente el problema de ineficiencia y sobrecostes no está siendo provocado por unos elevados márgenes de rentabilidad de éstas. Por tanto, se analizan otros agentes integrantes en el proceso y se detecta la particular situación de la mano de obra del estibador portuario. Se investigan las ventajosas condiciones laborales que disfrutan y se proponen una serie de medidas que producirían una mejora en la competitividad del servicio que conllevarían una reducción de un 30 % sobre los costes totales del paso de la mercancía por el puerto. En un sector global como es el marítimo, con un escenario cada vez más dinámico y competitivo, con la presente tesis doctoral se trata de asegurar que los factores clave de éxito identificados se cumplan, siendo uno de éstos el liderazgo en costes, que necesariamente se deberá equilibrar con la viabilidad económica de la empresa en la prestación del servicio de la manera más eficiente y productiva, haciendo el puerto más atractivo tanto para los clientes actuales como potenciales.
Resumo:
Las encuestas de hábitos deportivos de la población efectuadas por el C.I.S. (García Ferrando 2001, 2006) relataron un estancamiento del crecimiento relativo de las prácticas deportivas de los españoles entre 1990 y 2005. Dado que era la primera vez que se producía este fenómeno desde el inicio de la serie histórica de los sondeos, se hacía obligado investigar sus posibles causas y formular hipótesis al respecto. El presente trabajo nace de este interés, y se circunscribe a ese crítico periodo histórico. Aunque los factores sociológicos que inciden en la motivación hacia la práctica deportiva se antojan ingentes, la línea argumental de la tesis pretende hacer un esfuerzo máximo de simplificación en los factores causales implicados, a fin de hallar correlaciones evidentes y útiles en la explicación del problema. Al estar siempre las prácticas deportivas ligadas a modalidades de práctica específicas ha sido este factor el que se ha postulado como preponderante en nuestro estudio. Así pues, en primer lugar (capítulo 1) constataremos los datos de hábitos de práctica deportiva de los españoles según los sondeos que gozan de mayor aceptación por los estamentos oficiales nacionales (C.S.D. y C.I.S.), de acuerdo a su evolución histórica. En segundo lugar sintetizaremos las principales corrientes que el estudio teórico internacional ha producido relativas a los hábitos de consecución y abandono de la práctica deportiva, y que a nosotros nos resultan más relevantes para satisfacer nuestras inquisiciones (capítulo 2). En tercer lugar, y en conclusión a la síntesis de estudio internacional y la bibliografía erudita, quedarán planteados los objetivos y la hipótesis de trabajo que someteremos al contraste de cada modalidad deportiva según su propia evolución en la participación social a lo largo del tiempo (capítulo 3). En el cuarto capítulo se refieren los instrumentos y métodos de trabajo de los que se ha dispuesto para la producción de resultados empíricos sobre los que pudiera discutirse con alguna objetividad, siendo en cualquier caso la metodología de la tesis analítica y descriptiva en primer término, y estando abierta por la naturaleza misma de los datos a nuevas constataciones y perfeccionamientos. El quinto capítulo supone la presentación y la discusión de los resultados obtenidos para España una vez se subdivide las modalidades específicas de práctica deportiva en base a la hipótesis de contraste establecida en el capítulo tercero. Asimismo se contrastan los datos nacionales españoles con los de un amplio contexto internacional del que han podido obtenerse algunas evidencias para su comparación, ensayándose una discusión final de conjunto en base a todo ello. En el sexto capítulo se sintetizan las conclusiones a las que hemos podido llegar de acuerdo con nuestro trabajo, y las líneas propuestas a explorar en el futuro.
Resumo:
El monasterio de Santa María de Melón, fundado en el siglo XII, fue abandonado tras la desamortización de Mendizábal en 1835. Las inclemencias del tiempo y el expolio lo han convertido en una ruina. La ruina ha sido consolidada y es visitable gracias a dos intervenciones realizadas en 2003 y 2010, respectivamente. La iglesia, sin embargo, ha continuado en uso hasta la actualidad. La cabecera es románica y siguió una ampliación gótica, que añadió el crucero y las tres naves. Distintas intervenciones se sucedieron hasta el siglo XVI (para una historia detallada del templo, véase Fernández Rodríguez 2010). A finales del siglo XIX por motivos que se desconocen se hundió toda la parte de los pies de la iglesia, esto es, las tres naves desde el crucero hasta los pies. Se desconocen las causas del hundimiento (no podemos estar de acuerdo con la interpretación de Fernández Rodríguez (2010, 45) que atribuye el hundimiento a una tormenta con aparato eléctrico y vendaval). Sea como fuere, con fecha desconocida se decidió dejar la iglesia ápoda, sin naves, y rematarla con un cuerpo de fachada que está formado por dos cubos macizos entre los que se sitúa la fachada y, en el interior, el coro, Figura 1, A y B.. (La bóveda sobre el coro situada entre ellos debió ser reconstruida.) La particularidad más interesante de esta intervención es que buena parte de los restos de la ruina fueron almacenados en dichos cubos a los pies de la iglesia. Esto se puede verificar en el cubo A de la izquierda mirando a través de las ventanas del husillo de la escalera, cegadas al construir el cubo. Se hizo una cata a unos 4 m de altura, desde el coro, al cubo B de la derecha con el mismo resultado. El cubo A tiene un volumen aproximado de 6×5×12 m3 de volumen. El cubo B tiene una planta algo menor y un volumen de 6×4×12 m3. En la hipótesis de que ambos cubos están rellenos hasta su coronación esto daría un volumen de fábrica de unos 600 m3 (esto parece probable a la luz de la información disponible sobre el cubo izquierdo).
Resumo:
El acero es, junto con el hormigón, el material más ampliamente empleado en la construcción de obra civil y de edificación. Además de su elevada resistencia, su carácter dúctil resulta un aspecto de particular interés desde el punto de vista de la seguridad estructural, ya que permite redistribuir esfuerzos a elementos adyacentes y, por tanto, almacenar una mayor energía antes del colapso final de la estructura. No obstante, a pesar de su extendida utilización, todavía existen aspectos relacionados con su comportamiento en rotura que necesitan una mayor clarificación y que permitirían un mejor aprovechamiento de sus propiedades. Cuando un elemento de acero es ensayado a tracción y alcanza la carga máxima, sufre la aparición de un cuello de estricción que plantea dificultades para conocer el comportamiento del material desde dicho instante hasta la rotura. La norma ISO 6892-1, que define el método a emplear en un ensayo de tracción con materiales metálicos, establece procedimientos para determinar los parámetros relacionados con este tramo último de la curva F − E. No obstante, la definición de dichos parámetros resulta controvertida, ya que éstos presentan una baja reproducibilidad y una baja repetibilidad que resultan difíciles de explicar. En esta Tesis se busca profundizar en el conocimiento del último tramo de la curva F − E de los aceros de construcción. Para ello se ha realizado una amplia campaña experimental sobre dos aceros representativos en el campo de la construcción civil: el alambrón de partida empleado en la fabricación de alambres de pretensado y un acero empleado como refuerzo en hormigón armado. Los dos materiales analizados presentan formas de rotura diferentes: mientras el primero de ellos presenta una superficie de rotura plana con una región oscura claramente apreciable en su interior, el segundo rompe según la clásica superficie en forma de copa y cono. La rotura en forma de copa y cono ha sido ampliamente estudiada en el pasado y existen modelos de rotura que han logrado reproducirla con éxito, en especial el modelo de Gurson- Tvergaard-Needleman (GTN). En cuanto a la rotura exhibida por el primer material, en principio nada impide abordar su reproducción numérica con un modelo GTN, sin embargo, las diferencias observadas entre ambos materiales en los ensayos experimentales permiten pensar en otro criterio de rotura. En la presente Tesis se realiza una amplia campaña experimental con probetas cilíndricas fabricadas con dos aceros representativos de los empleados en construcción con comportamientos en rotura diferentes. Por un lado se analiza el alambrón de partida empleado en la fabricación de alambres de pretensado, cuyo frente de rotura es plano y perpendicular a la dirección de aplicación de la carga con una región oscura en su interior. Por otro lado, se estudian barras de acero empleadas como armadura pasiva tipo B 500 SD, cuyo frente de rotura presenta la clásica superficie en forma de copa y cono. Estos trabajos experimentales han permitido distinguir dos comportamientos en rotura claramente diferenciados entre ambos materiales y, en el caso del primer material, se ha identificado un comportamiento asemejable al exhibido por materiales frágiles. En este trabajo se plantea la hipótesis de que el primer material, cuya rotura provoca un frente de rotura plano y perpendicular a la dirección de aplicación de la carga, rompe de manera cuasifrágil como consecuencia de un proceso de decohesión, de manera que la región oscura que se observa en el centro del frente de rotura se asemeja a una entalla circular perpendicular a la dirección de aplicación de la carga. Para la reproducción numérica de la rotura exhibida por el primer material, se plantea un criterio de rotura basado en un modelo cohesivo que, como aspecto novedoso, se hace depender de la triaxialidad de tensiones, parámetro determinante en el fallo de este tipo de materiales. Este tipo de modelos presenta varias ventajas respecto a los modelos GTN habitualmente empleados. Mientras los modelos GTN precisan de numerosos parámetros para su calibración, los modelos cohesivos precisan fundamentalmente de dos parámetros para definir su curva de ablandamiento: la tensión de decohesión ft y la energía de fractura GF . Además, los parámetros de los modelos GTN no son medibles de manera experimental, mientras que GF sí lo es. En cuanto a ft, aunque no existe un método para su determinación experimental, sí resulta un parámetro más fácilmente interpretable que los empleados por los modelos GTN, que utilizan valores como el porcentaje de huecos presentes en el material para iniciar el fenómeno de coalescencia o el porcentaje de poros que provoca una pérdida total de la capacidad resistente. Para implementar este criterio de rotura se ha desarrollado un elemento de intercara cohesivo dependiente de la triaxialidad de tensiones. Se han reproducido con éxito los ensayos de tracción llevados a cabo en la campaña experimental empleando dicho elemento de intercara. Además, en estos modelos la rotura se produce fenomenológicamente de la misma manera observada en los ensayos experimentales: produciéndose una decohesión circular en torno al eje de la probeta. En definitiva, los trabajos desarrollados en esta Tesis, tanto experimentales como numéricos, contribuyen a clarificar el comportamiento de los aceros de construcción en el último tramo de la curva F − E y los mecanismos desencadenantes de la rotura final del material, aspecto que puede contribuir a un mejor aprovechamiento de las propiedades de estos aceros en el futuro y a mejorar la seguridad de las estructuras construidas con ellos. Steel is, together with concrete, the most widely used material in civil engineering works. Not only its high strength, but also its ductility is of special interest from the point of view of the structural safety, since it enables stress distribution with adjacent elements and, therefore, more energy can be stored before reaching the structural failure. However, despite of being extensively used, there are still some aspects related to its fracture behaviour that need to be clarified and that will allow for a better use of its properties. When a steel item is tested under tension and reaches the maximum load point, necking process begins, which makes difficult to define the material behaviour from that moment onward. The ISO standard 6892-1, which defines the tensile testing method for metallic materials, describes the procedures to obtain some parameters related to this last section of the F − E curve. Nevertheless, these parameters have proved to be controversial, since they have low reproducibility and repeatibility rates that are difficult to explain. This Thesis tries to deepen the knowledge of the last section of the F − E curve for construction steels. An extensive experimental campaign has been carried out with two representative steels used in civil engineering works: a steel rod used for manufacturing prestressing steel wires, before the cold-drawing process is applied, and steel bars used in reinforced concrete structures. Both materials have different fracture surfaces: while the first of them shows a flat fracture surface, perpendicular to the loading direction with a dark region in the centre of it, the second one shows the classical cup-cone fracture surface. The cup-cone fracture surface has been deeply studied in the past and different numerical models have been able to reproduce it with success, with a special mention to the Gurson-Tvergaard-Needleman model (GTN). Regarding the failure surface shown by the first material, in principle it can be numerically reproduced by a GTN model, but the differences observed between both materials in the experimental campaign suggest thinking of a different failure criterium. In the present Thesis, an extensive experimental campaign has been carried out using cylindrical specimens made of two representative construction steels with different fracture behaviours. On one hand, the initial eutectoid steel rod used for manufacturing prestressing steel wires is analysed, which presents a flat fracture surface, perpendicular to the loading direction, and with a dark region in the centre of it. On the other hand, B 500 SD steel bars, typically used in reinforced concrete structures and with the typical cup-cone fracture surface, are studied. These experimental works have allowed distinguishing two clearly different fracture behaviours between both materials and, in the case of the first one, a fragile-like behaviour has been identified. For the first material, which shows a flat fracture surface perpendicular to the loading direction, the following hypothesis is proposed in this study: a quasi-brittle fracture is developed as a consequence of a decohesion process, with the dark region acting as a circular crack perpendicular to the loading direction. To reproduce numerically the fracture behaviour shown by the first material, a failure criterium based on a cohesive model is proposed in this Thesis. As an innovative contribution, this failure criterium depends on the stress triaxiality state of the material, which is a key parameter when studying fracture in this kind of materials. This type of models have some advantages when compared to the widely used GTN models. While GTN models need a high number of parameters to be defined, cohesive models need basically two parameters to define the softening curve: the decohesion stress ft and the fracture energy GF . In addition to this, GTN models parameters cannot be measured experimentally, while GF is indeed. Regarding ft, although no experimental procedure is defined for its obtention, it has an easier interpretation than the parameters used by the GTN models like, for instance, the void volume needed for the coalescence process to start or the void volume that leads to a total loss of the bearing capacity. In order to implement this failure criterium, a triaxiality-dependent cohesive interface element has been developed. The experimental results obtained in the experimental campaign have been successfully reproduced by using this interface element. Furthermore, in these models the failure mechanism is developed in the same way as observed experimentally: with a circular decohesive process taking place around the longitudinal axis of the specimen. In summary, the works developed in this Thesis, both experimental and numerical, contribute to clarify the behaviour of construction steels in the last section of the F − E curve and the mechanisms responsible for the eventual material failure, an aspect that can lead to a better use of the properties of these steels in the future and a safety improvement in the structures built with them.
Resumo:
La tesis estudia el Pabellón de los Países Nórdicos (1958-1962), uno de los ejemplos más significativos de la obra del arquitecto Sverre Fehn (1924-2009). El Pabellón es el resultado de la obtención del primer premio en el concurso de ideas restringido convocado en 1958 por un comité formado por los gobiernos de Suecia, Finlandia y Noruega, cuya finalidad era la creación de un espacio en el recinto de la Bienal de Venecia que albergara las exposiciones bianuales de estos paises. El elemento más característico de esta obra es su cubierta, un tamiz denso de dos capas de vigas de hormigón superpuestas que se interrumpe puntualmente para permitir el paso de los árboles que viven en su interior. Su espesor de dos metros bloquea los rayos de luz directa de forma que se genera un plano de iluminación difusa. Esta configuración de la cubierta resuelve los dos condicionantes principales del proyecto: la creación de un espacio expositivo flexible y la preservación de los árboles de mayor porte. Bajo el plano superior filtrante, se genera un espacio horizontal en continuidad física y sensorial con la arboleda en la que se asienta, caracterizado por la variación lumínica a lo largo del día. Los objetivos de esta tesis son contribuir a un conocimiento amplio y riguroso del Pabellón Nórdico, y explicar el singular espacio que propone. Para lograr estos objetivos, el primer paso ha consistido en la elaboración de las bases del estudio de esta obra, mediante la recopilación y selección de la documentación existente -que en gran parte permanece inédita hasta la fecha- y la aportación de nuevos planos que completen fases no documentadas: el estado construído y el estado actual de la obra. Se parte de la hipótesis de que todas las decisiones de proyecto -el vínculo con el lugar, la incorporación de las preexistencias, la respuesta al programa y la construcción- son consecuencia de la acción de la cubierta y se derivan del hecho de la filtración de la luz. En el Pabellón, la iluminación cenital y espacio horizontal en continuidad con el entorno se aunan de forma insólita. El curso de la investigación está guiado por la búsqueda de las cualidades de un espacio planteado con su límite superior permeable -cubierta filtrante- y por el debilitamiento de algunos de sus límites verticales. La tesis se estructura en tres capítulos principales -crónica, re-construcción y re-lectura-, que abordan la descripción, el análisis y la síntesis del Pabellón de acuerdo con la metodología de la investigación seguida. La crónica se dedica a la descripción exhaustiva de la sede nórdica desde varios puntos de vista. El objetivo de este capítulo es el de ubicar la obra en su contexto y facilitar la comprensión del conjunto de los aspectos y condicionantes que determinaron la formalización del Pabellón. El capítulo comienza con una síntesis de las circunstancias que desencadenaron la convocatoria del concurso. El apartado pormenoriza el programa propuesto por el comité nórdico y las propuestas presentadas por cada uno de los arquitectos invitados a participar en el concurso de cada país promotor: el noruego Sverre Fehn, el sueco Klas Anshelm y el finés Reima Piëtila. A continuación se explica el desarrollo y evolución del proyecto de Fehn y las fases que atraviesa la obra hasta su materialización, así como los cambios y modificaciones más relevantes que el edificio ha experimentado hasta nuestros días. Este apartado finaliza con una descripción de la sede como espacio expositivo desde su inauguración hasta la actualidad y cómo se ha ido adaptando a tal uso. La re-construcción aborda el análisis de la obra a partir de la disección de su identidad en cuatro aspectos elementales: su relación con el lugar y las preexistencias, la respuesta que el proyecto ofrece al programa planteado, las cualidades del espacio que genera la luz filtrada por la cubierta y la construcción desde los puntos de vista del proceso, el sistema y la materialidad. En estas parcelas se pretende identificar los elementos que constituyen la naturaleza, la organización espacial y la formalización del Pabellón y veremos que todos ellos están relacionados con su singular cubierta y con el fenómeno de la filtración de la luz. La re-lectura ofrece una mirada crítica del Pabellón en base a un análisis comparativo de la obra con un panorama de referencias que plantean los mismos temas arquitectónicos. En este capítulo se busca profundizar en los aspectos fundamentales del proyecto que se derivan del estudio realizado previamente, y así obtener una lectura más profunda los conceptos desarrollados por Fehn y su alcance. Uno de los temas de mayor importancia que acomete Fehn en esta obra es la interacción entre arquitectura y árbol. Se revisa la incidencia que tiene sobre el trazado de la planta la ocupación previa de árboles en el solar, así como las diferentes posturas que adopta la arquitectura ante este hecho. Se estudian algunos casos representativos de obras que establecen un vínculo de interdependencia con la fronda preexistente y la incorporan al proyecto como un estrato más del límite. Por último, se enumeran las consecuencias de la incorporación del árbol al espacio interior y las dificultades o beneficios que surgen de esta coexistencia. El segundo gran tema que se deriva del estudio del Pabellón es la búsqueda de un espacio expositivo flexible basado en la diafanidad, la iluminación natural homogénea y la apertura física al parque. En primer lugar se analiza la planta liberada de las servidumbres de estructura, instalaciones, espacios servidores y accesos fijos como soporte de la versatilidad de uso, así como la ocupación del espacio diáfano. En segundo lugar establecemos un análisis comparativo de la configuración del filtro lumínico en otras cubiertas que, al igual que el Pabellón, también persiguen la generación de una iluminación homogénea. Por último se analiza el grado de apertura física del espacio interior al exterior y los niveles de relación que se establecen con el espacio público circundante. La relectura finaliza con el estudio del Pabellón en el contexto de los espacios expositivos de Sverre Fehn para comprender la singularidad de este edificio en el conjunto de la obra del arquitecto noruego y comprobar cómo se plantean en los casos estudiados la exhibición del objeto, el recorrido y la luz. El desarrollo de esta tesis en torno al Pabellón está motivada por la consideración de que constituye un ejemplo en el que se condensan valores fundamentales de la arquitectura. Esta obra propone un espacio antimonumental que interactúa con las personas y que está caracterizada por la manipulación de los límites físicos, el compromiso con el programa, las preexistencias y el lugar donde se implanta. Representa un proyecto rotundo cuya estructura y sistema de relaciones se fundamenta en el plano de la realidad concreta.
Resumo:
En la coyuntura actual, en la que existe por un lado, exceso en la oferta de vivienda (de alto precio o de segunda residencia), y aparece por otro demanda de vivienda (de bajo precio y/o social), el mercado inmobiliario se encuentra paradójicamente bloqueado. Así, surge esta investigación como fruto de este momento histórico, en el cual se somete a debate económico el producto vivienda, no solo como consecuencia de la profunda crisis económica, sino también para la correcta gestión de los recursos desde el punto de vista de lo eficiente y sostenible. Se parte de la hipótesis de que es necesario determinar un estimador de costes de construcción de vivienda autopromovida como una de las soluciones a la habitación en el medio rural de Extremadura, para lo cual se ha tomado como modelo de análisis concretamente la Vivienda Autopromovida subvencionada por la Junta de Extremadura en el marco de la provincia de Cáceres. Con esta investigación se pretende establecer una herramienta matemática precisa que permita determinar la inversión a los promotores, el posible margen de beneficios a los contratistas y el valor real de la garantía en el préstamo a las entidades financieras. Pero el objetivo de mayor proyección social de esta investigación consiste en facilitar una herramienta sencilla a la Junta de Extremadura para que pueda establecer las ayudas de una manera proporcional. De este modo se ayuda a optimizar los recursos, lo cual en época de crisis resulta aun más acuciante, ya que conociendo previamente y con bastante exactitud el importe de las obras se pueden dirigir las ayudas de forma proporcional a las necesidades reales de la ejecución. De hecho, ciertas características difíciles de cuantificar para determinar las ayudas en materia de vivienda, como la influencia del número de miembros familiares o la atención a la discapacidad, se verían contempladas de forma indirecta en el coste estimado con el método aquí propuesto, ya que suponen siempre un aumento de las superficies construidas y útiles, de los huecos de fachadas o del tamaño de locales húmedos y por tanto se contemplan en la ecuación del modelo determinado. Por último, contar con un estimador de costes potencia la forma de asentamiento de la construcción mediante autopromocion de viviendas ya que ayuda a la toma de decisiones al particular, subvencionado o no. En efecto, la herramienta es valida en cierta medida para cualquier autopromocion, constituye un sistema de construcción con las menores posibilidades especulativas y lo más sostenible, es abundante en toda Extremadura, y consigue que el sector de la construcción sea un sistema más eficiente al optimizar su proceso económico de producción. SUMMARY Under the present circumstances, in which there is, on one hand, an excess in the supply of housing (high-price or second-home), and on the other hand a demand for housing (low cost and/or social), paradoxically the property market is at a standstill. This research has come about as a result of this moment in time, in which the product: housing, is undergoing economic debate, not only on account of this serious economic crisis, but for the proper management of resources from the point of view of efficiency and sustainability. A building-costs estimator for owner-developed housing is deemed necessary as one of the solutions for the rural environment that is Extremadura. To this end, it is the Owner-Developed House which has been taken as analysis model. It is subsidized by the Extremadura Regional Government in Caceres Province. This research establishes an accurate mathematical tool to work out the developers’ investment, the builder’s potential profit margin and the reality of the loan for the Financial Institution. But the result of most social relevance in this research is to provide the Extremadura Regional Government with a simple tool, so that it can draw up the Subventions proportionally. Thus, the resources are optimized, an even more vital matter in times of economic slump, due to the fact that if the cost of the building works is known with some accuracy beforehand, the subventions can be allocated in a way that is proportional to the real needs of execution. In fact certain elements related to housing subventions which are hard to quantify, such as the influence of number of family members or disability support, would be covered indirectly in cost estimate with the proposed method, since they inevitably involve an increase in built area, exterior wall openings and the size of plumbed rooms. As such they are covered in the determined model equation. Lastly, the availability of a cost-estimator reinforces the ownerdeveloped building model, since it assists decision-making by the individual, whether subsidized or not. This is because the tool is valid to some extent in any owner-development, and this building scheme, which is common in Extremadura, is the most sustainable, and the least liable to speculation. It makes the building sector more efficient by optimizing the economic production process.