54 resultados para Acorde místico
Resumo:
Playa de san Juan, en el término municipal de Guía de Isora, en la Isla de Tenerife, es una de las zonas costeras de mayor interés desde la perspectiva de rehabilitación y regeneración de una playa debido a su inmejorable clima, a la escasez de espacios de ocio de la población del Municipio y de Playa San Juan en particular, y a la actividad turística de la zona. En el tiempo, el frente costero de este núcleo urbano del suroeste de la Isla ha mantenido un importante depósito sedimentario producto de las aportaciones históricas del Barranco de San Juan, litoralizados en un frente de unos 700 m aproximadamente, dando nombre al propio entorno y núcleo de población. Las actuaciones humanas en la costa y aguas arriba del Barranco, unido a la caída del tiempo climático, definen los parámetros de la situación actual de este frente costero sedimentario, habiendo hecho desaparecer una de las pocas e importantes playas de la Isla. La escasa presión turística que hasta la fecha ha gravitado sobre el núcleo urbano, cuyos habitantes han estado inmersos en actividades económicas derivadas de la agricultura y pesca, con alto porcentaje de asalariados y aparceros, ha provocado la desconsideración histórica para este frente costero de actuaciones tendentes a recuperar para este asentamiento en la antigua playa, hoy demandada ante la escasez de recursos de esta índole que la oferta turística y de ocio requiere. En núcleo urbano de Playa San Juan, como el resto de las poblaciones insulares, ha depositado en los últimos tiempos sus esperanzas de futuro en el sector turístico de calidad como complemento a la actividad de sector primario, por lo que ha de potenciar los recursos disponibles para aquel sector, principal fuente de la economía estratégica del Archipiélago Canario. El recorrido histórico de las modificaciones que ha sufrido la costa comienza con los primeros asentamientos de pescadores que tradicionalmente, y ante la falta de infraestructuras adecuadas, han encontrado en las playas su principal refugio. La demanda de mejores condiciones provocó la ejecución, en los años ochenta, de la actual instalación portuaria, la que, apoyada en la Punta y Bajas de San Juan, consistió esencialmente en un dique-muelle de unos 280,00 m de longitud, sensiblemente paralelo a la playa existente, y de orientación NW-SE. Este hecho marcó el principio del fin de esa playa, al provocar un abrigo que hizo bascular y retroceder a la práctica totalidad del arco sedimentario hacia su interior, con las consecuencias que hoy podemos observar: el viejo horno de cal quedó afectado por las erosiones en su pie, la antigua Fábrica de Conservas vio retroceder la playa hasta sus mismos aledaños y la propia playa arenosa dejó paso a los callaos, bolos y cantos que aparecen en las cuatro quintas partes de su longitud. La actual filosofía preservadora de los espacios costeros, y en especial de las playas, hubiera determinado, junto con la mejora de las comunicaciones terrestres, otros lugares de menor afección, y posiblemente de mayor efectividad funcional, para la instalación portuaria, acorde con los avances técnicos de diseño y construcción. Es por ello que la dualidad puerto-playa provoca serias polémicas entre las necesidades y el progreso, y entre aquellas y la preservación del medio ambiente natural. Teniendo en cuenta todo ello se ha decidido que pudiendo convivir playa y puerto, así como lo ha demostrado la realidad actual, la regeneración de la playa se acometa en la bahía de San Juan entre el muelle viejo y el Horno de Cal.
Resumo:
España ha experimentado un importante crecimiento económico en los últimos años. Dicho crecimiento ha venido acompañado de un gran aumento del stock de infraestructuras. Asimismo, ha habido un avance en el parque automotor hacia vehículos cada vez más eficientes en el consumo de combustible. Estas tres situaciones producen un desequilibrio entre las necesidades presupuestarias para mantener las infraestructuras y la recaudación lograda por el Estado con el mismo fin. Para dar solución a la problemática mencionada, en el marco del proyecto OASIS, se desarrolla un modelo tarifario teniendo en cuenta tres principios básicos; cobertura de costes de la infraestructura, incentivo al uso de vehículos que contaminan menos y simplicidad del esquema de tarifas para el usuario. El modelo incluye cada una de las actuales concesiones adjudicadas por el Estado en el momento en que revierten. No obstante, no se ha incluido de momento para el análisis la red competencia de las Comunidades Autónomas ni la red a cargo de Diputaciones y Cabildos. Asimismo, dentro del modelo se consideran hipótesis macroeconómicas, el crecimiento de la red, la evolución del tráfico, la evolución de las regiones de convergencia de la Unión Europea y la evolución del nivel de emisiones del parque automotor. Se dimensionan las necesidades de fondos a corto y largo plazo para mantener un crecimiento de la red acorde con algunos países de la Unión Europea. Las tarifas que hacen viable el sistema, o tarifas de equilibrio, se determinan con base en un modelo financiero inicialmente planteado sólo para la red competencia del Estado. Asimismo, mediante un análisis de sensibilidad se determina la variabilidad de las mencionadas tarifas con las principales hipótesis planteadas.
Resumo:
La política territorial que se ha desarrollado en las últimas décadas en la Isla de Menorca pone de manifiesto la preocupación de los poderes públicos y de los ciudadanos por el respeto y la comprensión del territorio en el que se asientan, así como la búsqueda de un equilibrio que permita un desarrollo económico acorde con la protección de los espacios de mayor valor ambiental. Como resultado de este proceso, en 1993 Menorca es declarada Reserva de la Biosfera por la UNESCO, en 1999 se protege la zona de influencia de todas las Islas Baleares, impidiendo nuevos desarrollos urbanísticos en la costa (DOT) y en 2003 se aprueba el Plan Territorial Insular de Menorca, que amplía dicha protección excluyendo del desarrollo algunos lugares sensibles, como Punta Grossa, Son Saura, Cala Galdana, etc? En este contexto, la actividad con mayor incidencia en la fragilidad del litoral de la isla de Menorca es el turismo vinculado al producto de sol y playa y a las actividades náutico-deportivas, caracterizado por su alta estacionalidad. Al esfuerzo de ordenación y gestión realizado en todo el territorio insular se suma ahora la redacción del Plan de Insular de la Costa cuyo principal objetivo es garantizar el mejor uso de los recursos y la integridad del litoral de la isla. La ordenación de las actividades, usos y prácticas vinculados al litoral permitirá controlar los efectos negativos de actividades en creciente expansión, como el fondeo, que, por falta de regulación, pueden llegar a ser perjudiciales para la estabilidad del medio, así como un menoscabo de la garantía en el uso y disfrute público de la costa. Además de los efectos negativos sobre las praderas de fanerógamas por el sistema de anclaje y depósito de muertos, el fondeo masivo puede crear conflictos con el resto de usuarios, especialmente los bañistas. El traslado del combustible desde los puntos de suministro hasta las zonas de fondeo y el acto de rellenar el depósito en el mar provoca vertidos incontrolados desde los barcos al mar, tanto voluntarios como accidentales, y riesgo de accidentes marítimos y en tierra.
Resumo:
Tenemos una Metodología Multiescala por medio de la cual es posible estudiar las propiedades mecanicas de los isótopos de Hidrógeno. Observamos transiciones de Fase acorde con las reportadas por estudios experimentales. Existen discontinuidades en la variación de la velocidad del sonido que deben ser mejor estudiadas. Proponemos nuevas estructuras cristalinas para el Hidrógeno en Altas Presiones P mayor que 200 Gpa.
Resumo:
El proyecto trata del estudio de la tasa de absorción específica (SAR). En él se estudia la SAR que desprenden distintos dispositivos de comunicaciones inalámbricos. Se ha llevado a cabo en las instalaciones de la SETSI, en el laboratorio de radiofrecuencia situado en El Casar, Guadalajara, que pertenece al Ministerio de Industria Comercio y Turismo. La SAR es una relación entre la energía electromagnética acumulada en una masa de un material o tejido concreto. Por tanto, lo primero es definir la SAR, en la que se exponen sus parámetros. Además, se recogen los límites de exposición fijados por las normas internacionales IEC 62209-1 e IEC 62209-2 en relación a SAR. Posteriormente, acorde con las normas, se realiza una definición detallada de un banco de medidas de SAR, en donde se explica cada uno de los componentes del banco de manera detallada así como los sistemas que intervienen previamente a la realización de la medida, tipos de los sistemas para realizar las verificaciones pertinentes, y también las incertidumbres de ciertos parámetros. También se realiza un proceso completo de medida de SAR en el laboratorio de la SETSI, donde se realizan las comprobaciones necesarias para la realización de una serie de medidas sobre dispositivos de comunicaciones móviles. Éstas medidas se realizan primero sobre un teléfono móvil en las frecuencias de GSM, UMTS y WIFI, en las configuraciones estipuladas por la norma; “tocando” e “inclinada 15°” comparando los valores obtenidos con los límites marcados por las normas internacionales. Por último, en este apartado se realizan ciertas medidas con otras configuraciones que no están recogidas en la norma para intentar obtener los máximos valores de SAR posibles. Después se realiza una comparación entre dos dispositivos tipo “tablet”, para ello se realizan medidas en la banda de WIFI y se comentan los resultados obtenidos, relacionado con el diseño de cada uno de ellos. Posteriormente se realiza un presupuesto de un banco de SAR, donde se detallan todos los componentes que intervienen en la realización de las medidas de SAR, pero no se incluyen en él, los costes de mantenimiento o los costes relacionados con su uso. Por último se explican las conclusiones finales desprendidas de la realización de este proyecto de fin de carrera así como la bibliografía utilizada. ABTRACT This project consists on the study of the specific absorption rate (SAR).It studies the different SAR of several wireless communications devices. It has been held in SETSI’S facilities, in its radio frecuency laboratory located in El Casar, Guadalajara, which belongs to the Ministy of Industry, Trade and Tourism. The SAR is a ratio between the electromagnetic energy accumulated in a mass of concrete material or tissue. Therefore, the SAR is defined first, which sets its parameters. Also lists the exposure limits set by international standards IEC 62209-1 and IEC 62209-2 regarding SAR. Subsequently, according to the guidelines, performing a detailed definition of a SAR measures bench, which explains each of the components in detail of the bench and involved systems prior to the realization of the extent and types of systems to perform the necessary checks, and certain parameters uncertainties. Also performed a complete process for SAR in the SETSI laboratory, located in El Casar, Guadalajara, where the necessary checks are made to carry out a serie of measures on mobile communications devices. These will be carried out first on a mobile phone at frequencies of GSM, UMTS and WiFi, in the configurations set by the standard, "touch" and "tilt 15 °" comparing the values obtained with the limits set by international standards. Finally, this section will perform certain actions with other configurations that are not included in the standard to try to get the maximum possible SAR values. Then a comparison is made between two devices, such as "tablet", this will make measurements in the band WIFI and discussed the results, related to the design of each. Subsequently, a budget of a SAR bench, detailing all components involved in SAR measures, but not included in it, maintenance costs or the costs associated with its use. Finally conclusions are explained detached from the realization of this project as well as the bibliography used on it.
Resumo:
El objetivo principal del presente Proyecto Fin de Carrera es el de dotar a la Escuela Universitaria de Ingenieros Técnicos de Telecomunicación – Universidad Politécnica de Madrid (EUITT-UPM) de un banco de medida donde poder caracterizar los módulos fotovoltaicos en condiciones reales de operación. Es necesario comprobar el funcionamiento de los módulos para asegurarse de que está acorde a lo indicado en las especificaciones anunciadas por los fabricantes. A lo largo del texto daremos una introducción al concepto de energía solar fotovoltaica y una descripción de los sistemas tanto aislados como los conectados a la red eléctrica de distribución. Hablaremos sobre el fenómeno fotovoltaico y describiremos los módulos fotovoltaicos para ver las partes de las que está compuesto un módulo. Finalmente nos centraremos en el banco de ensayo y acabaremos explicando el caso práctico realizado en la EUITT. A través de la medida de la curva I-V del módulo fotovoltaico en condiciones reales de operación y la extrapolación de los resultados obtenidos a las Condiciones Estándar de Medida (CEM) comprobaremos lo que se ajustan los valores dados por los fabricantes de los módulos solares. ABSTRACT. The main aim of this project is to provide the EUITT-UPM a measure workbench to characterize photovoltaic (PV) modules in real test conditions (RTC). It is necessary to check the PV modules operations to assure that its characteristics are close to the ones given by the manufacturers. I will introduce the concept of photovoltaic solar energy and describe remote systems as well as network-connected systems. I will talk about the photovoltaic phenomenon and describe the PV modules in order to know the parts making up a module. Finally, I shall describe the measure workbench explaining the practical case carried out at the university. By measuring the I-V curve of PV modules in real test conditions and the later extrapolation of the results to the standard test conditions (STC), manufacturers’ data can be compared to the data obtained within this study.
Resumo:
El mundo de las telecomunicaciones evoluciona a gran velocidad, acorde con las necesidades de los usuarios. El crecimiento del número de servicios a través de las conexiones que actualmente utilizamos para conectarnos a Internet (Ej. IPTV) con elevados requerimientos de ancho de banda, que junto a los servicios de nuevo nacimiento (ej. OTT), contribuyen tanto al aumento de la necesidad de mayores velocidades de conexión de los usuarios como a la implantación de nuevos modelos de calidad de servicio. Las redes de datos de banda ancha (fija y móvil) actuales deben, por lo tanto, experimentar una profunda transformación para conseguir solventar de una forma eficiente los problemas y las necesidades de tráfico, pudiendo así absorber el progresivo incremento del ancho de banda, dejando las puertas abiertas a futuras mejoras. Y para ello las operadoras se nutrirán con la valiosa información de tráfico y usuario que les lleven a tomar las mejores decisiones de cara a que las transformaciones llevadas a cabo cubran exactamente lo que el usuario demanda de la forma más eficiente posible. Con estas premisas, surgieron las ideas que se plasmaron como objetivos del PFC : La idea de narrar el despliegue de la banda ancha en España desde sus orígenes hasta la actualidad, enfocando su crecimiento desde un punto de vista sociotecnológico. Dando continuidad al punto anterior, se persiguió la idea de conocer las herramientas sociales y tecnológicas a raíz de las cuales se pueda realizar una previsión del tráfico en las redes de las operadoras en un futuro cercano. La pretensión de mostrar las características de los usuarios de banda ancha y del tráfico de datos que generan, que son de carácter crítico para las operadoras en la elaboración de forma adecuada de la planificación de sus redes. La intención de revelar los procedimientos de las operadoras para que, una vez conocidas las características de sus usuarios, se puedan cumplir los requisitos demandados por los mismos: QoS y los indicadores clave de rendimiento (KPIs) Por otro lado, el nivel de detalle dado pretende adecuarse a un público que no tenga profundos conocimientos sobre la materia, y salvo partes bastante concretas, se puede catalogar este trabajo como de abierto al público en general. ABSTRACT. The world of telecommunications is evolving at high speed, according to the needs of users. The growing of services number through the connections that currently have been used to connect to the Internet (eg IPTV ) with high bandwidth requirements, which together with the new birth services (eg OTT ) contribute both to increased the need for higher connection speeds users and the implementation of new models of service quality. Data networks broadband (fixed and mobile ) today must , therefore, undergo a deep transformation to achieve an efficient solving problems and traffic needs, thus being able to absorb the gradual increase of bandwidth, leaving the door open to future improvements. And for that the operators will be nurtured with valuable information and user traffic that lead them to make better decisions in the face of the transformations carried out exactly meet the user demand for the most efficient possible way. With these assumptions, the ideas that emerged were expressed as PFC objectives : The idea of narrating the broadband deployment in Spain from its origins to the present, focusing its growth from a socio-technological approach. Continuing the previous point, it pursued the idea of knowing the social tools and technology as a result of which it can perform a traffic forecast operators networks in the near future. The attempt to show the characteristics of broadband users and data traffic they generate, which are mission critical for operators in developing adequately planning their networks. The intention to disclose procedures for operators, once known the characteristics of their users, it can meet the requirements demanded by them: QoS and key performance indicators (KPI). On the other hand, the level of detail given suit seeks an audience that does not have deep knowledge on the subject, unless quite specific parts, this work can be classified as open to the general public.
Resumo:
Esta tesis propone un sistema biométrico de geometría de mano orientado a entornos sin contacto junto con un sistema de detección de estrés capaz de decir qué grado de estrés tiene una determinada persona en base a señales fisiológicas Con respecto al sistema biométrico, esta tesis contribuye con el diseño y la implementación de un sistema biométrico de geometría de mano, donde la adquisición se realiza sin ningún tipo de contacto, y el patrón del usuario se crea considerando únicamente datos del propio individuo. Además, esta tesis propone un algoritmo de segmentación multiescala para solucionar los problemas que conlleva la adquisición de manos en entornos reales. Por otro lado, respecto a la extracción de características y su posterior comparación esta tesis tiene una contribución específica, proponiendo esquemas adecuados para llevar a cabo tales tareas con un coste computacional bajo pero con una alta precisión en el reconocimiento de personas. Por último, este sistema es evaluado acorde a la norma estándar ISO/IEC 19795 considerando seis bases de datos públicas. En relación al método de detección de estrés, esta tesis propone un sistema basado en dos señales fisiológicas, concretamente la tasa cardiaca y la conductancia de la piel, así como la creación de un innovador patrón de estrés que recoge el comportamiento de ambas señales bajo las situaciones de estrés y no-estrés. Además, este sistema está basado en lógica difusa para decidir el grado de estrés de un individuo. En general, este sistema es capaz de detectar estrés de forma precisa y en tiempo real, proporcionando una solución adecuada para sistemas biométricos actuales, donde la aplicación del sistema de detección de estrés es directa para evitar situaciónes donde los individuos sean forzados a proporcionar sus datos biométricos. Finalmente, esta tesis incluye un estudio de aceptabilidad del usuario, donde se evalúa cuál es la aceptación del usuario con respecto a la técnica biométrica propuesta por un total de 250 usuarios. Además se incluye un prototipo implementado en un dispositivo móvil y su evaluación. ABSTRACT: This thesis proposes a hand biometric system oriented to unconstrained and contactless scenarios together with a stress detection method able to elucidate to what extent an individual is under stress based on physiological signals. Concerning the biometric system, this thesis contributes with the design and implementation of a hand-based biometric system, where the acquisition is carried out without contact and the template is created only requiring information from a single individual. In addition, this thesis proposes an algorithm based on multiscale aggregation in order to tackle with the problem of segmentation in real unconstrained environments. Furthermore, feature extraction and matching are also a specific contributions of this thesis, providing adequate schemes to carry out both actions with low computational cost but with certain recognition accuracy. Finally, this system is evaluated according to international standard ISO/IEC 19795 considering six public databases. In relation to the stress detection method, this thesis proposes a system based on two physiological signals, namely heart rate and galvanic skin response, with the creation of an innovative stress detection template which gathers the behaviour of both physiological signals under both stressing and non-stressing situations. Besides, this system is based on fuzzy logic to elucidate the level of stress of an individual. As an overview, this system is able to detect stress accurately and in real-time, providing an adequate solution for current biometric systems, where the application of a stress detection system is direct to avoid situations where individuals are forced to provide the biometric data. Finally, this thesis includes a user acceptability evaluation, where the acceptance of the proposed biometric technique is assessed by a total of 250 individuals. In addition, this thesis includes a mobile implementation prototype and its evaluation.
Resumo:
El refuerzo de estructuras existentes mediante el encolado exterior de láminas de polímeros reforzados con fibras (FRP) se ha convertido en la aplicación más común de los materiales compuestos avanzados en construcción. Estos materiales presentan muchas ventajas frente a los materiales convencionales (sin corrosión, ligeros, de fácil aplicación, etc.). Pero a pesar de las numerosas investigaciones realizadas, aún persisten ciertas dudas sobre algunos aspectos de su comportamiento y las aplicaciones prácticas se llevan a cabo sólo con la ayuda de guías, sin que haya una normativa oficial. El objetivo de este trabajo es incrementar el conocimiento sobre esta técnica de refuerzo, y más concretamente, sobre el refuerzo a flexión de estructuras de fábrica. Con frecuencia el elemento reforzado es de hormigón armado y las láminas de FRP encoladas al exterior sirven para mejorar su resistencia a flexión, cortante o compresión (encamisados). Sin embargo su empleo en otros materiales como las estructuras de fábrica resulta muy prometedor. Las fábricas se caracterizan por soportar muy bien los esfuerzos de compresión pero bastante mal los de tracción. Adherir láminas de materiales compuestos puede servir para mejorar la capacidad resistente de elementos de fábrica sometidos a esfuerzos de flexión. Pero para ello, debe quedar garantizada una correcta adherencia entre el FRP y la fábrica, especialmente en edificios antiguos cuya superficie puede estar deteriorada por encontrarse a la intemperie o por el propio paso del tiempo. En el capítulo II se describen los objetivos fundamentales del trabajo y el método seguido. En el capítulo III se hace una amplia revisión del estado de conocimiento sobre el tema. En el apartado III.1 se detallan las principales características y propiedades mecánicas de fibras, matrices y materiales compuestos así como sus principales aplicaciones, haciendo especial hincapié en aspectos relativos a su durabilidad. En el apartado III.2 se incluye una revisión histórica de las líneas de investigación, tanto teóricas como empíricas, publicadas sobre estructuras de hormigón reforzadas a flexión encolando materiales compuestos. El apartado III.3 se centra en el aspecto fundamental de la adherencia refuerzo-soporte. Se hace un repaso a distintos modelos propuestos para prevenir el despegue distinguiendo si éste se inicia en la zona de anclaje o si está inducido por fisuras en la zona interior del elemento. Se observa falta de consenso en las propuestas. Además en este punto se relatan las campañas experimentales publicadas acerca de la adherencia entre materiales compuestos y fábricas. En el apartado III.4 se analizan las particularidades de las estructuras de fábrica. Además, se revisan algunas de las investigaciones relativas a la mejora de su comportamiento a flexión mediante láminas de FRP. El comportamiento mecánico de muros reforzados solicitados a flexión pura (sin compresión) ha sido documentado por varios autores, si bien es una situación poco frecuente en fábricas reales. Ni el comportamiento mecánico de muros reforzados solicitados a flexocompresión ni la incidencia que el nivel de compresión soportado por la fábrica tiene sobre la capacidad resistente del elemento reforzado han sido suficientemente tratados. En cuanto a los trabajos teóricos, las diferentes propuestas se basan en los métodos utilizados para hormigón armado y comparten los principios habituales de cálculo. Sin embargo, presentan diferencias relativas, sobre todo, a tres aspectos: 1) la forma de modelar el comportamiento de la fábrica, 2) el valor de deformación de cálculo del refuerzo, y 3) el modo de fallo que se considera recomendable buscar con el diseño. A pesar de ello, el ajuste con la parte experimental de cada trabajo suele ser bueno debido a una enorme disparidad en las variables consideradas. Cada campaña presenta un modo de fallo característico y la formulación que se propone resulta apropiada para él. Parece necesario desarrollar un método de cálculo para fábricas flexocomprimidas reforzadas con FRP que pueda ser utilizado para todos los posibles fallos, tanto atribuibles a la lámina como a la fábrica. En el apartado III.4 se repasan algunas lesiones habituales en fábricas solicitadas a flexión y se recogen ejemplos de refuerzos con FRP para reparar o prevenir estos daños. Para mejorar el conocimiento sobre el tema, se llevan a cabo dos pequeñas campañas experimentales realizadas en el Instituto de Ciencias de la Construcción Eduardo Torroja. La primera acerca de la adherencia de materiales compuestos encolados a fábricas deterioradas (apartado IV.1) y la segunda sobre el comportamiento estructural a flexocompresión de probetas de fábrica reforzadas con estos materiales (apartado IV.2). En el capítulo V se analizan algunos de los modelos de adherencia propuestos para prevenir el despegue del extremo del refuerzo. Se confirma que las predicciones obtenidas con ellos resultan muy dispares. Se recopila una base de datos con los resultados experimentales de campañas sobre adherencia de FRP a fábricas extraídas de la literatura y de los resultados propios de la campaña descrita en el punto IV.1. Esta base de datos permite conocer cual de los métodos analizados resulta más adecuado para dimensionar el anclaje de láminas de FRP adheridas a fábricas. En el capítulo VI se propone un método para la comprobación en agotamiento de secciones de fábrica reforzadas con materiales compuestos sometidas a esfuerzos combinados de flexión y compresión. Está basado en el procedimiento de cálculo de la capacidad resistente de secciones de hormigón armado pero adaptado a las fábricas reforzadas. Para ello, se utiliza un diagrama de cálculo tensión deformación de la fábrica de tipo bilineal (acorde con el CTE DB SE-F) cuya simplicidad facilita el desarrollo de toda la formulación al tiempo que resulta adecuado para predecir la capacidad resistente a flexión tanto para fallos debidos al refuerzo como a la fábrica. Además se limita la deformación de cálculo del refuerzo teniendo en consideración ciertos aspectos que provocan que la lámina adherida no pueda desarrollar toda su resistencia, como el desprendimiento inducido por fisuras en el interior del elemento o el deterioro medioambiental. En concreto, se propone un “coeficiente reductor por adherencia” que se determina a partir de una base de datos con 68 resultados experimentales procedentes de publicaciones de varios autores y de los ensayos propios de la campaña descrita en el punto IV.2. También se revisa la formulación propuesta con ayuda de la base de datos. En el capítulo VII se estudia la incidencia de las principales variables, como el axil, la deformación de cálculo del refuerzo o su rigidez, en la capacidad final del elemento. Las conclusiones del trabajo realizado y las posibles líneas futuras de investigación se exponen en el capítulo VIII. ABSTRACT Strengthening of existing structures with externally bonded fiber reinforced polymers (FRP) has become the most common application of advanced composite materials in construction. These materials exhibit many advantages in comparison with traditional ones (corrosion resistance, light weight, easy to apply, etc.). But despite countless researches have been done, there are still doubts about some aspects of their behaviour and applications are carried out only with the help of guidelines, without official regulations. The aim of this work is to improve the knowledge on this retrofitting technique, particularly in regard to flexural strengthening of masonry structures. Reinforced concrete is often the strengthened material and external glued FRP plates are used to improve its flexural, shear or compressive (by wrapping) capacity. However the use of this technique on other materials like masonry structures looks promising. Unreinforced masonry is characterized for being a good material to support compressive stresses but really bad to withstand tensile ones. Glue composite plates can improve the flexural capacity of masonry elements subject to bending. But a proper bond between FRP sheet and masonry must be ensured to do that, especially in old buildings whose surface can be damaged due to being outside or ageing. The main objectives of the work and the methodology carried out are described In Chapter II. An extensive overview of the state of art is done in Chapter III. In Section III.1 physical and mechanical properties of fibers, matrix and composites and their main applications are related. Durability aspects are especially emphasized. Section III.2 includes an historical overview of theoretical and empirical researches on concrete structures strengthened gluing FRP plates to improve their flexural behaviour. Section III.3 focuses on the critical point of bonding between FRP and substrate. Some theoretical models to prevent debonding of FRP laminate are reviewed, it has made a distinction between models for detachment at the end of the plate or debonding in the intermediate zones due to the effects of cracks. It is observed a lack of agreement in the proposals. Some experimental studies on bonding between masonry and FRP are also related in this chapter. The particular characteristics of masonry structures are analyzed in Section III.4. Besides some empirical and theoretical investigations relative to improve their flexural capacity with FRP sheets are reviewed. The mechanical behaviour of strengthened walls subject to pure bending (without compression) has been established by several authors, but this is an unusual situation for real masonry. Neither mechanical behaviour of walls subject to bending and compression nor influence of axial load in the final capacity of the strengthened element are adequately studied. In regard to theoretical studies, the different proposals are based on reinforced concrete analytical methods and share common design principles. However, they present differences, especially, about three aspects: 1) the constitutive law of masonry, 2) the value of ultimate FRP strain and 3) the desirable failure mode that must be looked for. In spite of them, a good agreement between each experimental program and its theoretical study is often exhibited due to enormous disparity in considered test parameters. Each experimental program usually presents a characteristic failure mode and the proposed formulation results appropriate for this one. It seems necessary to develop a method for FRP strengthened walls subject to bending and compression enable for all failure modes (due to FRP or masonry). Some common damages in masonry subject to bending are explained in Section III.4. Examples of FRP strengthening to repair or prevent these damages are also written. Two small experimental programs are carried out in Eduardo Torroja Institute to improve the knowledge on this topic. The first one is concerned about the bond between FRP plates and damaged masonry (section IV.1) and the second one is related to the mechanical behaviour of the strengthened masonry specimens subject to out of plane bending combined with axial force (section IV.2). In the Chapter V some bond models to prevent the debonding at the FRP plate end are checked. It is confirmed that their predictions are so different. A pure-shear test database is compiled with results from the existing literature and others from the experimental program described in section IV.1. This database lets know which of the considered model is more suitable to design anchorage lengths of glued FRP to masonry. In the Chapter VI a method to check unreinforced masonry sections with external FRP strengthening subject to bending and compression to the ultimate limit state is proposed. This method is based on concrete reinforced one, but it is adapted to strengthened masonry. A bilinear constitutive law is used for masonry (according to CTE DB SE-F). Its simplicity helps to develop the model formulation and it has proven to be suitable to predict bending capacity either for FRP failures or masonry crushing. With regard to FRP, the design strain is limited. It is taken into account different aspects which cause the plate can’t reach its ultimate strength, like intermediate FRP debonding induced by opening cracking or environmental damage. A “bond factor” is proposed. It is obtained by means of an experimental bending test database that includes 68 results from the existing literature and from the experimental program described in section IV.2. The proposed formulation has also been checked with the help of bending database. The effects of the main parameters, like axial load, FRP design effective strain or FRP stiffness, on the bending capacity of the strengthened element are studied in Chapter VII. Finally, the main conclusions from the work carried out are summarized in Chapter VIII. Future lines of research to be explored are suggested as well.
Resumo:
Tanto el tema de esta investigación, como sus objetivos, fundamentos, materiales seleccionados y parte experimental para alcanzarlos, han sido promovidos por la situación y el estado de las construcciones de hormigón armado que se comenzaron a realizar en España a partir del año 1975, con hormigones y morteros de cemento que contenían cenizas volantes hasta un 20 %, en principio, y hasta un 35 %, más tarde, de su dosificación de cemento Portland (CP), los cuales y en contra de lo esperado, han demandado y continúan demandando, muy a pesar de sus aparentes bondades de todo tipo que se les atribuían, una necesidad de mejora de sus prestaciones, especialmente, debido a un nivel inesperadamente bajo de la durabilidad de algunas obras construidas con los mismos. Todo era debido, en definitiva, a que las adiciones puzolánicas, naturales y artificiales, tales como las cenizas volantes, referidas antes, se vienen utilizando reglamentariamente para la fabricación de cementos y/o de sus productos derivados, hormigones, morteros y pastas, en la mayor parte de los países industrializados, desde hace ya más de tres décadas aproximadamente, en las mismas condiciones e idénticos usos constructivos que los hormigones y morteros de CP puro, viniendo además, dictada dicha utilización de estos materiales residuales, hoy sub-productos industriales, por cuestiones medioambientales y/o económicas, principalmente, motivo por el cual esta Tesis Doctoral ha pretendido responder también, adecuadamente y de manera esquemática (en forma de diagrama de flujo), a los criterios que deben de tenerse en cuenta a la hora de su selección y caracterización normalizada y reglamentada de estas adiciones minerales activas, sobre todo, antes de su dosificación y uso en forma del denominado cemento Portland con puzolana, o con ceniza volante, o con esquistos calcinados o con puzolanas calcinadas o con humo de sílice, cemento Portland mixto, cemento puzolánico o cemento compuesto, para que dichos problemas no se le produzcan al hormigón armado ni en masa. De aquí el enfoque tan particular y especial de esta investigación, al haberla circunscrito únicamente a las puzolanas naturales y artificiales, por considerarlas todas ellas, independientemente de por su origen, como materiales constituidos por pequeñas fracciones cristalinas distribuidas aleatoriamente en una matriz mayoritariamente vítrea y/o amorfa, la cual es la que le confiere su reactividad con el hidróxido de calcio en forma de cal apagada o de portlandita procedente de la hidratación del CP. A su vez, dichas fracciones vítreas y/o amorfas están constituidas, en su mayor parte, por sílice reactiva, SiO2r-, alúmina reactiva, Al2O3r-, y óxido de hierro reactivo, Fe2O3r-, recibiendo además, en conjunto, el nombre específico de "factores hidráulicos" de la puzolana, los cuales, por lo común, difieren cuantitativamente de sus contenidos totales, determinados por fusión alcalina mediante procedimientos normalizados. De los tres óxidos reactivos mencionados y desde el punto de vista técnico, los más importantes por su mayor presencia en casi todas las puzolanas naturales y artificiales y, también, transcendencia en la durabilidad química que les pueden llegar a conferir al hormigón armado y en masa, mortero o pasta de cemento que las contenga, son la SiO2r- y la Al2O3r-. El primero de los dos, la SiO2r-, reacciona nada más que con la portlandita (y el Ca(OH)2) para formar geles C-S-H, más tarde transformados en tobermoritas o en jennitas, semejantes a los que originan la alita y la belita del CP en su hidratación. Y desde el punto de vista normativo, la presencia de esta fracción silícica reactiva en las puzolanas viene regulada por la norma EN 197-1, de modo general, siendo además referida por la norma EN 450-1:2006, en el contexto de las cenizas volantes en su adición al hormigón, como "un polvo fino de partículas principalmente de forma esférica y cristalina, procedentes de la combustión de carbón pulverizado, que tiene propiedades puzolánicas y que está compuesto fundamentalmente de SiO2 y Al2O3". Además y de acuerdo con la primera de las dos normas, "El contenido de dióxido de silicio reactivo (definido y determinado según la norma EN 196-2 o su equivalente la UNE 80225) no debe ser inferior al 25 % en masa". Por su parte, cuantiosos estudios experimentales realizados por Talero solo y con otros investigadores, han demostrado que si la puzolana no es adecuada en calidad ni en cantidad, la durabilidad del cemento del que forme parte, y, por consiguiente, de los productos derivados que con él se fabriquen, hormigones, morteros, pastas y prefabricados, puede llegar a ser anormalmente baja, porque la alúmina reactiva, Al2O3r-, o alúmina tetra- o penta-coordinada que la constituye, se implica como tal, de una forma muy directa y con resultados totalmente contrapuestos incluso, en los ataques químicos agresivos naturales que se les producen, provenientes de terrenos y aguas selenitosas (sulfatos, que atacan en su caso al propio material hormigón, mortero y pasta que la contiene para formar ettringita de rápida formación, ett-rf, la cual puede llegar incluso a provocar un ataque rápido del yeso), del rocío marino y de las sales de deshielo (cloruros, que atacan, en cambio, a las armaduras de acero del hormigón provocándoles su corrosión electroquímica por "picadura", si bien, en este otro ataque químico, dicha Al2O3r- lo que origina es sal de Friedel de rápida formación, sF-rf, también, cuyo efecto es, en cambio, colmatador y protector, en definitiva, de dicha corrosión electroquímica), del agua de mar (acción agresiva mutua de cloruros y sulfatos), de la carbonatación, de la reactividad árido-álcali, además de intervenir en la liberación del calor de hidratación, así como también, en el comportamiento reológico de sus pastas, etc., acortándoles de este modo su durabilidad prevista y, en ocasiones, muy seriamente incluso. Pero lo más paradójico de todo es, que a pesar de su referido comportamiento totalmente contrapuesto, frente a sulfatos y cloruros, - aún no se dispone de un método de análisis químico para su determinación cuantitativa, que sea además relativamente sencillo en su operatividad, veraz, preciso, de respuesta rápida, desde el punto de vista técnico de la construcción (no más de 28 días), repetible, reproducible, que no implique peligro alguno para la seguridad vital de las personas que lo tengan que manipular y poner en práctica, económico, y que sirva también tanto para investigación -vertiente científica-, como, sobre todo, para control de calidad -vertiente técnica-, - y ni mucho menos tampoco se dispone todavía, de especificación química alguna que precise el contenido máximo de Al2O3r- (%) que tiene que poseer una puzolana natural o artificial, para poder ser añadida al cemento Portland y/o al hormigón que va a estar sometido a un determinado ataque químico agresivo de los mencionados antes, y, en especial, a sulfatos, a cloruros o al agua de mar. Y para mayor justificación de ambas necesidades, se ha de decir también que la vigente Instrucción de Hormigón Estructural EHE-08 no contempla tampoco especificación química alguna sobre los "factores hidráulicos", en general, ni del contenido de Al2O3r-(%) de las cenizas volantes, muy en particular, en su Artículo 30º "Adiciones", ni en ningún otro Artículo, a pesar de que sí contempla, en cambio, - otras especificaciones químicas que carecen del necesario significado en cuanto a la necesidad de llevar explícita o implícitamente, el mensaje de la Durabilidad Química deseado, y - el Artículo 37º, el cual y para mayor abundamiento se titula paradójicamente "Durabilidad del hormigón y de las armaduras". Asimismo, tampoco se contempla en la última versión que acaba de publicarse de la norma EN 197-1 titulada: "Cementos. Parte 1: Composición, especificaciones y criterios de conformidad de los cementos comunes". Ni tampoco, en la norma EN 450-1:2006 titulada "Cenizas volantes para hormigón. Parte 1: Definiciones, especificaciones y criterios de conformidad", ni en la vigente Instrucción española para la Recepción de Cementos, RC-08, ni en la norma ASTM C618-03 tampoco. La única especificación química que ambas normas, la europea y la norteamericana, refieren es aquella que dice que la suma de los contenidos porcentuales de SiO2 total, Al2O3 total y Fe2O3 total, de la puzolana natural o artificial, ha de ser mayor o igual que 70 %, definiendo, además, a las puzolanas de este modo tan genérico: "materiales silíceos o silíceos y aluminosos, que por sí mismos no poseen valor cementante alguno, pero que finamente divididos y en presencia de humedad, reaccionarán químicamente con hidróxido de calcio a temperaturas ordinarias para formar compuestos que poseen propiedades cementantes". Por consiguiente y de acuerdo con todo lo anterior, el objetivo primordial de esta Tesis Doctoral ha sido: Diseñar y poner a punto un nuevo método analítico de utilidad técnica (que la duración máxima del ensayo no sea mayor de 28 días), para determinar el contenido de alúmina reactiva, vítrea o amorfa, Al2O3r-, de las puzolanas naturales y artificiales. Y una vez puesto a punto, validarlo a nivel de su repetibilidad, de acuerdo con parámetros estadísticos apropiados, poniendo especial énfasis en los criterios de aceptación establecidos por la American Association of Official Analytical Chemists (AOAC). Y para conseguirlo, la innovación de esta investigación se ha basado en los siguientes fundamentos generales, a saber: - Toda la alúmina de cualquier puzolana natural o artificial, capaz de ser atacada, disuelta y lixiviada en 28 días, por la portlandita o por el hidróxido de calcio, Ca(OH)2, en medio acuoso, es considerada como alúmina reactiva, Al2O3r-. - Dicha fracción alumínica reactiva de la puzolana natural o artificial se tiene que encontrar, además, en el estado físico-químico de poder reaccionar químicamente también, en presencia de hidróxido de calcio, cloruro de sodio y agua, para originar monocloro¿aluminato de calcio hidratado, C3A·CaCl2·10H2O, o sal de Friedel. Además, dicho estado físico-químico de la puzolana ha de ser acorde con la definición de alúmina reactiva adoptada en esta investigación en razón de las prestaciones reales de durabilidad química que le puede llegar a conferir a los cementos de mezcla y a sus productos derivados, hormigones, morteros y pastas, que se fabriquen con la misma. - La originalidad de este nuevo método analítico, respecto a los demás métodos ya existentes, reside en que la cuantificación de dicha fracción alumínica reactiva de la puzolana natural o artificial, se realiza mediante cálculo estequiométrico, basándose, para ello, en dicha reacción química de formación de sal de Friedel precisamente, tras 28 días de hidratación básica-salina acelerada de la puzolana natural o artificial, habiéndose realizado, además, en esta investigación dicha determinación cuantitativa de la cantidad de sal de Friedel originada por cada puzolana, mediante dos técnicas analíticas instrumentales que fueron las siguientes: el análisis termogravimétrico (variante I ó I-I en su caso) y el método de Rietveld con la difracción de Rayos X en polvo (variante II). - La reacción química de formación de sal de Friedel tras 28 días de hidratación básica-salina acelerada de las puzolanas que se analicen, se optimizó para asegurar que el único compuesto químico de aluminio y cloro formado fuese sal de Friedel nada más (dosificando para ello en cantidad adecuada los reactivos químicos necesarios: Ca(OH)2, NaCl y agua destilada), manteniendo, además y por otra parte, el compromiso apropiado entre el máximo rendimiento de dicha reacción química (ataque, disolución y lixiviación en 28 días, de toda la alúmina reactiva de la puzolana) y el modo y medios más adecuados de acelerarlo para conseguirlo fue a 40°C de temperatura, con agitación constante y cierre hermético del reactor. - La aplicabilidad y selectividad del nuevo método analítico, objeto de esta Tesis Doctoral, fue estudiada con una serie de puzolanas naturales y artificiales españolas, silíceas y/o silíceas y aluminosas en naturaleza, que fueron las siguientes: M0 (metacaolín 0), M1 (M0 con 50 % de cuarzo), C y L (puzolanas naturales de las Islas Canarias), CV10 y CV17 (cenizas volantes), A (puzolana natural de Almagro), O (puzolana natural de Olot) y HS (humo de sílice). - Todas las adiciones minerales anteriores cumplieron con los principales requisitos físicos y químicos que son preceptivos para poder considerarlas, antes de todo, como puzolanas, lo que era indispensable y de obligado cumplimiento, para poderles determinar su contenido total de Al2O3r- (%) mediante el nuevo método analítico. Estos condicionantes fueron los siguientes: grado adecuado de finura de molido o tamaño medio de partícula (según la norma EN 451-2), haber sido analizadas químicamente antes de todo (según la norma EN 196-2 ó la ASTM C311), con el fin de determinarles especialmente, sus contenidos totales de SiO2 (%), Al2O3 (%) y Fe2O3 (%), haberles determinado, además, su contenido de sílice reactiva, SiO2r- (%) (según la norma UNE 80225), y haber cumplido con el ensayo de puzolanicidad o de Frattini (según la norma EN 196-5) a la edad de 28 días al menos. Este último requisito, otrora de obligado cumplimiento hasta el año 1988, para cualquier puzolana natural y artificial que una fábrica de cementos pretendiera introducir en el proceso de fabricación de un nuevo cemento puzolánico o cemento tipo CEM IV, ha logrado así, que se tenga que volver utilizar de nuevo de forma obligada con esta Tesis Doctoral. Y los resultados obtenidos con el nuevo método analítico de los contenidos de Al2O3r-(%) de las puzolanas seleccionadas, fueron los siguientes: - Mediante su variante I: M0 29.9 %, M1 16.9 %, CV10 11.4 %, L 12.3 %, C 12.6 %, A 8.0 %, CV17 9.5 % y O 6.3 % de Al2O3r-, y - Mediante su variante II: M0 30.7 %, M1 15.4 %, CV10 14.7%, L 11.8 %, C 11.1 %, A 8.9 %, CV17 9.6 % y O 6.8 % de Al2O3r-. Finalmente, todos ellos fueron contrastados, además, mediante la calibración y validación del nuevo método analítico, con los valores de referencia obtenidos de esas mismas puzolanas, los cuales se les habían determinado mediante el método de Florentín, consistente en atacar, disolver y lixiviar también toda la fracción alumínica soluble de la puzolana (y además, aquella silícica y férrica que la constituyen a la par), pero, en especial, su contenido total de alúmina reactiva, mediante un ataque básico (con Ca(OH)2 en medio acuoso a temperatura del laboratorio, habiendo sido, además, su duración hasta 1 año), seguido de otro ácido (con HCl, d = 1.12), habiéndose obtenido esta vez los siguientes resultados de sus contenidos de Al2O3r- (%): M0 28.8 %, M1 16.7 %, CV10 9.7 %, L 11.2 %, C 12.2 %, A 13.0 %, CV17 10.6 % y O 9.5 %. Dicha validación realizada ha puesto de manifiesto, en términos generales, que el nuevo método analítico es más fidedigno que el de Florentín, por lo que resulta ser totalmente apropiado para obtener los resultados que se han pretendido, además de proporcionarlos en un espacio de tiempo relativamente corto (28 días a lo sumo) y a un coste económico razonable por no elevado (salvo error u omisión y libre de impuestos directos e indirectos, el coste económico estimado de la variante I estaría en torno a 800.00 - 900.00 €/puzolana -caso más probable-, y aproximadamente una tercera parte nada más, en el caso de que la edad máxima del ensayo acelerado sea 7 días nada más -caso menos probable-), y, por consiguiente, técnicamente aceptable, al cumplir, además, en todo el rango considerado de variabilidad posible de concentraciones o contenidos del analito buscado en la puzolana, con tales parámetros de validación como son: linealidad (los resultados obtenidos son directamente proporcionales a la señal-respuesta instrumental recibida), sensibilidad, precisión excelente, repetibilidad satisfactoria de los valores obtenidos de los contenidos de Al2O3r- de todas y cada una de las adiciones puzolánicas seleccionadas, confirmando, por ello, la universalidad de su uso. Finalmente, las ventajas del nuevo método analítico, respecto a los métodos ya existentes recopilados de la bibliografía (el método de Florentín, el método de López Ruiz -HF 40 % y HNO3 2N-, el método de Murat y Driouche para arcillas -HF 0.5M-, el método de Arjuan, Silbee y Roy para cenizas volantes -HF 1 %- y su modificación por Fernández-Jiménez y cols. -HF 1 %, 27Al NMR MAS y XRD (método de Rietveld)-, y el método de determinación de la relación SiO2r-/Al2O3r- para arcillas y cenizas volantes por Ruiz-Santaquiteria y cols. -HF 1 %, NaOH 8M y ICP-AES-) son, principalmente, estar exento de peligro alguno para la seguridad vital de las personas que lo tengan que manipular y poner en práctica, ser bastante apropiado para control de calidad además de para investigación, su considerable menor coste económico, su relativamente corto espacio de tiempo que se necesita para obtener la respuesta-resultado pretendida (28 días a lo sumo), así como su universalidad y selectividad, puesto que además, su aplicabilidad es para todo tipo de adiciones puzolánicas naturales o artificiales, como así lo demuestran los resultados obtenidos de los materiales puzolánicos naturales y artificiales seleccionados y analizados, en un rango de concentraciones del analito -contenido de alúmina reactiva, Al2O3r- (%)-, desde el 5 % hasta el 30 % en masa, rango éste que, por otra parte, comprende prácticamente TODAS las adiciones puzolanas naturales y artificiales existentes en el mercado transnacional y las aún por existir. Por consiguiente y de acuerdo con lo anterior, el nuevo método analítico, ya sea realizado mediante su variante I o la II, debido, - en primer lugar, a los fundamentados planteamientos relativos a su procedimiento experimental -modus operandi- el cual ha sido aplicado a una amplia gama de puzolanas naturales y artificiales, y - en segundo lugar, debido a la calidad de los resultados obtenidos con un grado de precisión y repetibilidad excelentes, ha demostrado poseer una gran utilidad científica -para investigación-, pero, sobre todo, técnica -para control de calidad de adiciones puzolánicas naturales y artificiales que se adicionan habitualmente al cemento Portland en fábrica y/o a sus hormigones y morteros en planta-, además de ser representativos los valores obtenidos mediante el mismo respecto a la más que probable durabilidad química que cada una de ellas puede llegarle a conferir al hormigón armado y en masa, mortero y pasta del que forme parte, así como también su cantidad adecuada de sustitución parcial de cada cemento Portland para conseguirla, acorde con sus propias prestaciones químico-físicas o físico-químicas que puede llegarle a conferir, según sea su carácter químico (alumínico, alumínico-silícico, silícico-alumínico, silícico-férrico-alumínico o silícico), forma y tamaño medio de su partícula. Por último, el nuevo método analítico ha demostrado cumplir además, con todos los requisitos de obligado cumplimiento que establece la norma ISO/IEC 17025 sobre la calidad y fiabilidad de nuevos métodos o procedimientos analíticos no normalizados todavía, para poder ser propuesto en un futuro próximo, ante la Comisión de AENOR correspondiente, con objeto de comenzar un expediente para su certificación y normalización. ________________________________________________________________________________ Both the subject of this research, its objectives, fundamentals, materials selected and experimental part to achieve, have all been promoted by the situation and the state of reinforced concrete constructions that began performing in Spain from 1975, with concrete and mortars cement containing fly ash up to 20 %, in principle, and later, up to 35 % to its content of Portland cement, which and against expected, demanded a need to improve their performance, especially due to an unexpectedly low level of durability of some works built with them, despite, however, its apparent benefits of all kinds are ascribed to them. Ultimately, the natural or artificial pozzolanic additions, such as fly ash specially, referred to above, have been used with regulation to manufacture cements and/or its derivatives, concretes, mortars, cement pastes, in the most industrialized countries. More than three decades ago, under the same conditions and identical construction mainly uses concretes and mortars plain Portland cement, besides coming, given that use of these waste materials, industrial by-products today for environmental and/or economic issues. For this reason, this Doctoral Thesis aims to answer properly and schematically (in the form of flow chart), the criteria to be taken into account when selection and characterization standardized for these active mineral additions, especially prior to choosing and use in the so-called Portland Cement (PC) pozzolan, or with fly ash or with calcined shales or with calcined pozzolans or with silica fume or PC mixed or pozzolanic cement or compound cement, for that such pathology problems will not occur when reinforced concretes nor mass concretes are used for building. Hence the very particular and special focus about this research, having confined only to the natural or artificial pozzolans, considering them all, regardless of their origin, approach as materials consisting of small crystalline fractions randomly distributed in a largely vitreous and/or amorphous matrix, which confers their reactivity with calcium hydroxide in the form of slaked lime or portlandite from PC. In turn, these vitreous and/or amorphous fractions consist in its greater part, by reactive silica, SiO2r-, reactive alumina, Al2O3r-, and reactive iron oxide, Fe2O3r-, which also receive, in conjunction, the specific name of "hydraulic factors" of the pozzolan. Usually, they all differs in quantity of their respective total contents of the SiO2 (%), Al2O3 (%) and Fe2O3 (%) determined the pozzolan by alkaline fusion by means of standard procedures. Of the three above-mentioned oxides reagents and from the technical point of view, the most important for its increased presence in every one of the natural or artificial pozzolans and also significance in the chemical durability that can get them to give the concrete mortar or cement paste which contain them, are SiO2r- and Al2O3r-. From the first two, the SiO2r- reacts with portlandite only, released in the hydration of the PC (and with Ca(OH)2), to form C-S-H gels, transformed in tobermorites or jennites later on, similar to C-S-H gels also originating from the alite and belite hydration in the CP. From the standardization criteria point of view, the presence of this silicic fraction in pozzolans is regulated at first, by the European standard EN 197-1, in general, also being referred by the EN 450-1:2006, in the context of the fly ash in addition to the concrete, as a "fine powder of spherical particles mainly crystalline form. It is from the combustion of pulverized coal, which have pozzolanic properties and is mainly composed of SiO2 and Al2O3". In addition and according to the EN 197-1 standard, the reactive silica content (which can be defined and determined in accordance with EN 197-1 standard or its UNE 80225 standard) must not be lower than 25 % of its mass. Meanwhile, considerable experimental studies by Talero and Talero et al, have shown that if the pozzolan is not adequate in quality nor quantity, the durability of cement that is part and, therefore, of its derivative products, concretes, mortars and pastes cement, can become abnormally low because its reactive alumina, Al2O3r- (%), content or tetra- or penta-coordinated alumina which involves itself in a very direct and totally mixed and conflicting results even at all aggressive chemical attack natural to produce to the concrete, mortar and paste with inadequate natural and/or artificial pozzolans, such as those from the selenitous land and waters (sulfates, strikes if the material itself concrete, mortar and paste that contain them, for rapid forming ettringite form, ett-rf, which can even cause rapid gypsum attack to said concrete). In contrast, sea spray and de-icing salts (chlorides strikes the reinforced steel concrete causing them electrochemical corrosion by "bite", although in that other chemical attack, such Al2O3r- causes rapid Friedel's salt formation, Fs-rf, too, to cause protector effect of the electrochemical corrosion of reinforcements for these chlorides), seawater (mutual aggressive action of chlorides and sulfates), carbonation, alkali-silica reaction, and, in addition, to influence the release of hydration heat, as well as in the rheological behavior of the pastes, etc., decreasing/shorting them thus their expected durability and sometimes even very seriously. But the most ironic thing is, that despite its referral totally opposed, compared to sulfates and chlorides, behaviour, - far not available is, a chemical analysis method for its quantitative determination, which is also relatively simple in operation, accurate, precise, rapid response, from a technical point of view for building (no more than 28 days), repeatable, reproducible, not involving danger to life safety of the people who need to manipulate and implement, economic, and also serve for both scientific research and technical side, and - has yet to be any chemical specification that sets maximum levels for Al2O3r-(%) in the natural or artificial pozzolan to be added to the cement and/or to the concrete that will be subject to a particularly aggressive chemical attack from those mentioned above, and in particular, to sulphates, chlorides or sea water. And for the sake of and justification of this need, it has to be said that the current Spanish Instruction for Structural Concrete EHE-08 does not provide any specification on "hydraulic factors" in general, nor the content of Al2O3r- (%) in fly ash, very particular, as Article 30º "Additions", or any other Article, although does provide, however, other chemical specifications lacking the necessary meaning in terms of the message Chemical Durability mentioned, nor the Article 37º which and for greater sake, is paradoxically entitled "Durability of the concrete and of their reinforcements". It has also not contemplated in the latest version just released from EN 197-1 standard entitled "Cement Part 1: Composition, specifications and conformity criteria for common cements". Nor, in EN 450-1:2006 entitled "Fly ash for concrete Part 1: Definitions, specifications and conformity criteria", nor by current Spanish Instruction for Cement Reception, RC-08, nor the ASTM C618-03 Standard either. The only chemical specification that both Standards, European and American, refer is one that says that the sum of the total contents of SiO2 (%), Al2O3 (%) and Fe2O3 (%) of natural and artificial pozzolan, must be greater than or equal to 70 % , defining pozzolans thus: "siliceous or aluminous and siliceous materials, which themselves do not have any cementitious value but finely divided and in the presence of moisture it reacts with calcium hydroxide at ordinary temperatures to form compounds possessing cementitious properties". Consequently and according to everything related before, the primary objective of this Doctoral Thesis has been: To design and start-up a new quantitative analytical method of technical utility (the maximum test duration is not more than 28 days), to determine the content of reactive alumina content, Al2O3r- (%), vitreous or amorphous alumina, of natural and artificial pozzolans. And once designed, validate at repeatability level and in accordance with appropriate statistical parameters with special emphasis on the acceptance criteria established by the American Association of Official Analytical Chemists (AOAC). And to achieve this, the innovation of this research has been based on the following general principles, namely: - All the alumina in any pozzolan, natural or artificial, that can be attacked, dissolved and leached by portlandite or calcium hydroxide, Ca(OH)2, in aqueous medium, is considered reactive alumina, Al2O3r-. - This aluminic fraction of natural or artificial pozzolan to analyze and study, has to be in such physical-chemical state that it can react in the presence of calcium hydroxide, sodium chloride and water status and to cause monochloro-aluminate hydrated calcium, C3A·CaCl2·10H2O or Friedel's salt. Moreover, such physical-chemical state of the pozzolan must be consistent with the definition of reactive alumina adopted in this research because of the actual performance of chemical durability that can reach confer on blended cements and their derivatives, concretes, mortars and pastes that are manufactured with the same. - The originality of this new analytical method, compared to the other methods for determining reactive alumina existing (collected in abbreviated form in the state of the art of this report), is the quantification of such aluminic fraction of natural or artificial pozzolans is performed by stoichiometric calculation based on this, in the chemical reaction of Friedel's salt formation after 28 days of the analysis of saline-basic hydration accelerated natural or artificial pozzolan also performed in this research, and the quantitative determination of the Friedel's salt has been performed by two instrumental analytical techniques known as thermogravimetric analysis (variant I), and Rietveld method with X-ray powder diffraction (variant II). - The chemical reaction of Friedel's salt formation after 28 days of accelerated saline-basic hydration of the selected natural and artificial pozzolan, was optimized to ensure that the single chemical compound of aluminium and chlorine formed was Friedel's salt only (dosing for this purpose in amount suitable chemical reagents: Ca(OH)2, NaCl and distilled water), and, on the other hand, maintaining the appropriate compromise between the highest yield from the chemical reaction (attack, dissolution and leaching in 28 days, all reactive alumina of pozzolan) and to accelerate the etching media, which were 40°C temperature, constant stirring and sealing the reactor. - The applicability and selectivity of the new analytical method, the subject of this Doctoral Thesis, was studied with a series of Spanish natural and artificial pozzolans, siliceous or siliceous and aluminous in nature, which were as follows: M0 (metakaolin 0), M1 (M0 with 50 % quartz), L and C (natural pozzolans of the Canary Islands), CV10 (fly ash 10), CV17 (fly ash 17), A (natural pozzolan of Almagro), O (natural pozzolan of Olot), and HS (silica fume). - All mineral admixtures were selected satisfied the physical and chemical requirements proposed to consider them as pozzolan, which was mandatory, so its Al2O3r- (%) content can determine by the new analytical method. These conditions were as follows: adequate degree of fineness of grind or average particle size (according to EN 451-2 standard), have been analyzed chemically (according to EN 196-2 or ASTM C311 standards), in order to determine their total contents of SiO2 (%), Al2O3 (%) and Fe2O3 (%), mainly, having also determined its reactive silica content, SiO2r- (%) (UNE 80225 standard), and fulfilled with testing of pozzolanicity or Frattini test (according to EN 196-5 standard) at 28 days age at least. The last criteria was mandatory until 1988, for any natural and artificial pozzolan to a factory intended to introduce cements in the manufacturing process of a new Portland cement type CEM IV pozzolanic additions, and with this Doctoral Thesis has made is to be used once again mandatory. And the results obtained using the new analytical method, of the Al2O3r- (%) content for each selected pozzolan, were as follows: - by its variant I: M0 29.9 % , M1 16.9 % , CV10 11.4 % , L 12.3 % , C 12.6 % , A 8.0 % , CV17 9.5 % and O 6.3 % of Al2O3r-, and - by its variant II: M0 30.7 % , M1 15.4 % , CV10 14.7% % , L 11.8 % , C 11.1 % , A 8.9 % , CV17 9.6 % and O 6.8 % of Al2O3r-. Finally, they would all be further contrasted by the calibration and validation of new analytical method, with reference values obtained from these same natural and artificial pozzolans, which had been given by the method of Florentin, consisting of attack, dissolve and leached with a basic attack (with Ca(OH)2 in aqueous medium and laboratory temperature, having also been its duration up to 1 year), followed by another acid attack (HCl, d = 1.12), all soluble aluminic fraction of pozzolan, and in particular their total content of reactive alumina, Al2O3r-(%), was this time as follows: M0 28.8 %, M1 16.7 %, CV10 9.7 %, L 11.2 %, C 12.2 %, A 13.0 %, CV17 10.6 % and O 9.5 % (and their siliceous and iron contents that are at par). This validation has shown on the new analytical method is more reliable than Florentin method, so it turns out to be entirely appropriate to get the results that have been tried by the same, besides providing them a relatively short space of time (28 days at most) and reasonably no high economic cost (unless mistake -free direct and indirect taxes, such economic cost would be between 800.00 - 900.00 €/pozzolan (most likely case), and about an one-third part around, in the event that the maximum age of the accelerated test is 7 days only (less likely case). So it is technically acceptable, to consider the range of possible variability of concentrations or contents pozzolan analyte with validation parameters such as: linearity (the results obtained are directly proportional to the instrumental response signal received), excellent sensitivity and accuracy, satisfactory repeatability values from the contents of each and Al2O3r- (%) each selected pozzolan, confirming therefore universal use. Finally, the advantages of the new analytical method over existing methods compiled from literature (Florentin method , the Lopez Ruiz method -HF and HNO3 40 % 2N-, the method of Murat and Driouche for clays -0.5M HF-, the method of Arjuan, Roy and Silbee for fly ash -HF 1 %- and its modification by Fernández-Jiménez et al -HF 1 %, 27Al MAS NMR and XRD (Rietveld method)-, and the method for determining the SiO2r-/Al2O3r- clay and fly ash ratio of Santaquiteria Ruiz et al -HF 1 %, NaOH 8M and ICP-AES-) are primarily and relatively short time get the result intended answer (28 days at most), its considerable lower cost, free from danger to the life safety of the people who need to manipulate and put in practice as well as its universality and selectivity, since it is applicable for all types of natural or artificial pozzolans, as it has been shown by the results of selected natural and artificial pozzolanic materials and analyzed in a range of analyte concentrations -reactive alumina, Al2O3r- (%) content- from 5 % to 30 % by mass, this range, on the other hand, includes virtually ALL existing transnational market in natural and artificial pozzolans and still exist. Therefore and in accordance with the above, the new analytical method is already performed by the variant I or II, because, - firstly, grounded to experimental approaches concerning its experimental procedure -"modus operandi"- which has been applied to a wide range of natural and artificial pozzolans, and - secondly, due to the quality of the results obtained with a great degree of accuracy and repeatability, it has been shown to possess significant scientific value in the research, but especially technical value -for quality control of natural and artificial pozzolans commonly added to Portland cement factory and/or directly to their concrete and mortar in plant-, and also be representative enough of the values obtained by the same probable chemical durability that each of them can reach out to give the concrete mortar and paste to which it belongs, as well as proper amount of partial replacement of Portland cement. To get in line with their own chemical-physical or physical-chemical features which can come to confer, as its chemical character (aluminic, silicic-aluminic, aluminic-silicic, aluminic-ferric-silicic or ferric-silicic), form and medium size of its particle is. Finally, the new analytical method has proven to meet all mandatory requirements established by ISO/IEC 17025 on the quality and reliability of new methods or analytical procedures are not standardized yet, in order to be considered appropriate this new analytical method, in this Doctoral Thesis it is to be proposed in the near future, before the corresponding AENOR (Spanish Association for Standardization and Certification) Commission, to start a procedure for certification and standardization.
Resumo:
Este artículo es continuación del publicado en el número 2 de la revista "Anales de Ingeniería Mecánica"(diciembre 1982), sobre los métodos de análisis sísmico por reflexión. Como allí se indicó, con estos métodos se pretende determinar la geometría de los horizontes sísmicos en una determinada sección así como las características físicas de las interfases que separa. En el presente artículo se introducen mejoras en lo que se refiere a tiempo compucional y tipos de campos de velocidades. En este nuevo método propuesto para la resolución del proceso de emigración, mediante un método gráfico interactivo, pueden señalarse como ventjas fundamentales, las siguientes: a) Tiempo de resolución acorde con la complejidad del campo de velocidades, produciéndose economía de dicho tiempo, sobre todo en los casos sencillos; b) El número de elementos de la malla y las dimensiones de los mismos son función de la complejidad del campo de velocidades; c) El estudio en cada elemento se realiza de forma general e independiente. General, en cuanto a que los resultados que se obtienen en cada elemento son valores globales, referidos a la malla y al problema en conjunto, e independiente, puesto que los datos necesarios en cada elemento se obtienen a partir de valores nodales; d) Posibilidad de resolución del problema para un campo de velocidades cualesquiera, y por lo tanto, incluyendo los casos de discontinuidades de velocidad, que se evalúan mediante la ley de Snell; e) Posibilidad de extender el método al caso de tres dimensiones, sin más que elegir como elementos de la malla, tetraedros en vez de triángulos. En conjunto, resulta un método flexible, de fácil utilización e interpretación de resultados.
Resumo:
El presente ensayo pretende aportar una reflexión sobre el amplio territorio de la imagen en la arquitectura hoy. Para ello un buen ejemplo es el proyecto del Rascacielos de la Friedrichstrasse, realizado por Mies van der Rohe en el periodo de entre guerras de 1921/22. Muchas son las razones que han hecho de esta obra la elegida, pero una más actual sobresale del resto: que de los cientos de ensayos vertidos sobre esta obra solo se haya comentado -salvo alguna excepción- las características objetuales de lo directamente descrito por las vistas -como si fuera un fiel reflejo de la realidad- sin entrar a analizar la verdadera naturaleza física y simbólica de lo representado como expresión subjetiva –espacial- de una arquitectura. Si su importancia como punto de inflexión en el desarrollo inicial de una obra plenamente moderna es un motivo más que suficiente para dedicarle un estudio pormenorizado, ya que puede resultar crucial para comprender los inicios del autor en el Movimiento Moderno. Su presencia como un reducido conjunto de cuatro vistas perspectivas, mezcla de una fotografía del lugar y de un dibujo realizado sobre la misma, acarrea en nuestra opinión significaciones igual de importantes para la comprensión de esta arquitectura que todas aquellas ideas descritas sobre las mismas. Creadas en una época seminal, cuando el lenguaje de la fotografía y el cine están en pleno desarrollo, se puede afirmar que el conjunto de representaciones del Rascacielos de la Friedrichstrasse forman parte como referente histórico de una de las primeras arquitecturas virtuales que pertenecen de pleno derecho al Movimiento Moderno. Paradigma de las más absoluta actualidad, por encontrarse en esa frontera de lo nunca realizado, pero sí asumible espacialmente como realidad fotográfica, las imágenes del rascacielos se pueden considerar así como una de las primeras reflexiones sobre la naturaleza virtual del proyecto arquitectónico postindustrial. No siendo novedoso que la descripción fotográfica de una obra absorba y comunique por sí misma las múltiples propiedades que esta posee, como tampoco lo es que la mayoría de arquitecturas se den por conocidas actualmente a través de los medios. Sorprende que hasta hoy no se hayan analizado con la misma intensidad las múltiples razones que dieron lugar a unas imágenes cuya poética da forma por igual a la arquitectura que representan. Si la intención es reflexionar así sobre este hecho contemporáneo mediante un ejemplo paradigmático, certificado por la historia, nos veremos obligados a emplear una metodología acorde a la condición dual que toda imagen mediatizada produce en su lectura como mezcla fluctuante entre lo que se interpreta de manera autónoma a través de lo representado y de los significados que la imagen adquiere a lo largo de su recorrido como referente histórico. Esta ambivalencia interpretativa llevará a organizar este ensayo mediante dos bloques claramente diferenciados que, complementarios entre sí, siguen el orden de lectura que toda imagen de una arquitectura ofrece a través de los medios. Así, una primera parte, titulada La imagen de una arquitectura, analiza la interpretación que la historia y el autor han dado al rascacielos por medio de su uso en las diferentes exposiciones, revistas, tratados de estilos y monografías de las que ha formado parte. Este recorrido, que es el verdadero espacio donde estas arquitecturas residen, limitado -por una cuestión de poner orden- al estudio a los países que acogieron en vida al autor, servirá para establecer una primera narrativa que expone las diferentes posiciones que la crítica ha producido a lo largo del tiempo. La presencia del primer rascacielos junto al segundo, en la publicación que el arquitecto realiza de manera temprana en Frühlicht, obligará a incorporar esta segunda solución como una parte más del estudio. Cargada de las citas obligadas, de las diferentes personalidades que se han enfrentado a dichos proyectos, este primer análisis historiográfico establece un primer estado de la cuestión donde se revela una lectura ambivalente de los rascacielos. Si la interpretación directa de sus imágenes ha permitido profundizar en las características del vidrio y sus reflejos y en la desnudez de una estructura metálica como claros ejemplos de una expresión moderna y tecnológica de vidrio y el acero. Las particulares formas triangulares del primero y las formas sinuosas del segundo han dado lugar a una multitud de calificaciones, de ser ejemplo tanto de un Expresionismo como de un dadaísmo o constructivismo, que con el tiempo han ido creciendo hacia una admiración artística con una fuerte carga poética. Este lectura histórica, que remata con un breve periodo más actual donde se inicia el cuestionamiento de su carácter utópico y se recupera puntualmente su naturaleza como proyecto, servirá para plantear finalmente una serie de dudas que, sin respuesta aparente, exigen revisar la lectura de sus imágenes como parte de lo que realmente son: expresión de una nueva arquitectura que a partir de ese preciso momento entra de pleno derecho en el Movimiento Moderno. Por otro lado, la existencia en el discurso posterior del arquitecto de un proceso de formalizacion altamente valorado por su autor y la presencia de igual a igual de un lugar en las representaciones y planos de los rascacielos, que la historia parece haber obviado, servirán como razón más que suficiente para la revisión de unas relaciones iniciales con la vanguardia -todavía hoy poco definidas- así como para proponer la lectura renovada de dichas propuestas en altura por lo que también son: proyectos que responden a unas necesidades espaciales de un lugar y tiempo muy determinados. Esta segunda parte, denominada La arquitectura de una imagen, se plantea así más como una inmersión total en el mundo del proyecto que una simple descripción nominal del mismo. Conscientemente simétrica y opuesta a un primer bloque histórico, esta segunda parte -mucho más extensa y parte central de esta tesis- se concentra en el análisis de las imágenes como: aquel conjunto de eventos históricos que aplicados sobre la ciudad, el lugar, el rascacielos, y los procesos técnicos de la imagen dieron lugar a estas arquitecturas como razón de ser. Consecuentemente se tratará pues de bucear en las razones que, ocultas como proceso de formalización, llevaron a Mies a dar un paso más allá hacia a una nueva manera de hacer, ver y pensar su arquitectura, de expresar un espacio. La aproximación a estas imágenes radicará por tanto en resaltar al mismo tiempo la naturaleza de unas representaciones cuyas características fotográficas son el fiel reflejo de una época donde los nuevos medios visuales –cine y fotografía- empiezan a ser cuestionados por su excesiva utilización. La complejidad de unos hechos coincidentes en el tiempo obligará a dividir este estudio en un primer acercamiento general, a la respuesta dada por una mayoría de participantes al concurso, para así cotejar la importancia de una actitud proyectual y contextual común de Mies y sus compañeros. Mezcla de requerimientos y necesidades de la propia historia de la parcela, de las peculiaridades de un lugar y las exigencias programáticas del concurso; el siguiente paso consistirá en reconstruir el proceso de formalización del conjunto de dibujos que caracterizan ambos proyectos para así comprender los mecanismo que, suspendidos como traslaciones entre las diferentes representaciones, operan en la realización física de dichas imágenes y complementan como pensamiento la idea arquitectónica de los mismos. Con lo que se pretende ofrecer dos cosas: una interpretación que tenga en cuenta la novedosa naturaleza de la manera de pensar lo fotográfico en el arquitecto, así como la particular idiosincrasia del momento en que estas concurren. Dicho de otro modo, se realizará una aproximación de las vistas del primer rascacielos que tenga en cuenta la historia tecnológica y visual que rodea al evento y las características de una ejecución física todavía hoy sin aclarar del todo. El descubrimiento de una serie de incoherencias geométricas en las plantas, alzado y vistas del primer proyecto llevará a argumentar la presencia de un trampantojo que, nunca antes revelado, se entiende lleno de unas intenciones espaciales plenamente vanguardistas. Interpretación arquitectónica de las imágenes donde la presencia de una serie de elementos directamente ligados al lenguaje fotográfico y cinematográfico se traduce en una nueva lectura espacial plenamente dinámica llena de dislocación, ritmo y simultaneidad alejada de la idea de ver la forma como un elemento permanentemente fijo. Sugerencia que nos lleva directamente a la lectura del segundo proyecto de rascacielos como una clara continuación de lo imaginado en el primero. Para finalizar, tras una revisión biográfica -previa al proyecto- que desvela unas preocupaciones urbanas y un deseo de cambio anterior al concurso de la Friedrichstrasse, se comparan estas nuevas significaciones espaciales con una práctica de vanguardia que, coetánea a la convocatoria de 1921, demuestran unas investigaciones muy similares con unos mismos intereses cinematográficos. La lectura de las propuestas de tres artistas próximos en ese momento al arquitecto -como son Hans Richter, Moholy-Nagy y El Lissitzky- permiten demostrar unas preocupaciones muy similares a lo conseguido por Mies con los rascacielos que parecen haber servido de ejemplo y motivación mutua para el surgimiento de una nueva espacialidad -más fluida-. Esta lectura permitirá recuperar la importancia de estos dos proyectos como la expresión directa de una nueva manera de pensar y hacer su arquitectura que ya no tendrá vuelta atrás en la obra de Mies. A la vez que recuperar la potencialidad poética de unas vistas que, así definidas reiteradamente por la crítica, se revelan ahora como directas transmisoras de ese deseo de cambio arquitectónico evidenciado en los proyectos posteriores. Racionalización de una poética que al ir más allá de la forma directamente transcrita permite establecer una última reflexión general sobre como opera la imagen en la arquitectura, así como la pertinencia crítica de este proyecto para con el mundo virtual de hoy. En definitiva, más allá del poder evocador de estas representaciones, este será un estudio que pretende cuestionar las características que la imagen de la arquitectura puede proponer más allá de su literalidad por medio de la fascinante interacción que se produce entre la imagen y lo espacialmente imaginado. Encuentros, recursos e intereses de una respuesta plenamente arquitectónica que, además de dar luz a un cambio tan inclasificable como moderno, abre el camino a la interpretación de un proceso de formalizacion que, reiteradamente defendido por su autor justifican una intensidad poética dada por la historia y reafirman una preocupación artística a menudo desmentida por su autor. Dicho de otro modo, si profundizar en las razones arquitectónicas, históricas y técnicas que llevan a Mies a realizar sus rascacielos, por medio de su relación con la vanguardia y el cine, arrojan luz y explican el cambio que se está gestando en el arquitecto cara una nueva espacialidad fluida. Reflexionar sobre su naturaleza espacial -de estas imágenes ya icónicas- equivale a aportar una reflexión crítica sobre la naturaleza simbólica de la imagen de la arquitectura hoy. “Aunque el puesto clave que ocupa el Rascacielos de la Friedrichstrasse dentro de la historia de la arquitectura moderna nunca ha sido seriamente cuestionado, la opinion critica al respecto siempre ha estado dividida. Desde la publicacion de la monografia de Philip Johnson sobre Mies en 1947, el muro cortina como una piel transparente que reviste el esqueleto estructural has ido aclamado como un gran avance pionero. Otros puntos de vista sobre el edificio, subrayando su supuesta planta expresionista, lo han visto como un esfuerzo un poco menos aventurado. Asi calibrada, la propuesta de Mies para la Friedrichstrasse es radicalmente moderna en mas de un sentido enfatizado por Johnson.” 1 W.Tegethoff ABSTRACT This essay reflects on the broad territory of the image in today’s architecture. One good example is the Friedrichstrasse Skyscraper design by Mies van der Rohe in 1921/22, during the period between World Wars I and II. There are many reasons why this work has been chosen, but one of the most recent stands out above the rest: of the hundreds of essays written on this work, comments have been made only (with the odd exception) on the objectual characteristics of what has been directly described by the views (as if it were a genuine reflection of reality), without analysing the real physical and symbolic nature of the representation a subjective (spatial) expression of architecture. If its importance as a point of inflection in the initial development of a completely modern work is more than enough reason to make a detailed study, since it may be crucial for understanding the author’s beginnings in the Modern Movement. Its presence as a reduced set of four views, the combination of a photograph of the place and a drawing made of it, in our opinion, carry meanings that are as important for understanding this architecture as all the ideas described about them. Created during an early period, when the languages of photography and cinema were in full swing, it can be said that the perspectives of the Friedrichstrasse Skyscraper form a historical reference of one of the first virtual architectures that belong entirely to the Modern Movement. A paradigm of the most absolute modernity owing to the fact that it is on that frontier of the never-accomplished, but spatially assumable as photographic reality, the images of the skyscraper can be considered as one of the first reflections on the virtual nature of post-industrial architectural design. There is nothing new in the fact that the photographic description of work absorbs and communicates on its own the multiple properties it involves and there is nothing new in the fact that most architectures become known today through the media. It is surprising that no analysis has been made to date, with the same intensity, of the many reasons that led to a number of images whose poetry add form to the architecture they represent. If the intention is to reflect on this contemporary fact using a paradigmatic example certified by history, we will be forced to use a methodology that corresponds to the dual condition produced by the interpretation of all media images as a fluctuating combination of what is interpreted independently through the representation and meanings the image acquires as a historical reference. This ambivalent interpretation will lead this essay to be structured in two clearly different and complementary blocks that follow the reading order offered by any image of architecture in the media. Thus, a first part, titled The image of an architecture, analyses the interpretation history and the author have given to the skyscraper through its use in the various exhibitions, magazines, style agreements and monographs in which it has been included. This examination, which is the real space in which these architectures reside, is (to delimit and organise the study) restricted to countries in which the author lived during his lifetime and it will help establish a first narrative that considers the different interpretations made by critics over time. The presence of the first skyscraper next to the second one in the publication the architect makes early on in Frühlicht will require the second solution to be incorporated as another part of the study. Laden with necessary quotes by the various personalities who have examined said designs, this first historiographical analysis establishes an initial state of the question that reveals an ambivalent interpretation of skyscrapers. If the direct interpretation of the images has made it possible to closely examine the characteristics of the glass and its reflections and the nudity of a metal structure as clear examples of a modern and technological expression of glass and steel. The particular triangular shapes of the former and the sinuous shapes of the latter have generated many classifications that suggest it is an example of Expressionism, Dadaism or Constructivism, which have grown over time into artistic admiration laden with poetry. This historical reading, which concludes with a more recent short period that begins to question the utopian character and recovers its nature as a project, will finally consider a number of doubts that have no apparent answer and require a revision of the reading of the images as part of what they actually are: expression of a new architecture that becomes part of the Modern Movement as from that precise moment. In addition, the existence in the architect’s subsequent discourse of a formalisation process highly valued by the author and the equal presence of a place in the representations and plans of a skyscraper history seems to have forgotten, will stand as more than sufficient reason for a revision of initial relations with the avantgarde -not particularly well defined today- together with a renewed reading of said vertical proposals for what they also are: projects that respond to the special needs of a very specific place and time. This second part, titled The architecture of an image, is presented more as a total immersion in the project world than a mere nominal description of it. Deliberately symmetrical and opposite to a historic first bloc, this second part (much longer and central part of the thesis) it will focus on analysing images as: the set of historical events that affected the skyscraper, city, place and technical processes image to provide these architectures with their raison d’être. Consequently, the aim is to delve in the reasons which, hidden as a formalisation process, led Mies to move on to a new form of doing, seeing and thinking his architecture, of expressing a space. The approach to these images will therefore lie in highlighting the nature of a number of representations whose photographic features are the true reflection of a period in which the new visual media (cinema and photography) begin to be questioned due to excessive use. The complexity of facts that coincide in time will require this study to be divided into a first general approach, with a response given by most of the participants in the competition, to compare the importance of a common approach in terms of project and context of the response given by Mies and his colleagues. A combination of requirements and needs of the very history of the plot of land, the peculiarities of a place and the programmatic requirements of the competition; the next step will reconstruct the formalisation process of the set of drawings that characterise both to understand the mechanism which, suspended like translations between the different representations, operates in the realisation of said images and complements as thought their architectural idea. The aim is thus to offer two things: an interpretation that takes into account the new way in which the architect works with photography, together with the particular idiosyncrasy of the moment at which they occur. In other words, the approach will focus on the views of the first skyscraper, which takes into account the technological and visual history that surrounds the event and the characteristics of a physical execution that still remains unexplained in full. The subsequent discovery of a number of geometrical incoherences in the floor plans, elevations and views of the first project will lead to an argument for the presence of trompe l’oeil which, never before revealed, is seen as laden with completely avant-garde spatial intentions. Architectural interpretation of the images where the presence of a number of elements directly linked to the languages of photography and cinema is translated into a new spatial reading that is completely dynamic and full of dislocation, rhythm and simultaneity far-removed from the idea of seeing shape as a permanently fixed element. This suggestion takes us to directly to the second skyscraper design as a clear continuation of what he imagined in the first. To end, after a preliminary biographical revision (previous to the project) that reveals urban concerns and a desire for change before the Friedrichstrasse competition, a comparison is made of these new spatial meanings with avant-garde practice which, contemporary with the 1921 competition, show very similar investigations with the same cinematographic interest. The reading of the proposals of three artists close to the architect at that time -i.e. Hans Richter, Moholy-Nagy and El Lissitzky- reveals concerns that are very similar to what Mies achieved with the skyscrapers that seem to have been used as an example and mutual motivation for the creation of a new (more fluent) spatiality. This interpretation will make it possible to recover the importance of these two projects as the direct expression of a new way of thinking and doing his architecture that was to remain fixed in Mies’ work. This also gives rise to the possibility of recovering the poetic potential of views which, as defined repeatedly by the critics, now stand as the direct transmitters of the desire for architectural change shown in later projects. A rationalisation of poetry which, by going beyond the directly transcribed form, gives rise to the establishment of one general final reflection on how the image works in architecture, together with the critical relevance of this design for today’s virtual world. In short, beyond the evocative power of images this will be a study which questions the characteristics the image of architecture can propose beyond its literality through the fascinating interaction between the image and spatially imagined. Encounters, resources and interests of a completely architectural response that, besides sheds light to a change that is as non-classifiable as it is modern, shows the way to the interpretation of a formalisation process which, repeatedly defined by the author, justifies a poetic intensity and confirms an artistic concern often denied by the author. In other words, examining the architectural, historical and technical reasons that led Mies to create his skyscrapers, thanks to its relationship with the avant-garde and cinema, sheds light on and explains the change taking place in the architect with regard to a new fluent spatiality. Reflecting on the spatial nature -of these iconic images- is tantamount to a critical reflection on the symbolic nature of architecture today. “Although the key position of the Friedrichstrasse Office Building within the early history of modern architecture has never been seriously challenged, critical opinion on it has always been divided. Ever since the publication of Philip Johnson’s monograph on Mies in 1947, the curtain wall as a transparent skin sheathing the skeleton structure has frequently been hailed as a pioneering breakthrough. Other views of the building, stressing its supposedly Expressionist plan, have seen it as a somewhat less adventurous effort. In fact, the project has never been regarded in abroad context. Thus measured, Mies’s proposal fro Friedrichstrasse is radically modern in more than the one respect emphasized by Johnson.” 1 W.Tegethoff
Resumo:
La política territorial que se ha desarrollado en las últimas décadas en la Isla de Menorca pone de manifiesto la preocupación de los poderes públicos y de los ciudadanos por el respeto y la comprensión del territorio en el que se asientan, así como la búsqueda de un equilibrio que permita un desarrollo económico acorde con la protección de los espacios de mayor valor ambiental. Como resultado de este proceso, en 1993 Menorca es declarada Reserva de la Biosfera por la UNESCO, en 1999 se protege la zona de influencia de todas las Islas Baleares, impidiendo nuevos desarrollos urbanísticos en la costa (DOT) y en 2003 se aprueba el Plan Territorial Insular de Menorca, que amplía dicha protección excluyendo del desarrollo algunos lugares sensibles, como Punta Grossa, Son Saura, Cala Galdana, etc… En este contexto, la actividad con mayor incidencia en la fragilidad del litoral de la isla de Menorca es el turismo vinculado al producto de sol y playa y a las actividades náutico-deportivas, caracterizado por su alta estacionalidad. Al esfuerzo de ordenación y gestión realizado en todo el territorio insular se suma ahora la redacción del Plan de Insular de la Costa cuyo principal objetivo es garantizar el mejor uso de los recursos y la integridad del litoral de la isla. La ordenación de las actividades, usos y prácticas vinculados al litoral permitirá controlar los efectos negativos de actividades en creciente expansión, como el fondeo, que, por falta de regulación, pueden llegar a ser perjudiciales para la estabilidad del medio, así como un menoscabo de la garantía en el uso y disfrute público de la costa. Además de los efectos negativos sobre las praderas de fanerógamas por el sistema de anclaje y depósito de muertos, el fondeo masivo puede crear conflictos con el resto de usuarios, especialmente los bañistas. El traslado del combustible desde los puntos de suministro hasta las zonas de fondeo y el acto de rellenar el depósito en el mar provoca vertidos incontrolados desde los barcos al mar, tanto voluntarios como accidentales, y riesgo de accidentes marítimos y en tierra.
Resumo:
Las principal conclusión que se puede obtener tras el estudio es que el satélite, tal y como se ha tenido en cuenta, es perfectamente funcional desde el punto de vista eléctrico. Por la parte de la generación de potencia, los paneles son capaces de ofreces una cantidad tal como para que aproximadamente la mitad (en el caso de funcionamiento normal) de esta potencia sea destinada a la carga útil. Además, incluso en los modos de fallo definidos, el valor de potencia dedicada a la carga útil, es suficientemente alta como para que merezca la pena mantener el satélite operativo. Respecto de las baterías, se puede observar por su comportamiento que están, sobredimensionadas y por ello actúan como un elemento regulador del sistema completo, ya que tiene un amplio margen de trabajo por el cual se puede modificar el funcionamiento general. Y esto se demuestra no sólo en cuanto al estado de carga, que para el perfil de consumo constante y el de cuatro pulsos de 120 W por día se mantiene siempre por encima del 99%, si no también en términos de charging rate, el cual se está siempre dentro de los límites establecidos por el fabricante, asegurando una vida operativa acorde con la nominal. Por último, sobre el propio método de simulación se puede extraer que aun no siendo la mejor plataforma donde estudiar estos comportamientos. Presenta el inconveniente de que, en ciertas partes, restringe la flexibilidad a la hora de cambiar múltiples condiciones al mismo tiempo, pero a cambio permite un estudio bastante amplio con un requisito de conocimientos y de complejidad bajo, de manera que habilita a cualquier estudiante a llevar a cabo estudios similares.
Resumo:
El presente Trabajo fin Fin de Máster, versa sobre una caracterización preliminar del comportamiento de un robot de tipo industrial, configurado por 4 eslabones y 4 grados de libertad, y sometido a fuerzas de mecanizado en su extremo. El entorno de trabajo planteado es el de plantas de fabricación de piezas de aleaciones de aluminio para automoción. Este tipo de componentes parte de un primer proceso de fundición que saca la pieza en bruto. Para series medias y altas, en función de las propiedades mecánicas y plásticas requeridas y los costes de producción, la inyección a alta presión (HPDC) y la fundición a baja presión (LPC) son las dos tecnologías más usadas en esta primera fase. Para inyección a alta presión, las aleaciones de aluminio más empleadas son, en designación simbólica según norma EN 1706 (entre paréntesis su designación numérica); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). Para baja presión, EN AC AlSi7Mg0,3 (EN AC 42100). En los 3 primeros casos, los límites de Silicio permitidos pueden superan el 10%. En el cuarto caso, es inferior al 10% por lo que, a los efectos de ser sometidas a mecanizados, las piezas fabricadas en aleaciones con Si superior al 10%, se puede considerar que son equivalentes, diferenciándolas de la cuarta. Las tolerancias geométricas y dimensionales conseguibles directamente de fundición, recogidas en normas como ISO 8062 o DIN 1688-1, establecen límites para este proceso. Fuera de esos límites, las garantías en conseguir producciones con los objetivos de ppms aceptados en la actualidad por el mercado, obligan a ir a fases posteriores de mecanizado. Aquellas geometrías que, funcionalmente, necesitan disponer de unas tolerancias geométricas y/o dimensionales definidas acorde a ISO 1101, y no capaces por este proceso inicial de moldeado a presión, deben ser procesadas en una fase posterior en células de mecanizado. En este caso, las tolerancias alcanzables para procesos de arranque de viruta se recogen en normas como ISO 2768. Las células de mecanizado se componen, por lo general, de varios centros de control numérico interrelacionados y comunicados entre sí por robots que manipulan las piezas en proceso de uno a otro. Dichos robots, disponen en su extremo de una pinza utillada para poder coger y soltar las piezas en los útiles de mecanizado, las mesas de intercambio para cambiar la pieza de posición o en utillajes de equipos de medición y prueba, o en cintas de entrada o salida. La repetibilidad es alta, de centésimas incluso, definida según norma ISO 9283. El problema es que, estos rangos de repetibilidad sólo se garantizan si no se hacen esfuerzos o éstos son despreciables (caso de mover piezas). Aunque las inercias de mover piezas a altas velocidades hacen que la trayectoria intermedia tenga poca precisión, al inicio y al final (al coger y dejar pieza, p.e.) se hacen a velocidades relativamente bajas que hacen que el efecto de las fuerzas de inercia sean menores y que permiten garantizar la repetibilidad anteriormente indicada. No ocurre así si se quitara la garra y se intercambia con un cabezal motorizado con una herramienta como broca, mandrino, plato de cuchillas, fresas frontales o tangenciales… Las fuerzas ejercidas de mecanizado generarían unos pares en las uniones tan grandes y tan variables que el control del robot no sería capaz de responder (o no está preparado, en un principio) y generaría una desviación en la trayectoria, realizada a baja velocidad, que desencadenaría en un error de posición (ver norma ISO 5458) no asumible para la funcionalidad deseada. Se podría llegar al caso de que la tolerancia alcanzada por un pretendido proceso más exacto diera una dimensión peor que la que daría el proceso de fundición, en principio con mayor variabilidad dimensional en proceso (y por ende con mayor intervalo de tolerancia garantizable). De hecho, en los CNCs, la precisión es muy elevada, (pudiéndose despreciar en la mayoría de los casos) y no es la responsable de, por ejemplo la tolerancia de posición al taladrar un agujero. Factores como, temperatura de la sala y de la pieza, calidad constructiva de los utillajes y rigidez en el amarre, error en el giro de mesas y de colocación de pieza, si lleva agujeros previos o no, si la herramienta está bien equilibrada y el cono es el adecuado para el tipo de mecanizado… influyen más. Es interesante que, un elemento no específico tan común en una planta industrial, en el entorno anteriormente descrito, como es un robot, el cual no sería necesario añadir por disponer de él ya (y por lo tanto la inversión sería muy pequeña), puede mejorar la cadena de valor disminuyendo el costo de fabricación. Y si se pudiera conjugar que ese robot destinado a tareas de manipulación, en los muchos tiempos de espera que va a disfrutar mientras el CNC arranca viruta, pudiese coger un cabezal y apoyar ese mecanizado; sería doblemente interesante. Por lo tanto, se antoja sugestivo poder conocer su comportamiento e intentar explicar qué sería necesario para llevar esto a cabo, motivo de este trabajo. La arquitectura de robot seleccionada es de tipo SCARA. La búsqueda de un robot cómodo de modelar y de analizar cinemática y dinámicamente, sin limitaciones relevantes en la multifuncionalidad de trabajos solicitados, ha llevado a esta elección, frente a otras arquitecturas como por ejemplo los robots antropomórficos de 6 grados de libertad, muy populares a nivel industrial. Este robot dispone de 3 uniones, de las cuales 2 son de tipo par de revolución (1 grado de libertad cada una) y la tercera es de tipo corredera o par cilíndrico (2 grados de libertad). La primera unión, de tipo par de revolución, sirve para unir el suelo (considerado como eslabón número 1) con el eslabón número 2. La segunda unión, también de ese tipo, une el eslabón número 2 con el eslabón número 3. Estos 2 brazos, pueden describir un movimiento horizontal, en el plano X-Y. El tercer eslabón, está unido al eslabón número 4 por la unión de tipo corredera. El movimiento que puede describir es paralelo al eje Z. El robot es de 4 grados de libertad (4 motores). En relación a los posibles trabajos que puede realizar este tipo de robot, su versatilidad abarca tanto operaciones típicas de manipulación como operaciones de arranque de viruta. Uno de los mecanizados más usuales es el taladrado, por lo cual se elige éste para su modelización y análisis. Dentro del taladrado se elegirá para acotar las fuerzas, taladrado en macizo con broca de diámetro 9 mm. El robot se ha considerado por el momento que tenga comportamiento de sólido rígido, por ser el mayor efecto esperado el de los pares en las uniones. Para modelar el robot se utiliza el método de los sistemas multicuerpos. Dentro de este método existen diversos tipos de formulaciones (p.e. Denavit-Hartenberg). D-H genera una cantidad muy grande de ecuaciones e incógnitas. Esas incógnitas son de difícil comprensión y, para cada posición, hay que detenerse a pensar qué significado tienen. Se ha optado por la formulación de coordenadas naturales. Este sistema utiliza puntos y vectores unitarios para definir la posición de los distintos cuerpos, y permite compartir, cuando es posible y se quiere, para definir los pares cinemáticos y reducir al mismo tiempo el número de variables. Las incógnitas son intuitivas, las ecuaciones de restricción muy sencillas y se reduce considerablemente el número de ecuaciones e incógnitas. Sin embargo, las coordenadas naturales “puras” tienen 2 problemas. El primero, que 2 elementos con un ángulo de 0 o 180 grados, dan lugar a puntos singulares que pueden crear problemas en las ecuaciones de restricción y por lo tanto han de evitarse. El segundo, que tampoco inciden directamente sobre la definición o el origen de los movimientos. Por lo tanto, es muy conveniente complementar esta formulación con ángulos y distancias (coordenadas relativas). Esto da lugar a las coordenadas naturales mixtas, que es la formulación final elegida para este TFM. Las coordenadas naturales mixtas no tienen el problema de los puntos singulares. Y la ventaja más importante reside en su utilidad a la hora de aplicar fuerzas motrices, momentos o evaluar errores. Al incidir sobre la incógnita origen (ángulos o distancias) controla los motores de manera directa. El algoritmo, la simulación y la obtención de resultados se ha programado mediante Matlab. Para realizar el modelo en coordenadas naturales mixtas, es preciso modelar en 2 pasos el robot a estudio. El primer modelo se basa en coordenadas naturales. Para su validación, se plantea una trayectoria definida y se analiza cinemáticamente si el robot satisface el movimiento solicitado, manteniendo su integridad como sistema multicuerpo. Se cuantifican los puntos (en este caso inicial y final) que configuran el robot. Al tratarse de sólidos rígidos, cada eslabón queda definido por sus respectivos puntos inicial y final (que son los más interesantes para la cinemática y la dinámica) y por un vector unitario no colineal a esos 2 puntos. Los vectores unitarios se colocan en los lugares en los que se tenga un eje de rotación o cuando se desee obtener información de un ángulo. No son necesarios vectores unitarios para medir distancias. Tampoco tienen por qué coincidir los grados de libertad con el número de vectores unitarios. Las longitudes de cada eslabón quedan definidas como constantes geométricas. Se establecen las restricciones que definen la naturaleza del robot y las relaciones entre los diferentes elementos y su entorno. La trayectoria se genera por una nube de puntos continua, definidos en coordenadas independientes. Cada conjunto de coordenadas independientes define, en un instante concreto, una posición y postura de robot determinada. Para conocerla, es necesario saber qué coordenadas dependientes hay en ese instante, y se obtienen resolviendo por el método de Newton-Rhapson las ecuaciones de restricción en función de las coordenadas independientes. El motivo de hacerlo así es porque las coordenadas dependientes deben satisfacer las restricciones, cosa que no ocurre con las coordenadas independientes. Cuando la validez del modelo se ha probado (primera validación), se pasa al modelo 2. El modelo número 2, incorpora a las coordenadas naturales del modelo número 1, las coordenadas relativas en forma de ángulos en los pares de revolución (3 ángulos; ϕ1, ϕ 2 y ϕ3) y distancias en los pares prismáticos (1 distancia; s). Estas coordenadas relativas pasan a ser las nuevas coordenadas independientes (sustituyendo a las coordenadas independientes cartesianas del modelo primero, que eran coordenadas naturales). Es necesario revisar si el sistema de vectores unitarios del modelo 1 es suficiente o no. Para este caso concreto, se han necesitado añadir 1 vector unitario adicional con objeto de que los ángulos queden perfectamente determinados con las correspondientes ecuaciones de producto escalar y/o vectorial. Las restricciones habrán de ser incrementadas en, al menos, 4 ecuaciones; una por cada nueva incógnita. La validación del modelo número 2, tiene 2 fases. La primera, al igual que se hizo en el modelo número 1, a través del análisis cinemático del comportamiento con una trayectoria definida. Podrían obtenerse del modelo 2 en este análisis, velocidades y aceleraciones, pero no son necesarios. Tan sólo interesan los movimientos o desplazamientos finitos. Comprobada la coherencia de movimientos (segunda validación), se pasa a analizar cinemáticamente el comportamiento con trayectorias interpoladas. El análisis cinemático con trayectorias interpoladas, trabaja con un número mínimo de 3 puntos máster. En este caso se han elegido 3; punto inicial, punto intermedio y punto final. El número de interpolaciones con el que se actúa es de 50 interpolaciones en cada tramo (cada 2 puntos máster hay un tramo), resultando un total de 100 interpolaciones. El método de interpolación utilizado es el de splines cúbicas con condición de aceleración inicial y final constantes, que genera las coordenadas independientes de los puntos interpolados de cada tramo. Las coordenadas dependientes se obtienen resolviendo las ecuaciones de restricción no lineales con el método de Newton-Rhapson. El método de las splines cúbicas es muy continuo, por lo que si se desea modelar una trayectoria en el que haya al menos 2 movimientos claramente diferenciados, es preciso hacerlo en 2 tramos y unirlos posteriormente. Sería el caso en el que alguno de los motores se desee expresamente que esté parado durante el primer movimiento y otro distinto lo esté durante el segundo movimiento (y así sucesivamente). Obtenido el movimiento, se calculan, también mediante fórmulas de diferenciación numérica, las velocidades y aceleraciones independientes. El proceso es análogo al anteriormente explicado, recordando la condición impuesta de que la aceleración en el instante t= 0 y en instante t= final, se ha tomado como 0. Las velocidades y aceleraciones dependientes se calculan resolviendo las correspondientes derivadas de las ecuaciones de restricción. Se comprueba, de nuevo, en una tercera validación del modelo, la coherencia del movimiento interpolado. La dinámica inversa calcula, para un movimiento definido -conocidas la posición, velocidad y la aceleración en cada instante de tiempo-, y conocidas las fuerzas externas que actúan (por ejemplo el peso); qué fuerzas hay que aplicar en los motores (donde hay control) para que se obtenga el citado movimiento. En la dinámica inversa, cada instante del tiempo es independiente de los demás y tiene una posición, una velocidad y una aceleración y unas fuerzas conocidas. En este caso concreto, se desean aplicar, de momento, sólo las fuerzas debidas al peso, aunque se podrían haber incorporado fuerzas de otra naturaleza si se hubiese deseado. Las posiciones, velocidades y aceleraciones, proceden del cálculo cinemático. El efecto inercial de las fuerzas tenidas en cuenta (el peso) es calculado. Como resultado final del análisis dinámico inverso, se obtienen los pares que han de ejercer los cuatro motores para replicar el movimiento prescrito con las fuerzas que estaban actuando. La cuarta validación del modelo consiste en confirmar que el movimiento obtenido por aplicar los pares obtenidos en la dinámica inversa, coinciden con el obtenido en el análisis cinemático (movimiento teórico). Para ello, es necesario acudir a la dinámica directa. La dinámica directa se encarga de calcular el movimiento del robot, resultante de aplicar unos pares en motores y unas fuerzas en el robot. Por lo tanto, el movimiento real resultante, al no haber cambiado ninguna condición de las obtenidas en la dinámica inversa (pares de motor y fuerzas inerciales debidas al peso de los eslabones) ha de ser el mismo al movimiento teórico. Siendo así, se considera que el robot está listo para trabajar. Si se introduce una fuerza exterior de mecanizado no contemplada en la dinámica inversa y se asigna en los motores los mismos pares resultantes de la resolución del problema dinámico inverso, el movimiento real obtenido no es igual al movimiento teórico. El control de lazo cerrado se basa en ir comparando el movimiento real con el deseado e introducir las correcciones necesarias para minimizar o anular las diferencias. Se aplican ganancias en forma de correcciones en posición y/o velocidad para eliminar esas diferencias. Se evalúa el error de posición como la diferencia, en cada punto, entre el movimiento teórico deseado en el análisis cinemático y el movimiento real obtenido para cada fuerza de mecanizado y una ganancia concreta. Finalmente, se mapea el error de posición obtenido para cada fuerza de mecanizado y las diferentes ganancias previstas, graficando la mejor precisión que puede dar el robot para cada operación que se le requiere, y en qué condiciones. -------------- This Master´s Thesis deals with a preliminary characterization of the behaviour for an industrial robot, configured with 4 elements and 4 degrees of freedoms, and subjected to machining forces at its end. Proposed working conditions are those typical from manufacturing plants with aluminium alloys for automotive industry. This type of components comes from a first casting process that produces rough parts. For medium and high volumes, high pressure die casting (HPDC) and low pressure die casting (LPC) are the most used technologies in this first phase. For high pressure die casting processes, most used aluminium alloys are, in simbolic designation according EN 1706 standard (between brackets, its numerical designation); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). For low pressure, EN AC AlSi7Mg0,3 (EN AC 42100). For the 3 first alloys, Si allowed limits can exceed 10% content. Fourth alloy has admisible limits under 10% Si. That means, from the point of view of machining, that components made of alloys with Si content above 10% can be considered as equivalent, and the fourth one must be studied separately. Geometrical and dimensional tolerances directly achievables from casting, gathered in standards such as ISO 8062 or DIN 1688-1, establish a limit for this process. Out from those limits, guarantees to achieve batches with objetive ppms currently accepted by market, force to go to subsequent machining process. Those geometries that functionally require a geometrical and/or dimensional tolerance defined according ISO 1101, not capable with initial moulding process, must be obtained afterwards in a machining phase with machining cells. In this case, tolerances achievables with cutting processes are gathered in standards such as ISO 2768. In general terms, machining cells contain several CNCs that they are interrelated and connected by robots that handle parts in process among them. Those robots have at their end a gripper in order to take/remove parts in machining fixtures, in interchange tables to modify position of part, in measurement and control tooling devices, or in entrance/exit conveyors. Repeatibility for robot is tight, even few hundredths of mm, defined according ISO 9283. Problem is like this; those repeatibilty ranks are only guaranteed when there are no stresses or they are not significant (f.e. due to only movement of parts). Although inertias due to moving parts at a high speed make that intermediate paths have little accuracy, at the beginning and at the end of trajectories (f.e, when picking part or leaving it) movement is made with very slow speeds that make lower the effect of inertias forces and allow to achieve repeatibility before mentioned. It does not happens the same if gripper is removed and it is exchanged by an spindle with a machining tool such as a drilling tool, a pcd boring tool, a face or a tangential milling cutter… Forces due to machining would create such big and variable torques in joints that control from the robot would not be able to react (or it is not prepared in principle) and would produce a deviation in working trajectory, made at a low speed, that would trigger a position error (see ISO 5458 standard) not assumable for requested function. Then it could be possible that tolerance achieved by a more exact expected process would turn out into a worst dimension than the one that could be achieved with casting process, in principle with a larger dimensional variability in process (and hence with a larger tolerance range reachable). As a matter of fact, accuracy is very tight in CNC, (its influence can be ignored in most cases) and it is not the responsible of, for example position tolerance when drilling a hole. Factors as, room and part temperature, manufacturing quality of machining fixtures, stiffness at clamping system, rotating error in 4th axis and part positioning error, if there are previous holes, if machining tool is properly balanced, if shank is suitable for that machining type… have more influence. It is interesting to know that, a non specific element as common, at a manufacturing plant in the enviroment above described, as a robot (not needed to be added, therefore with an additional minimum investment), can improve value chain decreasing manufacturing costs. And when it would be possible to combine that the robot dedicated to handling works could support CNCs´ works in its many waiting time while CNCs cut, and could take an spindle and help to cut; it would be double interesting. So according to all this, it would be interesting to be able to know its behaviour and try to explain what would be necessary to make this possible, reason of this work. Selected robot architecture is SCARA type. The search for a robot easy to be modeled and kinematically and dinamically analyzed, without significant limits in the multifunctionality of requested operations, has lead to this choice. Due to that, other very popular architectures in the industry, f.e. 6 DOFs anthropomorphic robots, have been discarded. This robot has 3 joints, 2 of them are revolute joints (1 DOF each one) and the third one is a cylindrical joint (2 DOFs). The first joint, a revolute one, is used to join floor (body 1) with body 2. The second one, a revolute joint too, joins body 2 with body 3. These 2 bodies can move horizontally in X-Y plane. Body 3 is linked to body 4 with a cylindrical joint. Movement that can be made is paralell to Z axis. The robt has 4 degrees of freedom (4 motors). Regarding potential works that this type of robot can make, its versatility covers either typical handling operations or cutting operations. One of the most common machinings is to drill. That is the reason why it has been chosen for the model and analysis. Within drilling, in order to enclose spectrum force, a typical solid drilling with 9 mm diameter. The robot is considered, at the moment, to have a behaviour as rigid body, as biggest expected influence is the one due to torques at joints. In order to modelize robot, it is used multibodies system method. There are under this heading different sorts of formulations (f.e. Denavit-Hartenberg). D-H creates a great amount of equations and unknown quantities. Those unknown quatities are of a difficult understanding and, for each position, one must stop to think about which meaning they have. The choice made is therefore one of formulation in natural coordinates. This system uses points and unit vectors to define position of each different elements, and allow to share, when it is possible and wished, to define kinematic torques and reduce number of variables at the same time. Unknown quantities are intuitive, constrain equations are easy and number of equations and variables are strongly reduced. However, “pure” natural coordinates suffer 2 problems. The first one is that 2 elements with an angle of 0° or 180°, give rise to singular positions that can create problems in constrain equations and therefore they must be avoided. The second problem is that they do not work directly over the definition or the origin of movements. Given that, it is highly recommended to complement this formulation with angles and distances (relative coordinates). This leads to mixed natural coordinates, and they are the final formulation chosen for this MTh. Mixed natural coordinates have not the problem of singular positions. And the most important advantage lies in their usefulness when applying driving forces, torques or evaluating errors. As they influence directly over origin variable (angles or distances), they control motors directly. The algorithm, simulation and obtaining of results has been programmed with Matlab. To design the model in mixed natural coordinates, it is necessary to model the robot to be studied in 2 steps. The first model is based in natural coordinates. To validate it, it is raised a defined trajectory and it is kinematically analyzed if robot fulfils requested movement, keeping its integrity as multibody system. The points (in this case starting and ending points) that configure the robot are quantified. As the elements are considered as rigid bodies, each of them is defined by its respectively starting and ending point (those points are the most interesting ones from the point of view of kinematics and dynamics) and by a non-colinear unit vector to those points. Unit vectors are placed where there is a rotating axis or when it is needed information of an angle. Unit vectors are not needed to measure distances. Neither DOFs must coincide with the number of unit vectors. Lengths of each arm are defined as geometrical constants. The constrains that define the nature of the robot and relationships among different elements and its enviroment are set. Path is generated by a cloud of continuous points, defined in independent coordinates. Each group of independent coordinates define, in an specific instant, a defined position and posture for the robot. In order to know it, it is needed to know which dependent coordinates there are in that instant, and they are obtained solving the constraint equations with Newton-Rhapson method according to independent coordinates. The reason to make it like this is because dependent coordinates must meet constraints, and this is not the case with independent coordinates. When suitability of model is checked (first approval), it is given next step to model 2. Model 2 adds to natural coordinates from model 1, the relative coordinates in the shape of angles in revoluting torques (3 angles; ϕ1, ϕ 2 and ϕ3) and distances in prismatic torques (1 distance; s). These relative coordinates become the new independent coordinates (replacing to cartesian independent coordinates from model 1, that they were natural coordinates). It is needed to review if unit vector system from model 1 is enough or not . For this specific case, it was necessary to add 1 additional unit vector to define perfectly angles with their related equations of dot and/or cross product. Constrains must be increased in, at least, 4 equations; one per each new variable. The approval of model 2 has two phases. The first one, same as made with model 1, through kinematic analysis of behaviour with a defined path. During this analysis, it could be obtained from model 2, velocities and accelerations, but they are not needed. They are only interesting movements and finite displacements. Once that the consistence of movements has been checked (second approval), it comes when the behaviour with interpolated trajectories must be kinematically analyzed. Kinematic analysis with interpolated trajectories work with a minimum number of 3 master points. In this case, 3 points have been chosen; starting point, middle point and ending point. The number of interpolations has been of 50 ones in each strecht (each 2 master points there is an strecht), turning into a total of 100 interpolations. The interpolation method used is the cubic splines one with condition of constant acceleration both at the starting and at the ending point. This method creates the independent coordinates of interpolated points of each strecht. The dependent coordinates are achieved solving the non-linear constrain equations with Newton-Rhapson method. The method of cubic splines is very continuous, therefore when it is needed to design a trajectory in which there are at least 2 movements clearly differents, it is required to make it in 2 steps and join them later. That would be the case when any of the motors would keep stopped during the first movement, and another different motor would remain stopped during the second movement (and so on). Once that movement is obtained, they are calculated, also with numerical differenciation formulas, the independent velocities and accelerations. This process is analogous to the one before explained, reminding condition that acceleration when t=0 and t=end are 0. Dependent velocities and accelerations are calculated solving related derivatives of constrain equations. In a third approval of the model it is checked, again, consistence of interpolated movement. Inverse dynamics calculates, for a defined movement –knowing position, velocity and acceleration in each instant of time-, and knowing external forces that act (f.e. weights); which forces must be applied in motors (where there is control) in order to obtain requested movement. In inverse dynamics, each instant of time is independent of the others and it has a position, a velocity, an acceleration and known forces. In this specific case, it is intended to apply, at the moment, only forces due to the weight, though forces of another nature could have been added if it would have been preferred. The positions, velocities and accelerations, come from kinematic calculation. The inertial effect of forces taken into account (weight) is calculated. As final result of the inverse dynamic analysis, the are obtained torques that the 4 motors must apply to repeat requested movement with the forces that were acting. The fourth approval of the model consists on confirming that the achieved movement due to the use of the torques obtained in the inverse dynamics, are in accordance with movements from kinematic analysis (theoretical movement). For this, it is necessary to work with direct dynamics. Direct dynamic is in charge of calculating the movements of robot that results from applying torques at motors and forces at the robot. Therefore, the resultant real movement, as there was no change in any condition of the ones obtained at the inverse dynamics (motor torques and inertial forces due to weight of elements) must be the same than theoretical movement. When these results are achieved, it is considered that robot is ready to work. When a machining external force is introduced and it was not taken into account before during the inverse dynamics, and torques at motors considered are the ones of the inverse dynamics, the real movement obtained is not the same than the theoretical movement. Closed loop control is based on comparing real movement with expected movement and introducing required corrrections to minimize or cancel differences. They are applied gains in the way of corrections for position and/or tolerance to remove those differences. Position error is evaluated as the difference, in each point, between theoretical movemment (calculated in the kinematic analysis) and the real movement achieved for each machining force and for an specific gain. Finally, the position error obtained for each machining force and gains are mapped, giving a chart with the best accuracy that the robot can give for each operation that has been requested and which conditions must be provided.