20 resultados para saltos aquáticos
em Universidad Politécnica de Madrid
Resumo:
En los últimos años ha aumentado el interés en el desarrollo de proyectos en el ámbito de las centrales hidroeléctricas y en concreto en las centrales reversibles. Estas centrales están diseñadas para grandes caudales y saltos, lo cual conlleva túneles de gran diámetro y alta presión y a menudo son esquemas subterráneos. Por ello, los estudios relativos a revestimientos de túneles en presión y los referentes a los blindajes de acero han cobrado una mayor relevancia. En las décadas de los 60 y 70 se realizó una importante labor de investigación coincidiendo con el desarrollo hidroeléctrico en Europa y Norteamérica, que sin embargo ha quedado sin continuidad hasta esta década, en la que se ha experimentado un impulso debido al desarrollo de nuevos proyectos hidroeléctricos de gran magnitud. La adecuación de los métodos de cálculo de blindajes supone una herramienta imprescindible en el correcto desarrollo técnico de los nuevos proyectos hidroeléctricos, así como para la evaluación de la seguridad de los saltos hidroeléctricos existentes en operación. En la presente Tesis se realiza un análisis del comportamiento estructural de las galerías en presión de saltos hidroeléctricos, así como una discusión y revisión de los métodos de cálculo existentes. En concreto se analizan los siguientes aspectos: •Descripción y comparación de las formulaciones existentes para el cálculo de blindajes tanto a presión exterior como interior. •Aplicación del Método de Elementos Finitos para la modelización y cálculo resistente y frente a inestabilidad de blindajes sometidos a presión exterior. •Análisis de un caso real, en el que se ha producido un fallo estructural en un blindaje sometido a presión exterior. Discusión sobre el comportamiento de blindajes con rigidizadores. Estudio paramétrico de la capacidad resistente y de la estabilidad de los blindajes con rigidizadores. •Estudio del comportamiento diferenciado entre un rigidizador y un conector. •Detalles constructivos y de durabilidad de las galerías en presión. •Desarrollo de una metodología para el cálculo de blindajes y tuberías forzadas a fatiga derivada de las variaciones de presión de la conducción. •Análisis de un caso real de una tubería forzada sometida a procesos de variación de carga, evaluando su seguridad frente a la fatiga. El cálculo de blindajes en galerías forzadas presenta una serie de aspectos complejos, y que no permiten la definición del problema con exactitud, tales como las características del macizo rocoso y su permeabilidad, la determinación del nivel freático, la holgura existente entre el blindaje y el revestimiento del trasdós y sus posibles defectos geométricos. Por estas incertidumbres, el cálculo de blindajes supone una materia compleja y que debe ser abordada desde la cautela y el análisis de otros trabajos y/o análisis realizados con anterioridad. En cualquier caso, debe realizarse un análisis de sensibilidad de los diversos parámetros que intervienen en el cálculo. En esta tesis se han descrito las principales formulaciones de cálculo de blindajes de galerías forzadas sometidas a presión interior y exterior; se ha constatado que existe una gran diversidad y que de su aplicación no se llega a resultados concluyentes. Las formulaciones clásicas utilizadas en el cálculo de blindajes lisos y con rigidizadores sometidos a presión exterior (Amstutz y Jacobsen) no resultan del todo adecuadas ni son de aplicación general. Además, pueden arrojar resultados no conservadores o conducir a un sobredimensionamiento del blindaje en otros casos. En las formulaciones tradicionales de diseño se han tenido en cuenta como imperfecciones la holgura del blindaje y la ovalidad del mismo. En la presente tesis, se han analizado imperfecciones de tipo ondulatorio derivadas de los procesos de soldadura y la existencia de espesores reducidos en zonas de corrosión. En el caso práctico analizado sometido a presión exterior, se ha comprobado el funcionamiento real del blindaje mediante los modelos realizados con elementos finitos. Se desprende que los rigidizadores no han funcionado como tales, puesto que para blindajes lisos se obtienen presiones más bajas de pandeo y para el caso de funcionamiento correcto de los rigidizadores se habría obtenido un coeficiente de seguridad suficiente. Por este motivo, se ha analizado el posible funcionamiento de los rigidizadores, que en determinados casos pueden actuar como conectores. En estos casos deben dimensionarse de forma adecuada las soldaduras para soportar las tensiones entre chapa y conector. Por otra parte, tradicionalmente no se han tenido en cuenta los efectos de fatiga que pueden ocasionar los golpes de ariete y las pulsaciones de presión debidas a la regulación secundaria de la red. En esta tesis se ha establecido un procedimiento de comprobación de tuberías forzadas y blindajes sometidos a procesos de fatiga. Adicionalmente, se ha estudiado el caso real de las tuberías forzadas de una central reversible real (Bolarque II) en funcionamiento de regulación secundaria. Se ha concluido, como en otros casos analizados en la bibliografía, que las pulsaciones derivadas de la regulación secundaria no son significativas como para tener en cuenta la fatiga del acero. Por otra parte, las maniobras de arranque y parada (golpe de ariete) suponen una variación importante de la presión en la conducción. Sin embargo, el moderado número de ciclos permite asegurar la integridad de la tubería frente a fenómenos de fatiga. Nowadays, there is a significant concern in the development of projects in the field of hydroelectric power plants, particularly in the pump-storage projects. These plants are designed for high flow rates and heads, which entails large-diameter tunnels and high pressure ratios), and often as underground schemes. Therefore, this concern has reactivated studies about penstocks and in particular those related to steel liners. During the 1960s and 1970s due to hydropower-engineering development in Europe and North America, a major research effort was done. However, the increasing development of new large-scale hydropower projects has involved a renewed research effort during this decade. The adequacy of steel liner calculation methods is a very important issue in the proper technical development of new hydroelectric projects, and for the safety assessment of existing hydroelectric power plants in operation. In this work, an analysis of the structural behavior of pressure galleries in hydroelectric schemes was carried out. Also, a discussion and a review of existing calculation methods are included. In particular, the following issues have been considered: •Description and comparison of existing formulations for calculating the liner response to both external and internal pressure. •Analysis of an actual case study of a steel liner which failed due to external pressure. •Application of the Finite Element Method to liner modeling and analysis subjected to external pressure. •A parametric study of the shielding with stiffeners and discussion about the behavior of liner with stiffeners. •Constructive aspects and durability of pressure galleries. •Development of a methodology for estimating fatigue effects on penstocks and liners sue to pressure changes. •Analysis of an actual case study of a penstock under varying load and assessment of its safety against fatigue. The project of a hydropower penstock is a complex issue, due to the uncertainties in the definition of the problem data, such as the characteristics of the rock mass and its permeability, the determination of the water table, the existing gap between the steel liner and the concrete of the backfill, the geometric imperfections... Hence, the design and analysis of a steel liner must be addressed cautiously and take into account a review of previous studies performed. Ever, a sensitivity analysis of the various parameters involved in the calculation should be performed. In this work, some of the most relevant formulations for liner design subjected to inside and outside pressure have been studied. As a whole, there is a wide variety and its application does not lead to conclusive results. The classical formulations used in the steel liner calculation either with or without stiffeners under external pressure (Amstutz and Jacobsen) are not entirely adequate Also, those can yield both conservative and non-conservative results in large ranges of application. Traditionally design approaches only considered initial gap and ovality as the most relevant geometric imperfections. Thus, little attention was paid to those caused either by welding or by thickness loss in corroded areas. In the case study analyzed in this thesis, the actual working of the liner under external pressure has been simulated by the Finite Element Method. Results show that the stiffeners have not performed as such, since for unstiffened liner lower buckling pressures are obtained and for proper performance of the stiffeners would give a sufficient safety factor. Hence, it must be pointed out that stiffeners may perform either as such or as connectors. For the latter, welding must be designed to properly withstand stresses between the shell and the stiffener. Likewise, the potential fatigue effects due to both water hammer and pressure pulsations due to secondary regulation of the network have not been considered in many studies. It has been included in this work a procedure for checking penstocks and liners under fatigue processes. Additionally, the penstock fatigue response of an actual pump storage project (Bolarque II, Spain) subjected to secondary control operation has been assessed. As in other cases discussed in the literature, pulsations derived from the secondary control are not significant to account for fatigue of steel. Moreover, the start and stop manoeuvres (water hammer) cause a significant change in penstock pressure. However, the moderate number of cycles ensures the integrity of the penstock against fatigue phenomena.
Resumo:
En este proyecto se exponen, por un lado, los fundamentos de un nuevo sistema de codificación de imagen. Este sistema, llamado Logarithmical Hoping Encoding (LHE) codifica cada píxel de la imagen utilizando saltos logarítmicos en el dominio del espacio, es decir, trabajando con los valores de luminancia y crominancia de los píxeles, sin necesidad de pasar al dominio de la frecuencia. Además, se realiza el análisis de dicho sistema y se ofrecen resultados comparativos con formatos de compresión actuales, tales como JPEG. Por otro lado, se presentan las primeras ideas para el desarrollo de un sistema que permita comprimir vídeo utilizando la tecnología LHE. Así mismo, se muestran los primeros resultados obtenidos y las conclusiones derivadas de los mismos.
Resumo:
Quizás el Código Morse, inventado en 1838 para su uso en la telegrafía, es uno de los primeros ejemplos de la utilización práctica de la compresión de datos [1], donde las letras más comunes del alfabeto son codificadas con códigos más cortos que las demás. A partir de 1940 y tras el desarrollo de la teoría de la información y la creación de los primeros ordenadores, la compresión de la información ha sido un reto constante y fundamental entre los campos de trabajo de investigadores de todo tipo. Cuanto mayor es nuestra comprensión sobre el significado de la información, mayor es nuestro éxito comprimiéndola. En el caso de la información multimedia, su naturaleza permite la compresión con pérdidas, alcanzando así cotas de compresión imposibles para los algoritmos sin pérdidas. Estos “recientes” algoritmos con pérdidas han estado mayoritariamente basados en transformación de la información al dominio de la frecuencia y en la eliminación de parte de la información en dicho dominio. Transformar al dominio de la frecuencia posee ventajas pero también involucra unos costes computacionales inevitables. Esta tesis presenta un nuevo algoritmo de compresión multimedia llamado “LHE” (Logarithmical Hopping Encoding) que no requiere transformación al dominio de la frecuencia, sino que trabaja en el dominio del espacio. Esto lo convierte en un algoritmo lineal de reducida complejidad computacional. Los resultados del algoritmo son prometedores, superando al estándar JPEG en calidad y velocidad. Para ello el algoritmo utiliza como base la respuesta fisiológica del ojo humano ante el estímulo luminoso. El ojo, al igual que el resto de los sentidos, responde al logaritmo de la señal de acuerdo a la ley de Weber. El algoritmo se compone de varias etapas. Una de ellas es la medición de la “Relevancia Perceptual”, una nueva métrica que nos va a permitir medir la relevancia que tiene la información en la mente del sujeto y en base a la misma, degradar en mayor o menor medida su contenido, a través de lo que he llamado “sub-muestreado elástico”. La etapa de sub-muestreado elástico constituye una nueva técnica sin precedentes en el tratamiento digital de imágenes. Permite tomar más o menos muestras en diferentes áreas de una imagen en función de su relevancia perceptual. En esta tesis se dan los primeros pasos para la elaboración de lo que puede llegar a ser un nuevo formato estándar de compresión multimedia (imagen, video y audio) libre de patentes y de alto rendimiento tanto en velocidad como en calidad. ABSTRACT The Morse code, invented in 1838 for use in telegraphy, is one of the first examples of the practical use of data compression [1], where the most common letters of the alphabet are coded shorter than the rest of codes. From 1940 and after the development of the theory of information and the creation of the first computers, compression of information has been a constant and fundamental challenge among any type of researchers. The greater our understanding of the meaning of information, the greater our success at compressing. In the case of multimedia information, its nature allows lossy compression, reaching impossible compression rates compared with lossless algorithms. These "recent" lossy algorithms have been mainly based on information transformation to frequency domain and elimination of some of the information in that domain. Transforming the frequency domain has advantages but also involves inevitable computational costs. This thesis introduces a new multimedia compression algorithm called "LHE" (logarithmical Hopping Encoding) that does not require transformation to frequency domain, but works in the space domain. This feature makes LHE a linear algorithm of reduced computational complexity. The results of the algorithm are promising, outperforming the JPEG standard in quality and speed. The basis of the algorithm is the physiological response of the human eye to the light stimulus. The eye, like other senses, responds to the logarithm of the signal according with Weber law. The algorithm consists of several stages. One is the measurement of "perceptual relevance," a new metric that will allow us to measure the relevance of information in the subject's mind and based on it; degrade accordingly their contents, through what I have called "elastic downsampling". Elastic downsampling stage is an unprecedented new technique in digital image processing. It lets take more or less samples in different areas of an image based on their perceptual relevance. This thesis introduces the first steps for the development of what may become a new standard multimedia compression format (image, video and audio) free of patents and high performance in both speed and quality.
Resumo:
La envolvente de la edificación es la responsable de equilibrar el intercambio energético entre el interior y el exterior, por lo tanto cualquier actuación encaminada a la reducción del consumo energético ha de establecer, como uno de sus objetivos prioritarios, la mejora del comportamiento de la misma. Las edificaciones anteriores a 1940 constituyen la mayor parte de las existentes en áreas rurales y centros urbanos. En ellas, la repercusión de la fachada sobre las transmitancias globales pone de manifiesto la necesidad de intervención. Sin embargo, su elevada inercia térmica y los importantes saltos térmicos característicos de gran parte de España plantean la importancia de que aquélla se efectúe por el exterior. A tal respecto, la falta de disponibilidad de espesor suficiente para implantar sistemas tipo SATE deriva en que, frecuentemente, la única solución viable sea la de aislar por el interior perdiendo con ello la capacidad de acumulación térmica del muro y con el asociado riesgo de condensaciones. La amplia tradición en el empleo de revestimientos, especialmente en base de cal, permiten que éstos sean utilizados no sólo como elemento estético o de protección de la obra de fábrica antigua sino también para la mejora del comportamiento térmico del soporte, si se aprovecha el mecanismo de transmisión térmica por radiación. Éste es el objetivo de la presente Tesis Doctoral en la que se estudia la modificación de las propiedades radiantes de los morteros de revestimiento para la mejora de la eficiencia energética de las construcciones históricas, principalmente las constituidas por muros monolíticos, aunque podría ser de aplicación a otro tipo de construcciones compuestas por diversas capas. Como punto de partida, se estudió y revisó la documentación disponible sobre las investigaciones de las tres áreas científico-tecnológicas que convergen en la Tesis Doctoral: rehabilitación, material y comportamiento térmico, a partir de lo cual se comprobó la inexistencia de estudios similares al objeto de la presente Tesis Doctoral. Complementariamente, se analizaron los revestimientos en lo concerniente a los materiales que los constituyen, la composición de las mezclas y características de cada una de las capas así como al enfoque que, desde el punto de vista térmico, se estimaba más adecuado para la obtención de los objetivos propuestos. Basándonos en dichos análisis, se preseleccionaron ochenta materiales que fueron ensayados en términos de reflectancia y emisividad para elegir cuatro con los que se continuó la investigación. Éstos, junto con la cal elegida para la investigación y el árido marmóreo característico de la última capa de revestimiento, fueron caracterizados térmicamente, de forma pormenorizada, así como química y físicamente. Los fundamentos teóricos y los estudios preliminares desarrollados con distintos materiales, en estado fresco y endurecido, fueron empleados en la dosificación de componentes de las mezclas, en dos proporciones distintas, para el estudio del efecto del agregado. Éstas se ensayaron en estado fresco, para comprobar su adecuación de puesta en obra y prever su VI adherencia al soporte, así como en estado endurecido a 28 y 90 días de curado, para conocer las propiedades que permitieran prever su compatibilidad con aquél y estimar el alcance de la reducción de transferencias térmicas lograda. Además, se estudiaron las características generales de las mezclas que sirvieron para establecer correlaciones entre distintas propiedades y entender los resultados mecánicos, físicos (comportamiento frente al agua) y energéticos. Del estudio conjunto de las distintas propiedades analizadas se propusieron dos mezclas, una blanca y otra coloreada, cuyas características permiten garantizar la compatibilidad con la obra de fábrica antigua, desde el punto de vista físico y mecánico, y preservar la autenticidad de los revestimientos, en cuanto a la técnica de aplicación tradicional en sistemas multicapa. El comportamiento térmico de las mismas, sobre una obra de fábrica de 40 cm de espesor, se estimó, en estado estacionario y pseudo-transitorio, demostrándose reducciones del flujo térmico entre 16-48%, en condiciones de verano, y entre el 6-11%, en invierno, en función de la coloración y de la rugosidad de la superficie, en comparación con el empleo de la mezcla tradicional. Por lo que, se constata la viabilidad de los materiales compuestos propuestos y su adecuación al objetivo de la investigación. VII ABSTRACT The envelope is responsible for balancing the energy exchange between the inside and outside in buildings. For this reason, any action aimed at reducing energy consumption must establish, as one of its key priorities, its improvement. In rural areas and urban centers, most of the constructions were built before 1940. In them, the impact of the façade on the global transmittance highlights the need for intervention. However, its high thermal inertia and fluctuation of temperatures in the majority of Spain bring up that it should be placed outside the insulation. In this regard, the lack of availability of enough thickness to implement systems such as ETICS results in that often the only viable solution is to isolate the interior, losing thereby the wall’s heat storage capacity with the associated risk of condensation. The tradition in the use of renders, especially lime-based, allows us to use them not only as an aesthetic element or to protect the ancient masonry, but also for improved thermal performance of the support by taking advantage of the heat transfer mechanism by radiation. This is the aim of this Doctoral Thesis in which the modification of the radiative properties of lime mortars for renders to improve the energy efficiency of historic buildings, mainly composed of monolithic walls, is studied, although it could be applied to other structures composed of several layers. As a starting point, the available literature in the three scientific-technological areas that converge at the Doctoral Thesis: rehabilitation, material and thermal behaviour, was reviewed, and confirmed the absence of researches similar to this Doctoral Thesis. Additionally, the renders were studied with regard to the materials that constitute them, the composition of the mixtures and the characteristics of each layer, as well as to the approach which, from a thermal point of view, was deemed the most suitable for achieving the objectives sets. Based on thre aforementioned analysis, eighty materials tested in terms of reflectance and emissivity were pre-selected, to choose four with which the research was continued. Common marble sand, used in the last layer of the renders, together with the appointed materials and hydrated lime were characterized thermally, in detail, as well as chemically and physically. The theoretical bases and preliminary studies with different materials, in fresh and hardened state, were used in the dosage of the composition of the mixtures. In order to study their effect they were used in two different proportions, that is, ten mixtures in total. These were tested in their fresh state to evaluate their setting-up suitability and foresee their adhesion to the support, as well as in their hardened state, at 28 and 90 days of curing, to establish the properties which enabled us to anticipate their compatibility with the old masonry walls and estimate the scope of the reduction of heat transfers achieved. In addition, the general characteristics of the mixtures used to establish correlations and to understand the mechanical, physical and energy results were studied. Two mixtures, one white and one colored, were proposed as the result of the different properties analysed, whose characteristics allow the guarantee of mechanical and physical compatibility VIII with the old masonry and preserve the authenticity of the renders. The thermal behavior of both, applied on a masonry wall 40 cm thick, was estimated at a steady and pseudo-transient state, with heat flow reductions between 16-48% during summertime and 6-11% during wintertime, depending on the color and surface roughness, compared to the use of the traditional mixture. So, the viability of the proposed composite materials and their fitness to the aim of the research are established.
Resumo:
En la actualidad las redes de Pequeño Mundo están presentes en muchas aplicaciones distribuidas, pudiéndose construir estas redes añadiendo, a un grafo base, enlaces de largo alcance tomados conforme a una determinada distribución de probabiblidad. Los sistemas distribuidos actuales utilizan soluciones ad hoc específicas para calcular los enlaces de largo alcance. En este artículo proponemos un nuevo algoritmo distribuido llamado Selección Sesgada (SS), que utilizando únicamente un servicio de muestreo uniforme (que puede estar implementado mediante un protocolo gossip), es capaz de seleccionar enlaces largos conforme a cualquier distribución de probabilidad. SS es un algoritmo iterativo que dispone de un único parámetro (r) para indicar el número de iteraciones que debe ejecutarse. Se ha probado que la muestra obtenida con el algoritmo SS converge a la distribución objetivo a medida que aumenta el valor de r. También se ha calculado la cota analítica del error relativo máximo, para un determinado valor de r. Aunque este artículo se propone para el algoritmo SS como una herramienta para tomar muestras de nodos en una red, puede emplearse en cualquier contexto en el que sea necesario realizar un muestreo conforme a una determinada distribución de probabilidad, necesitando para funcionar únicamente un servicio de muestreo uniforme. Se han construido redes de Pequeño Mundo, modelo Kleinberg, utilizando SS para escoger los enlaces (vecinos) de largo alcance en estructuras de tipo toro. Hemos observado que con un número reducido de iteraciones (1) SS tiene un comportamiento muy similar a la distribución armónica de Kleinberg y (2) el número medio de saltos, utilizando enrutamiento ávido, no es peor que en una red construida con la distribución de Leinberg. También se ha observado que antes de obtener la convergencia, el número medio de saltos es menor que en las redes construidas mediante la distribución armónica de Leinberg (14% mejor en un toro de 1000 x 1000).
Resumo:
Digital services and communications in vehicular scenarios provide the essential assets to improve road transport in several ways like reducing accidents, improving traffic efficiency and optimizing the transport of goods and people. Vehicular communications typically rely on VANET (Vehicular Ad hoc Networks). In these networks vehicles communicate with each other without the need of infrastructure. VANET are mainly oriented to disseminate information to the vehicles in certain geographic area for time critical services like safety warnings but present very challenging requirements that have not been successfully fulfilled nowadays. Some of these challenges are; channel saturation due to simultaneous radio access of many vehicles, routing protocols in topologies that vary rapidly, minimum quality of service assurance and security mechanisms to efficiently detect and neutralize malicious attacks. Vehicular services can be classified in four important groups: Safety, Efficiency, Sustainability and Infotainment. The benefits of these services for the transport sector are clear but many technological and business challenges need to be faced before a real mass market deployment. Service delivery platforms are not prepared for fulfilling the needs of this complex environment with restrictive requirements due to the criticism of some services To overcome this situation, we propose a solution called VISIONS “Vehicular communication Improvement: Solution based on IMS Operational Nodes and Services”. VISIONS leverages on IMS subsystem and NGN enablers, and follows the CALM reference Architecture standardized by ISO. It also avoids the use of Road Side Units (RSUs), reducing complexity and high costs in terms of deployment and maintenance. We demonstrate the benefits in the following areas: 1. VANET networks efficiency. VISIONS provide a mechanism for the vehicles to access valuable information from IMS and its capabilities through a cellular channel. This efficiency improvement will occur in two relevant areas: a. Routing mechanisms. These protocols are responsible of carrying information from a vehicle to another (or a group of vehicles) using multihop mechanisms. We do not propose a new algorithm but the use of VANET topology information provided through our solution to enrich the performance of these protocols. b. Security. Many aspects of security (privacy, key, authentication, access control, revocation mechanisms, etc) are not resolved in vehicular communications. Our solution efficiently disseminates revocation information to neutralize malicious nodes in the VANET. 2. Service delivery platform. It is based on extended enablers, reference architectures, standard protocols and open APIs. By following this approach, we reduce costs and resources for service development, deployment and maintenance. To quantify these benefits in VANET networks, we provide an analytical model of the system and simulate our solution in realistic scenarios. The simulations results demonstrate how VISIONS improves the performance of relevant routing protocols and is more efficient neutralizing security attacks than the widely proposed solutions based on RSUs. Finally, we design an innovative Social Network service based in our platform, explaining how VISIONS facilitate the deployment and usage of complex capabilities. RESUMEN Los servicios digitales y comunicaciones en entornos vehiculares proporcionan herramientas esenciales para mejorar el transporte por carretera; reduciendo el número de accidentes, mejorando la eficiencia del tráfico y optimizando el transporte de mercancías y personas. Las comunicaciones vehiculares generalmente están basadas en redes VANET (Vehicular Ad hoc Networks). En dichas redes, los vehículos se comunican entre sí sin necesidad de infraestructura. Las redes VANET están principalmente orientadas a difundir información (por ejemplo advertencias de seguridad) a los vehículos en determinadas zonas geográficas, pero presentan unos requisitos muy exigentes que no se han resuelto con éxito hasta la fecha. Algunos de estos retos son; saturación del canal de acceso de radio debido al acceso simultáneo de múltiples vehículos, la eficiencia de protocolos de encaminamiento en topologías que varían rápidamente, la calidad de servicio (QoS) y los mecanismos de seguridad para detectar y neutralizar los ataques maliciosos de manera eficiente. Los servicios vehiculares pueden clasificarse en cuatro grupos: Seguridad, Eficiencia del tráfico, Sostenibilidad, e Infotainment (información y entretenimiento). Los beneficios de estos servicios para el sector son claros, pero es necesario resolver muchos desafíos tecnológicos y de negocio antes de una implementación real. Las actuales plataformas de despliegue de servicios no están preparadas para satisfacer las necesidades de este complejo entorno con requisitos muy restrictivos debido a la criticidad de algunas aplicaciones. Con el objetivo de mejorar esta situación, proponemos una solución llamada VISIONS “Vehicular communication Improvement: Solution based on IMS Operational Nodes and Services”. VISIONS se basa en el subsistema IMS, las capacidades NGN y es compatible con la arquitectura de referencia CALM estandarizado por ISO para sistemas de transporte. También evita el uso de elementos en las carreteras, conocidos como Road Side Units (RSU), reduciendo la complejidad y los altos costes de despliegue y mantenimiento. A lo largo de la tesis, demostramos los beneficios en las siguientes áreas: 1. Eficiencia en redes VANET. VISIONS proporciona un mecanismo para que los vehículos accedan a información valiosa proporcionada por IMS y sus capacidades a través de un canal de celular. Dicho mecanismo contribuye a la mejora de dos áreas importantes: a. Mecanismos de encaminamiento. Estos protocolos son responsables de llevar información de un vehículo a otro (o a un grupo de vehículos) utilizando múltiples saltos. No proponemos un nuevo algoritmo de encaminamiento, sino el uso de información topológica de la red VANET a través de nuestra solución para enriquecer el funcionamiento de los protocolos más relevantes. b. Seguridad. Muchos aspectos de la seguridad (privacidad, gestión de claves, autenticación, control de acceso, mecanismos de revocación, etc) no están resueltos en las comunicaciones vehiculares. Nuestra solución difunde de manera eficiente la información de revocación para neutralizar los nodos maliciosos en la red. 2. Plataforma de despliegue de servicios. Está basada en capacidades NGN, arquitecturas de referencia, protocolos estándar y APIs abiertos. Siguiendo este enfoque, reducimos costes y optimizamos procesos para el desarrollo, despliegue y mantenimiento de servicios vehiculares. Para cuantificar estos beneficios en las redes VANET, ofrecemos un modelo de analítico del sistema y simulamos nuestra solución en escenarios realistas. Los resultados de las simulaciones muestran cómo VISIONS mejora el rendimiento de los protocolos de encaminamiento relevantes y neutraliza los ataques a la seguridad de forma más eficientes que las soluciones basadas en RSU. Por último, diseñamos un innovador servicio de red social basado en nuestra plataforma, explicando cómo VISIONS facilita el despliegue y el uso de las capacidades NGN.
Resumo:
Mediante este estudio se pretende mejorar la generación eléctrica del norte de la provincia de Huesca a través de la construcción de una minicentral hidroeléctrica en la zona de la Jacetania, en el tramo entre Santa Cilia y Puente la Reina. Las variaciones sustanciales de consumo en los meses de verano e invierno, por el numeroso turismo navarro, vasco y aragonés nos llaman a encontrar una solución de autosuficiencia. Para resolver dicho problema se ha optado por estudiar distintas soluciones, de acuerdo a las cerradas existentes y a los saltos hidroeléctricos factibles. En los siguientes apartados sintetizaremos la situación existente en el sector hidroeléctrico en Huesca, señalaremos los distintos condicionantes que nos hemos encontrado a la hora de proponer las soluciones, se desarrollará también un programa básico de necesidades y finalmente se describirán los datos y cómo son las soluciones finales, dejando constancia de la elegida. Con este aprovechamiento pretendemos dotar a la comarca de la Jacetania de autonomía energética, cosa que permitirá un futuro desarrollo poblacional e industrial. Nuestro objetivo ha sido reducir el presupuesto lo máximo posible y a su vez evitar una invasión excesiva en las propiedades existentes del tramo.
Resumo:
Los años cincuenta y sesenta son los años de la incorporación definitiva de la arquitectura española al panorama internacional. Entre los arquitectos que protagonizan ese salto sin retorno, se encuentra el grupo de aquellos que unos años más tarde serán denominados por Juan Daniel Fullaondo como Escuela de Madrid. Carlos Flores, en su libro Arquitectura Española Contemporánea 1880-1950, se refiere a esos arquitectos como aquellos que se aplicaban a la difícil tarea de restablecer en España un tipo de arquitectura que conectaba con las teorías, soluciones y lenguajes establecidos por Europa durante las primeras décadas del siglo XX. Sigfried Giedion plantea en Espacio, Tiempo y Arquitectura el origen de una nueva tradición, surgida a partir de la revolución óptica de principios de siglo. Con tradición se refiere a una nueva cultura, que abarca la interrelación de las diferentes actividades del hombre: la similitud de los métodos que se usan en la arquitectura, la construcción, la pintura, el urbanismo o la ciencia. Esa novedad, fundamentada en su independencia y desvinculación con el periodo anterior, se inscribe dentro del esquema evolutivo que Thomas Kuhn plantea en su texto La Estructura de la Revoluciones Científicas, conforme a periodos no acumulativos. Kuhn habla del surgimiento de anomalías en cada periodo, origen de las crisis de pensamiento cuya explicación precisará un necesario cambio paradigmático. En la ciencia, en el campo de la óptica Thomas Young demuestra a principios del siglo XIX la naturaleza ondulatoria de la luz con su experimento de doble rendija; en el electromagnetismo se produce el salto conceptual que supone la postulación de la existencia del campo eléctrico por parte de Michael Faraday, y en termodinámica la consideración apuntada por Planck de que la radiación de la energía de produce de forma discreta, a través de cuantos. En las artes plásticas, paralelamente, Gleizes y Metzinger, en su recopilación de logros cubistas recogida en Sobre el Cubismo, hablan de la evolución sufrida durante el siglo XIX por la pintura: desde el idealismo de principios de siglo, para pasando por el realismo y la representación impresionista de la realidad, concluir prescindiendo de la perspectiva clásica. También la matemática, una vez desarrolladas por Gauss o Lobachevsky y Bolyai geometrías coherentes que incumplen el quinto postulado de Euclides, terminará dando validez a través de Riemann a los espacios ambiente en los que habitan dichas geometrías, desvinculando la relación directa entre espacio geométrico –el espacio ambiente al que da lugar un tipo de geometría- y el espacio físico. Capi Corrales refleja en su libro Contando el Espacio, cómo hasta la teoría de la relatividad y el cubismo, las geometrías no euclídeas no se hicieron notorias también fuera del campo de las matemáticas. El origen de la nueva tradición con la que Giedion se refiere a la nueva cultura de la modernidad coincide con los saltos paradigmáticos que suponen la teoría de la relatividad en las ciencias y el cubismo en las artes plásticas. Ambas se prolongan durante las primeras décadas hasta la teoría cuántica y la abstracción absoluta, barreras que los dos principales precursores de la relatividad y el cubismo, Einstein y Picasso, nunca llegan a franquear. En ese sentido Giedion habla también, además del origen, de su desarrollo, e incorpora las aportaciones periféricas en la arquitectura de Brasil, Japón o Finlandia, incluyendo por tanto la revisión orgánica propugnada por Zevi como parte de esa nueva tradición, quedando abierta a la incorporación tardía de nuevas aportaciones al desarrollo de esa cultura de la modernidad. Eliminado el concepto de la estética trascendental de Kant del tiempo como una referencia absoluta, y asumido el valor constante de la velocidad de la luz, para la teoría de la relatividad no existe una simultaneidad auténtica. Queda así fijada la velocidad de la luz como uno de los límites del universo, y la equivalencia entre masa y energía. En el cubismo la simultaneidad espacial viene motivada por la eliminación del punto de vista preferente, cuyo resultado es la multiplicidad descriptiva de la realidad, que se visualiza en la descomposición en planos, tanto del objeto como del espacio, y la consecuente continuidad entre fondo y figura que en arquitectura se refleja en la continuidad entre edificio y territorio. Sin la consideración de un punto de vista absoluto, no existe una forma auténtica. El cubismo, y su posterior desarrollo por las vanguardias plásticas, hacen uso de la geometría como mecanismo de recomposición de la figura y el espacio, adoptando mecanismos de penetración, superposición y transparencia. Gyorgy Kepes indica en El Lenguaje de la Visión que la descomposición cubista del objeto implica la sucesiva autonomía de los planos, hasta convertirse en elementos constituyentes. Algo que refleja las axonometrías arquitectónicas de Van Doesburg y que culmina con los espacios propuestos por Mies van der Rohe en sus primeros proyectos europeos. Estos mecanismos, encuentran eco en los primeros planteamientos de Javier Carvajal: en la ampliación del Panteón de españoles del cementerio de Campo Verano, un recinto virtual reconstruido mentalmente a partir del uso de tres únicos planos; o en el Pabellón de Nueva York, que organiza su planta baja desde el recorrido, introduciendo el parámetro temporal como una dimensión más. Al uso diferenciado del plano como elemento constituyente, Carvajal incorpora su plegado y su disposición conformando envolventes como mecanismo de cualificación espacial y formal, potenciando la prolongación entre arquitectura y territorio. Una continuidad que quedará culminada en las dos viviendas unifamiliares construidas en Somosaguas. La descomposición volumétrica conduce a unos niveles de abstracción que hace precisa la incorporación de elementos de la memoria -fuentes, patios, celosías…- a modo de red de señales, como las que Picasso y Braque introducen en sus cuadros para permitir su interpretación. Braque insiste en el interés por el espacio que rodea a los objetos. Una búsqueda de la tactilidad del espacio contraria a la perspectiva que aleja el objeto del observador, y que en los jardines de las viviendas de Somosaguas parece emanar de su propia materialidad. Un espacio táctil alejado del espacio geométrico y que Braque identifica con el espacio representativo en el que Poincaré, en La Ciencia y la Hipótesis, ubica nuestras sensaciones. Desdibujar los límites del objeto prolonga el espacio indefinidamente. Con el paso en el arte griego del mito al logos, se abre paso a la matemática como herramienta de comprensión de la naturaleza hasta el siglo XIX. Leon Lederman, en Simetría y la Belleza del Universo, apunta a que una de las mayores contribuciones de la teoría de Einstein es hacer cambiar el modo de pensar la naturaleza, orientándolo hacia la búsqueda de los principios de simetría que subyacen bajo las leyes físicas. Considerando que la simetría es la invariancia de un objeto o un sistema frente a una transformación y que las leyes físicas son las mismas en cualquier punto del espacio, el espacio de nuestro universo posee una simetría traslacional continua. En la ocupación del espacio de las primeras propuestas de Corrales y Molezún aparecen estructuras subyacentes que responden a enlosetados: paralelogramos sometidos a transformaciones continuas, que la naturaleza identifica tridimensionalmente con los grupos cristalográficos. Las plantas del museo de Arte Contemporáneo de la Castellana, la residencia de Miraflores, el pabellón de Bruselas o la torre Peugeot pertenecen a este grupo. La arquitectura como proceso de ocupación continua del territorio y de su trasposición al plano de cubierta, se materializa en líneas estructurales coincidentes con la estructura matemática de sus simetrías de traslación cuya posibilidad de prolongación infinita queda potenciada por el uso de la envolvente transparente. Junto a esta transparencia literal, inherente al material, Colin Rowe y Robert Slutzky nos alertan sobre otra transparencia inherente a la estructura: la transparencia fenomenal, ilustrada por los cuadros de Juan Gris, y cuya intuición aparece reflejada en la casa Huarte en Puerta de Hierro de Madrid. Corrales y Molezún insisten en una lectura de su volumetría alejada de la frontalidad, en la que los contornos de sus cubiertas inclinadas y las visuales tangenciales sugeridas por la organización de sus recorridos introducen una estructura diagonal que se superpone al entendimiento ortogonal de su planta, dibujando una intrincada red de líneas quebradas que permiten al espacio fluctuar entre las secuencia volumétrica propuesta. Los datos relativos al contenido energético de la luz y el concepto de átomo parten de la consideración de la emisión de energía en cuantos realizada por Planck, y concluyen con una circunstancia paradójica: la doble naturaleza de la luz -demostrada por la explicación de Einstein del efecto fotoeléctrico- y la doble naturaleza de la materia -asumida por Bohr y demostrada por el efecto Compton-. Schrödinger y Heisenberg formularán finalmente la ecuación universal del movimiento que rige en las ondas de materia, y cuya representación matemática es lo que se conoce como función de onda. El objeto es así identificado con su función de onda. Su ondulatoriedad expresará la probabilidad de encontrarse en un lugar determinado. Gyorgy Kepes subraya la necesidad de simplificar el lenguaje para pasar de la objetividad que aún permanece en la pintura cubista a la abstracción total del espacio. Y es así como los artistas plásticos reducen los objetos a simples formas geométricas, haciendo aflorar a la vez, las fuerzas plásticas que los tensionan o equilibran, en un proceso que acaba por eliminar cualquier atisbo de materia. Robert Rosenblum en La Pintura Moderna y la Tradición del Romanticismo Nórdico habla de cómo ese rechazo de la materia en favor de un vacío casi impalpable, campos luminosos de color denso que difunden un sereno resplandor y parecen engendrar las energías elementales de la luz natural, está directamente vinculado a la relación con la naturaleza que establece el romanticismo nórdico. La expresión de la energía de la naturaleza concentrada en un vacío que ya había sido motivo de reflexión para Michael Faraday en su postulación del concepto de campo eléctrico. Sáenz de Oíza incide en la expresión de la condición material de la energía en su propuesta junto a José Luis Romany para la capilla en el Camino de Santiago. La evocación de diferentes fuerzas electromagnéticas, las únicas junto a las gravitatorias susceptibles de ser experimentadas por el hombre, aparecerán visualizadas también en el carácter emergente de algunas de sus obras: el Santuario de Aránzazu o Torres Blancas; pero también en la naturaleza fluyente de sus contornos, la dispersión perimetral de los espacios -el umbral como centro del universoo la configuración del límite como respuesta a las tensiones germinales de la naturaleza. Miguel Fisac, a la vuelta de su viaje a los países nórdicos, aborda una simplificación lingüística orientada hacia la adecuación funcional de los espacios. En el Instituto de Daimiel, el Instituto de formación del profesorado o los complejos para los Padres Dominicos en Valladolid o Alcobendas, organiza progresivamente la arquitectura en diferentes volúmenes funcionales, incidiendo de un modo paralelo en la manifestación de los vínculos que se establecen entre dichos volúmenes como una visualización de las fuerzas que los tensionan y equilibran. En ellos la prolongación de la realidad física más allá de los límites de la envolvente ya es algo más que una simple intuición. Un proceso en el que el tratamiento de la luz como un material de construcción más, tendrá un especial protagonismo. En la iglesia de la Coronación, la iluminación del muro curvo escenifica la condición ondulatoria de la luz, manifestándose como si de un patrón de interferencia se tratara. Frente a la disolución de lo material, el espacio se manifiesta aquí como un medio denso, alejado de la tradicional noción de vacío. Una doble naturaleza, onda y partícula, que será intuido también por Fisac en la materia a través de su uso comprometido del hormigón como único material de construcción. Richard Feynmann nos alerta de la ocupación del espacio por multitud de fuerzas electromagnéticas que, al igual que la luz, precisan de receptores específicos para captar su presencia. Sus célebres diagramas suponen además la visualización definitiva de los procesos subatómicos. Al igual que la abstracción absoluta en las artes plásticas, esas representaciones diagramáticas no son asimilables a imágenes obtenidas de nuestra experiencia. Una intuición plasmada en el uso del diagrama, que irán adquiriendo progresivamente los dibujos de Alejandro de la Sota. La sección del gimnasio Maravillas recoge los trazos de sus principales elementos constructivos: estructura, cerramientos, compartimentaciones…, pero también, y con la misma intensidad, los de las fuerzas que generan su espacio, considerando así su condición de elementos constituyentes. El vacío, nos deja claro Sota, es el lugar donde habitan dichas tensiones. La posterior simplificación de las formas acompañadas de la obsesión por su aligeramiento, la casi desaparición de la envolvente, incide en aquella idea con la que Paul Klee define la actividad del artista en su Teoría del Arte Moderno, y en la que se transmite el distanciamiento hacia lo aparente: No se trata de reproducir lo visible, se trata de volver visible. Así, en Bankunión y Aviaco, como en tantos otros proyectos, frente al objetivo de la forma, Sota plantea el límite como la acotación de un ámbito de actuación. Su propia representación aséptica y diagramática transmite la renuncia a una especificidad espacial. Gilles Deleuze expresa ese posicionamiento en Pintura, el Concepto de Diagrama: el diagrama como la posibilidad de cuadros infinitos, o la posibilidad infinita de cuadros. Aparece así una concepción probabilística del espacio en la que frente a la renuncia por la forma, la tendencia al aligeramiento, y lo difuso de su definición – ideas claras, definición borrosa, en palabras de Llinás referidas al modo de operar de Sota-, la insistente atención a algunos elementos como escaleras, protecciones o miradores parece trasmitir la idea de que la arquitectura queda condensada en aquellos acontecimientos que delatan su condición dinámica, transitoria. Primando la relación frente al objeto, el vínculo frente a lo tangible. English summary. The fifties and sixties were the years of the final incorporation of Spanish architecture to the international scene. Among the architects who star that no return leap, is the group of those who a few years later will be named by Juan Daniel Fullaondo as Escuela de Madrid. Carlos Flores, in his book Arquitectura Española Contemporánea 1880-1950, refers to those architects as those that applied to the difficult task of restoring in Spain an architecture that connected with theories, solutions and established languages in Europe during the first decades of the twentieth century. Sigfried Giedion proposes in Space, Time and Architecture, the origin of a new tradition, arising from the optical revolution at the beginning of the century. With tradition he refers to a new culture, covering the interplay of different human activities: the similarity of the methods used in architecture, building, painting, urban planning or science. This new feature, based on its independence and detachment from the previous period, is part of the evolutionary scheme that Thomas Kuhn proposes in his text The Structure of Scientific Revolutions, according to non-accumulative periods. Kuhn talks about the emergence of anomalies in each period, origin of thought crisis whose explanation will require a paradigm shift needed. In science, in the field of optical Thomas Young demonstrates at the early nineteenth century the wave nature of light with its double-slit experiment , in electromagnetism the postulation of the existence of the electric field by Michael Faraday involves a conceptual leap, and in thermodynamic, the consideration pointed by Planck about quantum energy radiation. In the arts, in a parallel process, Gleizes and Metzinger , in his collection of cubism achievements on their book Du Cubisme, speak of evolution occurring during the nineteenth century by the painting: from the idealism of beginning of the century, going for realism and impressionist representation of reality, and finishing regardless of the classical perspective . Mathematics also, once developed by Gauss and Lobachevsky and Bolyai consistent geometries that violate Euclid's fifth postulate , will end validating Riemann’s ambient spaces in which these geometries inhabit, decoupling the direct relationship between geometric space -the space environment that results in a type of geometry- , and physical space. Capi Corrales reflectes in his book Contando el Espacio, that non-Euclidean geometries were not noticeable outside the field of mathematics until the theory of relativity and cubism. The origin of the new tradition that Giedion relates to the new culture of modernity coincides with paradigmatic leaps pointed by the theory of relativity in science and Cubism in the visual arts. Both are extended during the first decades until quantum theory and absolute abstraction, barriers that the two main precursors of relativity and cubism, Einstein and Picasso never overcome. In that sense Giedion speaks about the origin, but also the development, and incorporates peripheral inputs from Brazil, Japan and Finland architecture, thus including organic revision advocated by Zevi as part of this new tradition, being open to the late addition of new contributions to the development of that culture of modernity. Removed the concept of Kant's transcendental aesthetics, of time as an absolute reference, and assumed the constant value of the speed of light, theory of relativity says there is no authentic concurrency. It is thus fixed the speed of light as one of the limits of the universe, and the equivalence of mass and energy. In cubism, spatial simultaneity results from the elimination of preferential points of view, resulting in the multiplicity descriptive of reality, which is displayed in decomposition levels, both the object and the space, and the resulting continuity between figure and background that architecture is reflected in the continuity between building and land. Without the consideration of an absolute point of view, there isn’t an authentic shape. Cubism, and its subsequent development by the vanguard arts, make use of geometry as a means of rebuilding the figure and space, taking penetration mechanisms, overlapping and transparency. Gyorgy Kepes suggest in Languaje of Vision, that cubist decomposition of the object involves successive planes autonomy, to become constituent elements. Something that reflects the Van Doesburg’s architectural axonometrics and culminates with the spaces proposed by Mies van der Rohe in his first European projects. These mechanisms are reflected in the first approaches by Javier Carvajal: the extension of Spanish Pantheon in Campo Verano Cemetery, virtual enclosure mentally reconstructed from 24 the use of only three planes, or in the Spanish Pavilion of New York, which organizes its ground floor from the tour, introducing the time parameter as an additional dimension. Carvajal adds to the differential use of the plane as a constituent, Carvajal incorporates its folding and forming enclosures available as a mechanism for spatial and formal qualification, promoting the extension between architecture and territory. A continuity that will be completed in the two houses built in Somosaguas. Volumetric decomposition, as the fragmentation achieved in the last cubist experiences, needs the incorporation of elements of memory - fountains, patios, shutters...- as a network of signals, such as those introduced by Picasso and Braque in their paintings to allow their interpretation. Braque insists in his interest in the space surrounding the objects. A search of the tactility of space contrary to the perspective, which moves the observer away from the object, and that in the gardens of Somosaguas seems to emanate from its own materiality. A tactile space away from the geometric space and Braque identified with the representative space in which Poincaré in La Science et l´hypothèse, located our feelings. To blur those boundaries of the object extends the space indefinitely. With the passage in Greek art from myth to logos, it opens up to mathematics as a tool for understanding the nature until the nineteenth century. Leon Lederman, in Symmetry and beautiful Universe, suggests that one of the greatest contributions of Einstein's theory is to change the mindset of nature, namely the search for symmetry principles that underlie physical laws. Considering that symmetry is the invariance of an object or system from a transformation and that physical laws are the same at any point in space, the space of our universe has a continuous translational symmetry. In the space occupation of the first proposals by Corrales and Molezún underlying structures appear that match enlosetados: parallelograms under continuous transformations, which nature identifies tridimensionally with the crystallographic groups. Plants in the Contemporary Art Museum in La Castellana, the residence in Miraflores, the Brussels pavilion or the Peugeot tower belong to this group. The architecture as a process of continuous occupation of the territory and of its transposition to the deck, embodied in structural lines coincide with the mathematical structure of the translational symmetry and infinite extension whose possibility is enhanced by the use of the transparent cover. Alongside this literal transparency inherent to the material, Colin Rowe and Robert Slutzky alert us another transparency inherent in the structure: phenomenal transparency, illustrated by the Juan Gris’ works, and whose intuition is reflected in the Huarte’s house in Puerta de Hierro in Madrid. Corrales and Molezún insist on a reading of its volume away from the frontal, in which the outline of their inclined roofs and tangential visual suggested by the organization of his circulations introduce a diagonal structure which overlaps the orthogonal understanding of its plant, drawing an intricate web of broken lines that allow the space fluctuate between the volumetric sequence proposal. Information concerning to the energy mean of light and the concept of atom start from the consideration by Plank about the energy emission, and conclude with a paradoxical situation: the dual nature of light - demonstrated by the explanation of Einstein's photoelectric effect-, and the dual nature of matter -assumed by Bohr and demonstrated by the Compton effect-. Finally, Schrödinger and Heisenberg will formulate the universal movement equation governing in undulatory matter, whose mathematical representation is what is known as a wave function. The object is thus identified with its wave function. Its undulatory expression speaks about the probability of being found in a certain place. Gyorgy Kepes emphasizess the need to simplify the language to move from the objectivity that still remains in the cubist painting to the total abstraction of the space. And this is how artists reduced the objects to simple geometric shapes, making emerge at a time, the plastic forces that tense or balance them, in a process that eventually eliminate any trace of matter. Robert Rosenblum in Modern Painting and the Northern Romantic Tradition. Friedrich to Rothko talks about how this rejection of matter in an almost impalpable vacuum: dense color light fields that broadcast a serene glow and seem to generate the elemental energies of natural light is directly linked to the relationship with nature that sets the northern romanticism. An expression of the power of nature concentrated in a vacuum which had been reason for thought by Michael Faraday in his application of the concept of electric field. Saenz de Oíza touches upon the material expression of the energy in its proposal with Jose Luis Romany to the chapel on the Camino de Santiago. The presence of electromagnetic forces, the only ones with the gravitational one capable of being experienced by the man will also visualize in the emerging nature of some of his works: the sanctuary of Aránzazu or Torres Blancas, but also in the flowing nature of its contours, and the inclusion of interest in the realization of space fluctuating boundary: the threshold as the center of the universe. Miguel Fisac, back from his trip to the Northern Countries, starts on a linguistic simplification oriented to the functional adequacy of spaces. In the Daimiel Institute, in the Institute to Teacher Formation or in the complex to the Dominican Fathers in Valladolid or Alcobendas, progressively organized into different functional volumes architecture, focusing in a parallel way in the manifestation of the links established between these volumes as a visualization of the forces that tense and balance them. The prolongation of the physical reality beyond the limits of the envelope is already something more than a simple intuition. A process in which the treatment of light as a construction material, have a special role. In the Coronation church, curved wall lighting dramatizes the undulatory condition of the light, manifesting as if an interference pattern is involved. Versus the dissolution of the material, the space is expressed here as a dense atmosphere, away from the traditional notion of the vacuum. A dual nature, wave and particle, which is also sensed by Fisac in his committed use of concrete as a unique construction material. Richard Feynman alerts us to the occupation of space by many electromagnetic forces, which like the light, require specific receptors to capture their presence. His famous diagrams also involve the final visualization of atomic processes. As absolute abstraction in the visual arts, these representations are not assimilated to images obtained from our experience. A diagrammatic nature, abstracted from figuration, which will obtein the pictures of Alejandro de la Sota. The section of Maravillas gym collects traces of its main building blocks: structure, enclosures... but also, and with the same intensity, of the forces that generate their space as constituent elements. Sota makes it clear: the vacuum is where inhabit these tensions. The subsequent simplification of forms, accompanied by the obsession with his lightening, the near disappearance of the envelope, touches upon that idea which Paul Klee defines the activity of the artist in his Modern Art Theory, the spacing out to the apparent: it is not to reproduce the visible, it is to turn visible. Thus, in Bankunión and Aviaco, as in many other projects, against the shape, raises the limit as the dimension of a scope. His own aseptic and diagrammatic representation transmits waiver to a spatial specificity that Gilles Deleuze clearly expressed in Painting. The Concept Diagram: The diagram as the possibility of infinite pictures, or infinite possibility of the picture. Thus appears the probabilistic concept of space in which, opposite to the diffuse of its definition -clear ideas, diffuse definition, as Llinas said- the insistent attention to some elements like stairs, guards or lookouts seems to concentrate the architecture in its dynamic condition, transitional. The relationship opposite the object, the link opposite the tangible.
Resumo:
Uno de los problemas más cruciales que se presenta en cualquier país cuando se pretende realizar una planificación más o menos ajustada a los objetivos que se desean alcanzar, es el de adecuar el número de profesionales en una determinada tecnología a las necesidades reales que en cada momento puedan presentarse. Este hecho, que ha llegado a tener repercusiones de carácter casi histórico en épocas pasadas, cuando se registraron saltos bruscos de un tipo de sociedad a otra, se está produciendo hoy de manera casi continua en la mayor parte de los países, tanto desarrollados como en vías de desarrollo como se verá en el presente artículo, las crisis de exceso de un tipo de profesionales en unas áreas y las de escasez de otras, está siendo un hecho habitual tanto en empresas, sean del tamaño que sean, como en entornos académicos e incluso en países y el bloques socioeconómicos como un todo.
Resumo:
Este trabajo se centra en el estudio de problemas aeroacústicos en los trenes de alta velocidad. Se han considerado dos escenarios en los que las ondas de presión generadas son críticos para el confort de los pasajeros. Uno es el debido a las ondas de presión que genera el tren cuando entra y sale de un túnel, que a su vez producen saltos de presión de baja frecuencia en el tren (cuando se cruzan con él) y en los alrededores del túnel cuando alcanzan la salida. Se estudia este fenómeno, y se propone un sistema aeroelástico basado en el galope transversal para disminuir la energía de estas ondas, y se analiza la energía extraíble de las ondas utilizando cuerpos con diferentes secciones transversales [Sorribes-Palmer and Sanz-Andres, 2013]. La influencia de la geometría de los portales en la energía radiada hacia el exterior de túnel es analizada experimentalmente, prestando especial atención a las boquillas porosas. Las ondas de presión en el interior del túnel se han analizado mediante el método de las características. Se han realizado ensayos experimentales para estimar la energía reflejada hacia el interior del túnel al alcanzar las ondas de presión el portal de salida del túnel. Se ha estudiado la formación e interacción entre el portal del túnel y la onda de choque generada en los túneles de gran longitud y pequeña fricción. Se propone un método para describir de forma aproximada el ruido radiado al exterior. Por otro lado se ha estudiado el ruido de media y alta frecuencia de origen aerodinámico. Se ha estudiado la influencia del desprendimiento de la capa límite sobre el tren. Se propone una metodología basada en una sección de tren característica para predecir rápidamente el nivel de presión de sonido dentro y fuera del tren para todo el rango de frecuencias. Se han realizado medidas experimentales en vía de los espectros de presión sobre la superficie del tren, y de la transmisibilidad de las uniones entre estructura y revestimiento. Los resultados experimentales se han utilizado en los modelos vibroacústicos. El método de la sección del tren característica es especialmente útil a altas frecuencias cuando todo el tren se puede modelar mediante el ensamblaje de diferentes secciones características utilizando el análisis estadístico de la energía. ABSTRACT This work is focused on the study of aeroacoustic problems in high speed trains. We have considered two scenarios in which the pressure waves generated are critical for passengers comfort. The first one is due to the pressure waves generated by a train entering in a tunnel. These waves generate pressure gauges inside the train (when they find each other) and outside of the tunnel portals. This phenomenon has been studied, and an aeroelastic system based on transverse galloping to reduce the energy of these waves is proposed. The maximum extractable energy by using bodies with different cross-section shapes is analyzed. The influence of the portals geometry in the energy radiated outwards the tunnel is analyzed experimentally, with particular attention to the porous exits. The pressure waves inside the tunnel have been analyzed using the method of characteristics. Experimental tests to estimate the energy reflected into the tunnel when the pressure waves reach the tunnel portal have been performed. We have studied the generation and interaction between the tunnel portal and a shock wave generated in long tunnels with small friction. A method to describe in an approximated way the pressure radiated outside the tunnel is proposed. In the second scenario, middle and high frequency noise generated aerodynamically has been studied, including the influence of the detachment of the boundary layer around the train. A method based on a train section to quickly predict the sound pressure level inside and outside the train has been proposed. Experimental test have been performed on board to evaluate the pressure power spectra on the surface of the train, and the transmissibility of the junctions between the structure and trim. These experimental results have been used in the vibroacoustic models. The low frequency pressure waves generated with the train during the tunnel crossing has been identified in the pressure spectrum. The train characteristic section method is especially useful at high frequencies, when the whole train can be modeled by assembling different sections using the statistical energy analysis. The sound pressure level inside the train is evaluated inside and outside the tunnel.
Resumo:
El aumento de la temperatura media de la Tierra durante el pasado siglo en casi 1 ºC; la subida del nivel medio del mar; la disminución del volumen de hielo y nieve terrestres; la fuerte variabilidad del clima y los episodios climáticos extremos que se vienen sucediendo durante las ultimas décadas; y el aumento de las epidemias y enfermedades infecciosas son solo algunas de las evidencias del cambio climático actual, causado, principalmente, por la acumulación de gases de efecto invernadero en la atmósfera por actividades antropogénicas. La problemática y preocupación creciente surgida a raíz de estos fenómenos, motivo que, en 1997, se adoptara el denominado “Protocolo de Kyoto” (Japón), por el que los países firmantes adoptaron diferentes medidas destinadas a controlar y reducir las emisiones de los citados gases. Entre estas medidas cabe destacar las tecnologías CAC, enfocadas a la captura, transporte y almacenamiento de CO2. En este contexto se aprobó, en octubre de 2008, el Proyecto Singular Estratégico “Tecnologías avanzadas de generación, captura y almacenamiento de CO2” (PSE-120000-2008-6), cofinanciado por el Ministerio de Ciencia e Innovación y el FEDER, el cual abordaba, en su Subproyecto “Almacenamiento Geológico de CO2” (PSS-120000-2008-31), el estudio detallado, entre otros, del Análogo Natural de Almacenamiento y Escape de CO2 de la cuenca de Ganuelas-Mazarrón (Murcia). Es precisamente en el marco de dicho Proyecto en el que se ha realizado este trabajo, cuyo objetivo final ha sido el de predecir el comportamiento y evaluar la seguridad, a corto, medio y largo plazo, de un Almacenamiento Geológico Profundo de CO2 (AGP-CO2), mediante el estudio integral del citado análogo natural. Este estudio ha comprendido: i) la contextualización geológica e hidrogeológica de la cuenca, así como la investigación geofísica de la misma; ii) la toma de muestras de aguas de algunos acuíferos seleccionados con el fin de realizar su estudio hidrogeoquímico e isotópico; iii) la caracterización mineralógica, petrográfica, geoquímica e isotópica de los travertinos precipitados a partir de las aguas de algunos de los sondeos de la cuenca; y iv) la medida y caracterización química e isotópica de los gases libres y disueltos detectados en la cuenca, con especial atención al CO2 y 222Rn. Esta información, desarrollada en capítulos independientes, ha permitido realizar un modelo conceptual de funcionamiento del sistema natural que constituye la cuenca de Ganuelas-Mazarrón, así como establecer las analogías entre este y un AGP-CO2, con posibles escapes naturales y/o antropogénicos. La aplicación de toda esta información ha servido, por un lado, para predecir el comportamiento y evaluar la seguridad, a corto, medio y largo plazo, de un AGP-CO2 y, por otro, proponer una metodología general aplicable al estudio de posibles emplazamientos de AGP-CO2 desde la perspectiva de los reservorios naturales de CO2. Los resultados más importantes indican que la cuenca de Ganuelas-Mazarrón se trata de una cubeta o fosa tectónica delimitada por fallas normales, con importantes saltos verticales, que hunden al substrato rocoso (Complejo Nevado-Filabride), y rellenas, generalmente, por materiales volcánicos-subvolcánicos ácidos. Además, esta cuenca se encuentra rellena por formaciones menos resistivas que son, de muro a techo, las margas miocenas, predominantes y casi exclusivas de la cuenca, y los conglomerados y gravas pliocuaternarias. El acuífero salino profundo y enriquecido en CO2, puesto de manifiesto por la xx exploración geotérmica realizada en dicha cuenca durante la década de los 80 y objeto principal de este estudio, se encuentra a techo de los materiales del Complejo Nevado-Filabride, a una profundidad que podría superar los 800 m, según los datos de la investigación mediante sondeos y geofísica. Por ello, no se descarta la posibilidad de que el CO2 se encuentre en estado supe critico, por lo que la citada cuenca reuniría las características principales de un almacenamiento geológico natural y profundo de CO2, o análogo natural de un AGP-CO2 en un acuífero salino profundo. La sobreexplotación de los acuíferos mas someros de la cuenca, con fines agrícolas, origino, por el descenso de sus niveles piezométricos y de la presión hidrostática, el ascenso de las aguas profundas, salinas y enriquecidas en CO2, las cuales son las responsables de la contaminación de dichos acuíferos. El estudio hidrogeoquímico de las aguas de los acuíferos investigados muestra una gran variedad de hidrofacies, incluso en aquellos de litología similar. La alta salinidad de estas aguas las hace inservibles tanto para el consumo humano como para fines agrícolas. Además, el carácter ligeramente ácido de la mayoría de estas aguas determina que tengan gran capacidad para disolver y transportar, hacia la superficie, elementos pesados y/o tóxicos, entre los que destaca el U, elemento abundante en las rocas volcánicas ácidas de la cuenca, con contenidos de hasta 14 ppm, y en forma de uraninita submicroscópica. El estudio isotópico ha permitido discernir el origen, entre otros, del C del DIC de las aguas (δ13C-DIC), explicándose como una mezcla de dos componentes principales: uno, procedente de la descomposición térmica de las calizas y mármoles del substrato y, otro, de origen edáfico, sin descartar una aportación menor de C de origen mantélico. El estudio de los travertinos que se están formando a la salida de las aguas de algunos sondeos, por la desgasificación rápida de CO2 y el consiguiente aumento de pH, ha permitido destacar este fenómeno, por analogía, como alerta de escapes de CO2 desde un AGP-CO2. El análisis de los gases disueltos y libres, con especial atención al CO2 y al 222Rn asociado, indican que el C del CO2, tanto disuelto como en fase libre, tiene un origen similar al del DIC, confirmándose la menor contribución de CO2 de origen mantélico, dada la relación R/Ra del He existente en estos gases. El 222Rn sería el generado por el decaimiento radiactivo del U, particularmente abundante en las rocas volcánicas de la cuenca, y/o por el 226Ra procedente del U o del existente en los yesos mesinienses de la cuenca. Además, el CO2 actúa como carrier del 222Rn, hecho evidenciado en las anomalías positivas de ambos gases a ~ 1 m de profundidad y relacionadas principalmente con perturbaciones naturales (fallas y contactos) y antropogénicas (sondeos). La signatura isotópica del C a partir del DIC, de los carbonatos (travertinos), y del CO2 disuelto y libre, sugiere que esta señal puede usarse como un excelente trazador de los escapes de CO2 desde un AGPCO2, en el cual se inyectara un CO2 procedente, generalmente, de la combustión de combustibles fósiles, con un δ13C(V-PDB) de ~ -30 ‰. Estos resultados han permitido construir un modelo conceptual de funcionamiento del sistema natural de la cuenca de Ganuelas-Mazarrón como análogo natural de un AGP-CO2, y establecer las relaciones entre ambos. Así, las analogías mas importantes, en cuanto a los elementos del sistema, serian la existencia de: i) un acuífero salino profundo enriquecido en CO2, que seria análoga a la formación almacén de un AGPxxi CO2; ii) una formación sedimentaria margosa que, con una potencia superior a 500 m, se correspondería con la formación sello de un AGP-CO2; y iii) acuíferos mas someros con aguas dulces y aptas para el consumo humano, rocas volcánicas ricas en U y fallas que se encuentran selladas por yesos y/o margas; elementos que también podrían concurrir en un emplazamiento de un AGP-CO2. Por otro lado, los procesos análogos mas importantes identificados serian: i) la inyección ascendente del CO2, que seria análoga a la inyección de CO2 de origen antropogénico, pero este con una signatura isotópica δ13C(V-PDB) de ~ -30 ‰; ii) la disolución de CO2 y 222Rn en las aguas del acuífero profundo, lo que seria análogo a la disolución de dichos gases en la formación almacén de un AGP-CO2; iii) la contaminación de los acuíferos mas someros por el ascenso de las aguas sobresaturadas en CO2, proceso que seria análogo a la contaminación que se produciría en los acuíferos existentes por encima de un AGP-CO2, siempre que este se perturbara natural (reactivación de fallas) o artificialmente (sondeos); iv) la desgasificación (CO2 y gases asociados, entre los que destaca el 222Rn) del acuífero salino profundo a través de sondeos, proceso análogo al que pudiera ocurrir en un AGP-CO2 perturbado; y v) la formación rápida de travertinos, proceso análogo indicativo de que el AGP-CO2 ha perdido su estanqueidad. La identificación de las analogías más importantes ha permitido, además, analizar y evaluar, de manera aproximada, el comportamiento y la seguridad, a corto, medio y largo plazo, de un AGP-CO2 emplazado en un contexto geológico similar al sistema natural estudiado. Para ello se ha seguido la metodología basada en el análisis e identificación de los FEPs (Features, Events and Processes), los cuales se han combinado entre sí para generar y analizar diferentes escenarios de evolución del sistema (scenario analysis). Estos escenarios de evolución identificados en el sistema natural perturbado, relacionados con la perforación de sondeos, sobreexplotación de acuíferos, precipitación rápida de travertinos, etc., serian análogos a los que podrían ocurrir en un AGP-CO2 que también fuera perturbado antropogénicamente, por lo que resulta totalmente necesario evitar la perturbación artificial de la formación sello del AGPCO2. Por último, con toda la información obtenida se ha propuesto una metodología de estudio que pueda aplicarse al estudio de posibles emplazamientos de un AGP-CO2 desde la perspectiva de los reservorios naturales de CO2, sean estancos o no. Esta metodología comprende varias fases de estudio, que comprendería la caracterización geológico-estructural del sitio y de sus componentes (agua, roca y gases), la identificación de las analogías entre un sistema natural de almacenamiento de CO2 y un modelo conceptual de un AGP-CO2, y el establecimiento de las implicaciones para el comportamiento y la seguridad de un AGP-CO2. ABSTRACT The accumulation of the anthropogenic greenhouse gases in the atmosphere is the main responsible for: i) the increase in the average temperature of the Earth over the past century by almost 1 °C; ii) the rise in the mean sea level; iii) the drop of the ice volume and terrestrial snow; iv) the strong climate variability and extreme weather events that have been happening over the last decades; and v) the spread of epidemics and infectious diseases. All of these events are just some of the evidence of current climate change. The problems and growing concern related to these phenomena, prompted the adoption of the so-called "Kyoto Protocol" (Japan) in 1997, in which the signatory countries established different measurements to control and reduce the emissions of the greenhouse gases. These measurements include the CCS technologies, focused on the capture, transport and storage of CO2. Within this context, it was approved, in October 2008, the Strategic Singular Project "Tecnologías avanzadas de generación, captura y almacenamiento de CO2" (PSE-120000-2008-6), supported by the Ministry of Science and Innovation and the FEDER funds. This Project, by means of the Subproject "Geological Storage of CO2" (PSS- 120000-2008-31), was focused on the detailed study of the Natural Analogue of CO2 Storage and Leakage located in the Ganuelas-Mazarron Tertiary basin (Murcia), among other Spanish Natural Analogues. This research work has been performed in the framework of this Subproject, being its final objective to predict the behaviour and evaluate the safety, at short, medium and long-term, of a CO2 Deep Geological Storage (CO2-DGS) by means of a comprehensive study of the abovementioned Natural Analogue. This study comprises: i) the geological and hydrogeological context of the basin and its geophysical research; ii) the water sampling of the selected aquifers to establish their hydrogeochemical and isotopic features; iii) the mineralogical, petrographic, geochemical and isotopic characterisation of the travertines formed from upwelling groundwater of several hydrogeological and geothermal wells; and iv) the measurement of the free and dissolved gases detected in the basin, as well as their chemical and isotopic characterisation, mainly regarding CO2 and 222Rn. This information, summarised in separate chapters in the text, has enabled to build a conceptual model of the studied natural system and to establish the analogies between both the studied natural system and a CO2-DGS, with possible natural and/or anthropogenic escapes. All this information has served, firstly, to predict the behaviour and to evaluate the safety, at short, medium and long-term, of a CO2-DGS and, secondly, to propose a general methodology to study suitable sites for a CO2-DGS, taking into account the lessons learned from this CO2 natural reservoir. The main results indicate that the Ganuelas-Mazarron basin is a graben bounded by normal faults with significant vertical movements, which move down the metamorphic substrate (Nevado-Filabride Complex), and filled with acid volcanic-subvolcanic rocks. Furthermore, this basin is filled with two sedimentary formations: i) the Miocene marls, which are predominant and almost exclusive in the basin; xxiv and ii) the Plio-Quaternary conglomerates and gravels. A deep saline CO2-rich aquifer was evidenced in this basin as a result of the geothermal exploration wells performed during the 80s, located just at the top of the Nevado-Filabride Complex and at a depth that could exceed 800 m, according to the geophysical exploration performed. This saline CO2-rich aquifer is precisely the main object of this study. Therefore, it is not discarded the possibility that the CO2 in this aquifer be in supercritical state. Consequently, the aforementioned basin gathers the main characteristics of a natural and deep CO2 geological storage, or natural analogue of a CO2-DGS in a deep saline aquifer. The overexploitation of the shallow aquifers in this basin for agriculture purposes caused the drop of the groundwater levels and hydrostatic pressures, and, as a result, the ascent of the deep saline and CO2-rich groundwater, which is the responsible for the contamination of the shallow and fresh aquifers. The hydrogeochemical features of groundwater from the investigated aquifers show the presence of very different hydrofacies, even in those with similar lithology. The high salinity of this groundwater prevents the human and agricultural uses. In addition, the slightly acidic character of most of these waters determines their capacity to dissolve and transport towards the surface heavy and/or toxic elements, among which U is highlighted. This element is abundant in the acidic volcanic rocks of the basin, with concentrations up to 14 ppm, mainly as sub-microscopic uraninite crystals. The isotopic study of this groundwater, particularly the isotopic signature of C from DIC (δ13C-DIC), suggests that dissolved C can be explained considering a mixture of C from two main different sources: i) from the thermal decomposition of limestones and marbles forming the substrate; and ii) from edaphic origin. However, a minor contribution of C from mantle degassing cannot be discarded. The study of travertines being formed from upwelling groundwater of several hydrogeological and geothermal wells, as a result of the fast CO2 degassing and the pH increase, has allowed highlighting this phenomenon, by analogy, as an alert for the CO2 leakages from a CO2-DGS. The analysis of the dissolved and free gases, with special attention to CO2 and 222Rn, indicates that the C from the dissolved and free CO2 has a similar origin to that of the DIC. The R/Ra ratio of He corroborates the minor contribution of CO2 from the mantle degassing. Furthermore, 222Rn is generated by the radioactive decay of U, particularly abundant in the volcanic rocks of the basin, and/or by 226Ra from the U or from the Messinian gypsum in the basin. Moreover, CO2 acts as a carrier of the 222Rn, a fact evidenced by the positive anomalies of both gases at ~ 1 m depth and mainly related to natural (faults and contacts) and anthropogenic (wells) perturbations. The isotopic signature of C from DIC, carbonates (travertines), and dissolved and free CO2, suggests that this parameter can be used as an excellent tracer of CO2 escapes from a CO2-DGS, in which CO2 usually from the combustion of fossil fuels, with δ13C(V-PDB) of ~ -30 ‰, will be injected. All of these results have allowed to build a conceptual model of the behaviour of the natural system studied as a natural analogue of a CO2-DGS, as well as to establish the relationships between both natural xxv and artificial systems. Thus, the most important analogies, regarding the elements of the system, would be the presence of: i) a deep saline CO2-rich aquifer, which would be analogous to the storage formation of a CO2-DGS; ii) a marly sedimentary formation with a thickness greater than 500 m, which would correspond to the sealing formation of a CO2-DGS; and iii) shallow aquifers with fresh waters suitable for human consumption, U-rich volcanic rocks, and faults that are sealed by gypsums and/or marls; geological elements that could also be present in a CO2-DGS. On the other hand, the most important analogous processes identified are: i) the upward injection of CO2, which would be analogous to the downward injection of the anthropogenic CO2, this last with a δ13C(V-PDB) of ~ -30 ‰; ii) the dissolution of CO2 and 222Rn in groundwater of the deep aquifer, which would be analogous to the dissolution of these gases in the storage formation of a CO2-DGS; iii) the contamination of the shallow aquifers by the uprising of CO2-oversaturated groundwater, an analogous process to the contamination that would occur in shallow aquifers located above a CO2-DGS, whenever it was naturally (reactivation of faults) or artificially (wells) perturbed; iv) the degassing (CO2 and associated gases, among which 222Rn is remarkable) of the deep saline aquifer through wells, process which could be similar in a perturbed CO2- DGS; v) the rapid formation of travertines, indicating that the CO2-DGS has lost its seal capacity. The identification of the most important analogies has also allowed analysing and evaluating, approximately, the behaviour and safety in the short, medium and long term, of a CO2-DGS hosted in a similar geological context of the natural system studied. For that, it has been followed the methodology based on the analysis and identification of FEPs (Features, Events and Processes) that have been combined together in order to generate and analyse different scenarios of the system evolution (scenario analysis). These identified scenarios in the perturbed natural system, related to boreholes, overexploitation of aquifers, rapid precipitation of travertines, etc., would be similar to those that might occur in a CO2-DGS anthropogenically perturbed, so that it is absolutely necessary to avoid the artificial perturbation of the seal formation of a CO2-DGS. Finally, a useful methodology for the study of possible sites for a CO2-DGS is suggested based on the information obtained from this investigation, taking into account the lessons learned from this CO2 natural reservoir. This methodology comprises several phases of study, including the geological and structural characterisation of the site and its components (water, rock and gases), the identification of the analogies between a CO2 storage natural system and a conceptual model of a CO2-DGS, and the implications regarding the behaviour and safety of a CO2-DGS.
Resumo:
La finalidad de este proyecto es el estudio de la recuperación del último tramo del arroyo de las Canteras a su paso por Castro del Río, eliminando el canal existente para dotar al arroyo de cierta naturalidad y proponiendo distintas alternativas que solucionen los problemas de erosión y los recurrentes problemas de inundaciones en la localidad. Para la realización del proyecto, se han analizado tanto las condiciones del tramo fluvial como las correspondientes a la cuenca vertiente mediante una caracterización completa. Por otro lado, se ha realizado un estudio hidrológico para calcular distintos caudales generados en la cuenca asociados a distintos periodos de retorno; varios estudios hidráulicos, fundamentalmente modelizaciones del comportamiento del canal con el software HEC-RAS; y un estudio de erosión hídrica utilizando el método MUSLE con el caudal asociado a un periodo de retorno de 500 años. Con los resultados obtenidos se ha establecido un diagnóstico de la problemática existente y se han planteado y modelizado distintas alternativas. Como medidas estructurales dentro del tramo destacan: el redimensionamiento del cauce eliminando el hormigón, la variación de la curva del canal y la disminución de la pendiente mediante la creación de una serie de saltos. Como soluciones estructurales fuera del tramo de estudio cabe señalar la creación de diques de laminación y una llanura de inundación artificial para disminuir el caudal. Finalmente como medida no estructural, se realizará un cambio de usos y prácticas de conservación del olivar a nivel de cuenca. En conclusión, con la restauración, aparte de la mejora ambiental que se pretende conseguir, se realizará una mejora social. Dicha mejora social se obtendrá evitando las frecuentes inundaciones y eliminando el impacto visual que produce el canal gracias a la mejora de la calidad del entorno. Además, se concienciará a los habitantes de la zona para que entiendan que la solución al mal estado y comportamiento de un curso de agua no proviene únicamente de una gran obra en la zona problemática, sino de la aportación individual para reducir e incluso eliminar la fuente del problema.
Resumo:
Esta tesis doctoral se ha centrado en el estudio de las cargas aerodinámicas no estacionario en romos cuerpos o no aerodinámicos (bluff bodies). Con este objetivo se han identificado y analizado los siguientes puntos: -Caracterización del flujo medido con diferentes tipos de tubos de Pitot y anemómetro de hilo caliente en condiciones de flujo no estacionario inestable generado por un túnel aerodinamico de ráfagas. -Diseño e integración de los montajes experimentales requeridos para medir las cargas de viento internas y externas que actúan sobre los cuerpos romos en condiciones de flujo de viento con ráfagas. -Implementación de modelos matemáticos semi-empíricos basados en flujo potencial y las teorías fenomenológicas pertinentes para simular los resultados experimentales. -En diversan condiciones de flujo con ráfagas, la identificación y el análisis de la influencia de los parámetros obtenida a partir de los modelos teóricos desarrollados. -Se proponen estimaciones empíricas para averiguar los valores adecuados de los parámetros que influyente, mediante el ajuste de los resultados experimentales y los predichos teóricamente. Los montajes experimentales se has reakizado en un tunel aerodinamico de circuito abierto, provisto de baja velocidad, cámara de ensayes cerrada, un nuevo concepto de mecanismo generador de ráfaga sinusoidal, diseñado y construido en el Instituto de Microgravedad "Ignacio Da Riva" de la Universidad Politécnica de Madrid, (IDR / UPM). La principal característica de este túnel aerodynamico es la capacidad de generar un flujo con un perfil de velocidad uniforme y una fluctuación sinusoidal en el tiempo. Se han realizado pruebas experimentales para estudiar el efecto de los flujos no estacionarios en cuerpos romos situados en el suelo. Se han propuesto dos modelos teóricos para diterminar las cargas de presión externas e internas respectivamente. Con el fin de satisfacer la necesidad de la crea ráfagas de viento sinusoidales para comprobar las predicciones de los modelos teóricos, se han obtenido velocidades de hasta 30 m/s y frecuencias ráfaga de hasta 10 Hz. La sección de la cámara de ensayos es de 0,39 m x 0,54 m, dimensiónes adecuadas para llevar a cabo experimentos con modelos de ensayos. Se muestra que en la gama de parámetros explorados los resultados experimentales están en buen acuerdo con las predicciones de los modelos teóricos. Se han realizado pruebas experimentales para estudiar los efectos del flujo no estacionario, las cuales pueden ayudar a aclarar el fenómeno de las cargas de presión externa sobre los cuerpos romos sometidos a ráfagas de viento: y tambien para determinan las cargas de presión interna, que dependen del tamaño de los orificios de ventilación de la construcción. Por último, se ha analizado la contribución de los términos provenientes del flujo no estacionario, y se han caracterizado o los saltos de presión debido a la pérdida no estacionario de presión a través de los orificios de ventilación. ABSTRACT This Doctoral dissertation has been focused to study the unsteady aerodynamic loads on bluff bodies. To this aim the following points have been identified and analyzed: -Characterization of the flow measured with different types of Pitot tubes and hot wire anemometer at unsteady flow conditions generated by a gust wind tunnel. -Design and integrating of the experimental setups required to measure the internal and external wind loads acting on bluff bodies at gusty wind flow conditions. -Implementation of semi-empirical mathematical models based on potential flow and relevant phenomenological theories to simulate the experimental results.-At various gusty flow conditions, extracting and analyzing the influence of parameters obtained from the developed theoretical models. -Empirical estimations are proposed to find out suitable values of the influencing parameters, by fitting the experimental and theoretically predicted results. The experimental setups are performed in an open circuit, closed test section, low speed wind tunnel, with a new sinusoidal gust generator mechanism concept, designed and built at the Instituto de Microgravedad “Ignacio Da Riva” of the Universidad Politécnica de Madrid, (IDR/UPM). The main characteristic of this wind tunnel is the ability to generate a flow with a uniform velocity profile and a sinusoidal time fluctuation of the speed. Experimental tests have been devoted to study the effect of unsteady flows on bluff bodies lying on the ground. Two theoretical models have been proposed to measure the external and internal pressure loads respectively. In order to meet the need of creating sinusoidal wind gusts to check the theoretical model predictions, the gust wind tunnel maximum flow speed and, gust frequency in the test section have been limited to 30 m/s and 10 Hz, respectively have been obtained. The test section is 0.39 m × 0.54 m, which is suitable to perform experiments with testing models. It is shown that, in the range of parameters explored, the experimental results are in good agreement with the theoretical model predictions. Experimental tests have been performed to study the unsteady flow effects, which can help in clarifying the phenomenon of the external pressure loads on bluff bodies under gusty winds: and also to study internal pressure loads, which depend on the size of the venting holes of the building. Finally, the contribution of the unsteady flow terms in the theoretical model has been analyzed, and the pressure jumps due to the unsteady pressure losses through the venting holes have been characterized.
Resumo:
Las hortalizas mínimamente procesadas (MP) son productos frescos, higienizados, que sufren alteraciones físicas durante el proceso de elaboración que afectan a su metabolismo, determinando incrementos en la tasa respiratoria y producción de etileno. Los daños que se originan por las operaciones físicas, vuelven a estos productos más susceptibles a la colonización de microorganismos, inducen procesos de cicatrización de heridas y afectan su calidad organoléptica y funcional. Por ello en estos productos es especialmente crítico el aseguramiento de las condiciones de refrigeración desde el productor hasta el consumidor. En este estudio se presenta el análisis de las temperaturas registradas en Santiago (Chile) durante la cadena de producción y distribución de lechugas baby leaf MP tipo Salanova®, monitorizadas mediante sensores de temperatura y humedad relativa (I-Buttons®) y tarjetas RFID con sensor de temperatura (TurboTag®), colocados en el interior de las bolsas de lechuga y en el exterior de las cajas de agrupación. El objetivo del presente trabajo es generar información sobre el historial térmico de estos productos desde la huerta a la nevera del consumidor, así como optimizar los protocolos de colocación de dispositivos y sistematizar procedimientos de análisis de datos espacio-temporales. Con los datos registrados, se simuló la cadena de producción, distribución y venta, realizando un seguimiento de la calidad comercial del producto, evaluándose la tasa respiratoria y las características sensoriales sin degustación. Se observó que no solo se producen saltos térmicos discretos, sino que las lechugas estuvieron durante gran parte de su vida útil en condiciones sub-óptimas de temperatura, comprometiéndose su calidad sensorial.
Resumo:
En el proceso de cálculo de redes de tuberías se maneja un conjunto de variables con unas características muy peculiares, ya que son discretas y estandarizadas. Por lo tanto su evolución se produce por escalones (la presión nominal, el diámetro y el costo de los tubos). Por otro lado la presión de diseño de la red es una función directa de la presión de cabecera. En el proceso de optimización mediante programación dinámica la presión de cabecera se va reduciendo gradualmente en cada secuencia del proceso, haciendo que evolucione a la par la presión de diseño, lo que genera a su vez saltos discriminados en la presión nominal de los tramos, y con ello en su costo y en su gradiente de cambio. En esta tesis doctoral se analiza si estos cambios discriminados que se producen en el gradiente de cambio de algunos tramos en el curso de una secuencia, ocasionados por la evolución de la presión de cabecera de la red, generan interferencias que alteran el proceso secuencial de la programación dinámica. La modificación del gradiente de cambio durante el transcurso de una secuencia se conoce con el nombre de mutación, la cual puede ser activa cuando involucra a un tramo optimo modificando las condiciones de la transacción o pasiva si no crea afección alguna. En el análisis realizado se distingue entre la mutación del gradiente de cambio de los tramos óptimos (que puede generarse exclusivamente en el conjunto de los trayectos que los albergan), y entre los efectos que el cambio de timbraje produce en el resto de los tramos de la red (incluso los situados aguas abajo de los nudos con holgura de presión nula) sobre el mecanismo iterativo, estudiando la compatibilidad de este fenómeno con el principio de óptimo de Bellman. En el proceso de investigación llevado a cabo se destaca la fortaleza que da al proceso secuencial del método Granados el hecho de que el gradiente de cambio siempre sea creciente en el avance hacia el óptimo, es decir que el costo marginal de la reducción de las pérdidas de carga de la red que se consigue en una iteración siempre sea más caro que el de la iteración precedente. Asimismo, en el estudio realizado se revisan los condicionantes impuestos al proceso de optimización, incluyendo algunos que hasta ahora no se han tenido en cuenta en los estudios de investigación, pero que están totalmente integrados en la ingeniería práctica, como es la disposición telescópica de las redes (reordenación de los diámetros de mayor a menor de cabeza a cola de la red), y la disposición de un único diámetro por tramo, en lugar de que estén compartidos por dos diámetros contiguos (con sus salvedades en caso de tramos de gran longitud, o en otras situaciones muy específicas). Finalmente se incluye un capítulo con las conclusiones, aportaciones y recomendaciones, las cuales se consideran de gran utilidad para la ingeniería práctica, entre las que se destaca la perfección del método secuencial, la escasa transcendencia de las mutaciones del gradiente de cambio y la forma en que pueden obviarse, la inocuidad de las mutaciones pasivas y el cumplimiento del principio de Bellman en todo el proceso de optimización. The sizing process of a water distribution network is based on several variables, being some of them special, as they are discrete and their values are standardized: pipe pressure rating, pipe diameter and pipe cost. On another note, the sizing process is directly related with the pressure at the network head. Given that during the optimization by means of the Granados’ Method (based on dynamic programming) the pressure at the network head is being gradually reduced, a jump from one pipe pressure rating to another may arise during the sequential process, leading to changes on the pipe cost and on the gradient change (unitary cost for reducing the head losses). This chain of changes may, in turn, affect the sequential process diverting it from an optimal policies path. This thesis analyses how the abovementioned alterations could influence the results of the dynamic programming algorithm, that is to say the compatibility with the Bellman’s Principle of Optimality, which states that the sequence has to follow a route of optimal policies, and that past decisions should not influence the remaining ones. The modification of the gradient change is known as mutation. Mutations are active when they affect the optimal link (the one which was selected to be changed during iteration) or passive when they do not alter the selection of the optimal link. The thesis analysed the potential mutations processes along the network, both on the optimal paths and also on the rest of the network, and its influence on the final results. Moreover, the investigation analysed the practical restrictions of the sizing process that are fully integrated in the applied engineering, but not always taken into account by the optimization tools. As the telescopic distribution of the diameters (i.e. larger diameters are placed at the network head) and the use of a unique diameter per link (with the exception of very large links, where two consecutive diameters may be placed). Conclusions regarding robustness of the dynamic programming algorithm are given. The sequence of the Granados Method is quite robust and it has been shown capable to auto-correct the mutations that could arise during the optimization process, and to achieve an optimal distribution even when the Bellman’s Principle of Optimality is not fully accomplished. The fact that the gradient change is always increasing during the optimization (that is to say, the marginal cost of reducing head losses is always increasing), provides robustness to the algorithm, as looping are avoided in the optimization sequence. Additionally, insight into the causes of the mutation process is provided and practical rules to avoid it are given, improving the current definition and utilization of the Granados’ Method.