84 resultados para Componentes de la carga


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Esta tesis se desarrolla dentro del marco de las comunicaciones satelitales en el innovador campo de los pequeños satélites también llamados nanosatélites o cubesats, llamados así por su forma cubica. Estos nanosatélites se caracterizan por su bajo costo debido a que usan componentes comerciales llamados COTS (commercial off-the-shelf) y su pequeño tamaño como los Cubesats 1U (10cm*10 cm*10 cm) con masa aproximada a 1 kg. Este trabajo de tesis tiene como base una iniciativa propuesta por el autor de la tesis para poner en órbita el primer satélite peruano en mi país llamado chasqui I, actualmente puesto en órbita desde la Estación Espacial Internacional. La experiencia de este trabajo de investigación me llevo a proponer una constelación de pequeños satélites llamada Waposat para dar servicio de monitoreo de sensores de calidad de agua a nivel global, escenario que es usado en esta tesis. Es ente entorno y dadas las características limitadas de los pequeños satélites, tanto en potencia como en velocidad de datos, es que propongo investigar una nueva arquitectura de comunicaciones que permita resolver en forma óptima la problemática planteada por los nanosatélites en órbita LEO debido a su carácter disruptivo en sus comunicaciones poniendo énfasis en las capas de enlace y aplicación. Esta tesis presenta y evalúa una nueva arquitectura de comunicaciones para proveer servicio a una red de sensores terrestres usando una solución basada en DTN (Delay/Disruption Tolerant Networking) para comunicaciones espaciales. Adicionalmente, propongo un nuevo protocolo de acceso múltiple que usa una extensión del protocolo ALOHA no ranurado, el cual toma en cuenta la prioridad del trafico del Gateway (ALOHAGP) con un mecanismo de contienda adaptativo. Utiliza la realimentación del satélite para implementar el control de la congestión y adapta dinámicamente el rendimiento efectivo del canal de una manera óptima. Asumimos un modelo de población de sensores finito y una condición de tráfico saturado en el que cada sensor tiene siempre tramas que transmitir. El desempeño de la red se evaluó en términos de rendimiento efectivo, retardo y la equidad del sistema. Además, se ha definido una capa de convergencia DTN (ALOHAGP-CL) como un subconjunto del estándar TCP-CL (Transmission Control Protocol-Convergency Layer). Esta tesis muestra que ALOHAGP/CL soporta adecuadamente el escenario DTN propuesto, sobre todo cuando se utiliza la fragmentación reactiva. Finalmente, esta tesis investiga una transferencia óptima de mensajes DTN (Bundles) utilizando estrategias de fragmentación proactivas para dar servicio a una red de sensores terrestres utilizando un enlace de comunicaciones satelitales que utiliza el mecanismo de acceso múltiple con prioridad en el tráfico de enlace descendente (ALOHAGP). El rendimiento efectivo ha sido optimizado mediante la adaptación de los parámetros del protocolo como una función del número actual de los sensores activos recibidos desde el satélite. También, actualmente no existe un método para advertir o negociar el tamaño máximo de un “bundle” que puede ser aceptado por un agente DTN “bundle” en las comunicaciones por satélite tanto para el almacenamiento y la entrega, por lo que los “bundles” que son demasiado grandes son eliminados o demasiado pequeños son ineficientes. He caracterizado este tipo de escenario obteniendo una distribución de probabilidad de la llegada de tramas al nanosatélite así como una distribución de probabilidad del tiempo de visibilidad del nanosatélite, los cuales proveen una fragmentación proactiva óptima de los DTN “bundles”. He encontrado que el rendimiento efectivo (goodput) de la fragmentación proactiva alcanza un valor ligeramente inferior al de la fragmentación reactiva. Esta contribución permite utilizar la fragmentación activa de forma óptima con todas sus ventajas tales como permitir implantar el modelo de seguridad de DTN y la simplicidad al implementarlo en equipos con muchas limitaciones de CPU y memoria. La implementación de estas contribuciones se han contemplado inicialmente como parte de la carga útil del nanosatélite QBito, que forma parte de la constelación de 50 nanosatélites que se está llevando a cabo dentro del proyecto QB50. ABSTRACT This thesis is developed within the framework of satellite communications in the innovative field of small satellites also known as nanosatellites (<10 kg) or CubeSats, so called from their cubic form. These nanosatellites are characterized by their low cost because they use commercial components called COTS (commercial off-the-shelf), and their small size and mass, such as 1U Cubesats (10cm * 10cm * 10cm) with approximately 1 kg mass. This thesis is based on a proposal made by the author of the thesis to put into orbit the first Peruvian satellite in his country called Chasqui I, which was successfully launched into orbit from the International Space Station in 2014. The experience of this research work led me to propose a constellation of small satellites named Waposat to provide water quality monitoring sensors worldwide, scenario that is used in this thesis. In this scenario and given the limited features of nanosatellites, both power and data rate, I propose to investigate a new communications architecture that allows solving in an optimal manner the problems of nanosatellites in orbit LEO due to the disruptive nature of their communications by putting emphasis on the link and application layers. This thesis presents and evaluates a new communications architecture to provide services to terrestrial sensor networks using a space Delay/Disruption Tolerant Networking (DTN) based solution. In addition, I propose a new multiple access mechanism protocol based on extended unslotted ALOHA that takes into account the priority of gateway traffic, which we call ALOHA multiple access with gateway priority (ALOHAGP) with an adaptive contention mechanism. It uses satellite feedback to implement the congestion control, and to dynamically adapt the channel effective throughput in an optimal way. We assume a finite sensor population model and a saturated traffic condition where every sensor always has frames to transmit. The performance was evaluated in terms of effective throughput, delay and system fairness. In addition, a DTN convergence layer (ALOHAGP-CL) has been defined as a subset of the standard TCP-CL (Transmission Control Protocol-Convergence Layer). This thesis reveals that ALOHAGP/CL adequately supports the proposed DTN scenario, mainly when reactive fragmentation is used. Finally, this thesis investigates an optimal DTN message (bundles) transfer using proactive fragmentation strategies to give service to a ground sensor network using a nanosatellite communications link which uses a multi-access mechanism with priority in downlink traffic (ALOHAGP). The effective throughput has been optimized by adapting the protocol parameters as a function of the current number of active sensors received from satellite. Also, there is currently no method for advertising or negotiating the maximum size of a bundle which can be accepted by a bundle agent in satellite communications for storage and delivery, so that bundles which are too large can be dropped or which are too small are inefficient. We have characterized this kind of scenario obtaining a probability distribution for frame arrivals to nanosatellite and visibility time distribution that provide an optimal proactive fragmentation of DTN bundles. We have found that the proactive effective throughput (goodput) reaches a value slightly lower than reactive fragmentation approach. This contribution allows to use the proactive fragmentation optimally with all its advantages such as the incorporation of the security model of DTN and simplicity in protocol implementation for computers with many CPU and memory limitations. The implementation of these contributions was initially contemplated as part of the payload of the nanosatellite QBito, which is part of the constellation of 50 nanosatellites envisaged under the QB50 project.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En la actualidad, el crecimiento de la población urbana, el incremento de la demanda energética junto al desarrollo tecnológico impulsado en los últimos veinte años han originado un estudio y replanteamiento de los sistemas constructivos empleados. Como consecuencia se han establecido nuevos marcos normativos, marcando nuevos objetivos de confort y de demanda energética. En España, el Código Técnico de la Edificación (aprobado en el Real Decreto 314/2006 de 17 de Marzo) es el marco normativo que establece las exigencias que se deben cumplir al proyectar construir, usar, mantener y conservar los edificios, incluidas sus instalaciones, con el fin de asegurar la calidad, seguridad y salud del usuario, respetando en todo momento su entorno. Para asegurar el cumplimiento de las exigencias del Código Técnico de la Edificación (CTE), se han elaborado diferentes Documentos Básicos (DB). Entre ellos están los documentos básicos DB HR-Protección frente al ruido y el DB HS-Salubridad. En el DB HS 3 Calidad del aire interior, se establecen las condiciones que deben de adoptarse para que los recintos de los edificios se puedan ventilar adecuadamente, eliminando los contaminantes que se produzcan de forma habitual durante un uso normal de los edificios, de forma que se aporte un caudal suficiente de aire exterior y se garantice la extracción y expulsión del aire viciado por los contaminantes. En el apartado 3.1, Condiciones generales de los sistemas de ventilación, se indica que las viviendas deben disponer de un sistema general de ventilación donde el aire debe circular desde los locales secos a los húmedos. Para ello los comedores, los dormitorios y las salas de estar deben de disponer de aberturas de admisión, pudiéndose resolver esta cuestión técnica con diversas soluciones. El DB HR Protección frente al ruido del CTE, establece unos valores del aislamiento acústico a ruido aéreo, entre un recinto protegido y el exterior, en función del uso del edificio y del nivel sonoro continuo equivalente día, Ld de la zona donde se ubique el edificio. El hacer compatibles el cumplimiento de las exigencias de los dos Documentos Básicos anteriormente citados, origina algunas dificultades en los proyectos de edificación actuales. Los proyectistas tienen que recurrir en la mayoría de los casos a nuevos sistemas constructivos o duplicaciones de soluciones existentes, evitando la manipulación de los elementos de regulación de entrada de aire en las viviendas. El objetivo fundamental de la Tesis presentada es el estudio de los efectos que producen la colocación de sistemas de aireación permanente en el aislamiento acústico a ruido aéreo de las ventanas compactas. Se comprueba la influencia de cada uno de los componentes de la ventana compacta: perfiles, unidades de vidrio, sistema de apertura, cajón de persiana, persiana, aireadores, etc. en el aislamiento a ruido aéreo del sistema completo. Los ensayos acústicos se han realizado mediante dos métodos: conforme a la norma UNE-EN ISO 10140-2:2011 Medición en laboratorio del aislamiento acústico al ruido aéreo de los elementos de construcción y mediante intensimetría acústica acorde a la norma UNE-EN ISO 15186-1:2004 Medición del aislamiento acústico en los edificios y de los elementos de construcción utilizando intensidad sonora. Los resultados obtenidos podrán ser de gran utilidad para todos los profesionales que intervienen en el proceso edificatorio: arquitectos, ingenieros, instaladores, promotores, fabricantes de productos, etc., tanto en la obra nueva como en la rehabilitación. En un futuro, podrían incorporarse a los Catálogos y Documentos de Aplicación del CTE, así como a los nuevos programas informáticos de diseño y aislamiento acústico. Con el conocimiento adquirido y su aplicación, se contribuirá a la mejora de la calidad de una edificación más sostenible y eficiente. Se incrementará la productividad y la competitividad de los fabricantes de materiales y sistemas constructivos, aumentando el grado de satisfacción del usuario final con el consiguiente aumento de la calidad de vida de los ciudadanos. También se ampliará el conocimiento técnico de este tipo de sistemas y la compatibilidad entre las distintas exigencias marcadas por la normativa. ABSTRACT At present, the urban population growth, the increase of energy demand and the technological development in the last twenty years have led to a rethinking of the used building systems. As a result, new regulatory frameworks have been established, setting new goals of comfort and energy demand. In Spain, the Building Code, Código Técnico de la Edificación (CTE) (RD 314/2006 of March 17th) is the regulatory framework that establishes the requirements to be met by projecting, building, using, maintaining and preserving buildings, including its facilities in order to ensure the quality, safety and health of the user, always respecting the environment. To ensure compliance with the requirements of the CTE, different technical requirements Documentos básicos (DB) have been developed. Among them, are the DB-HR-Protection against noise and DB-HS-Health. In the DB-HS- part3, Indoor Air Quality, are set the conditions needed to be taken into consideration so that the building enclosures can be adequately ventilated, eliminating pollutants that occur regularly during normal use of the buildings, so that a sufficient airflow of outdoor is supplied and a removal and extraction of stale air pollutants is guaranteed. In section 3.1, General Terms of ventilation systems, is indicated that dwellings must have a general ventilation system where air can circulate from dry to wet enclosures. For this, dining rooms, bedrooms and living rooms should have air intake, being able to resolve this technical issue with various solutions. The DB-HR Protection against noise, provides sound insulation values of airborne sound transmission between a protected room and the outside, depending on the use of the building and the equivalent continuous sound level day, Ld, in the area where the building is located. Satisfying the requirements of the two requirements mentioned above causes some difficulties in current building project. Designers have to rely in most cases, to new construction elements or duplicate existing solutions, avoiding the manipulation of the air intakes elements. The main objective of this Thesis is the study of the effects of permanent intakes systems in the acoustic insulation against airborne noise transmission in compact windows. The influence of each of the components of the compact window is determined: frames, glass units, opening systems, shutter box, trickle vents, etc. in the airborne sound insulation of the entire system. The acoustic survey were performed using two methods: UNE-EN ISO 10140-2: 2011 Laboratory measurements of sound insulation of building elements and UNE-EN ISO 15186-1:2004 Measurement of sound insulation in buildings and of building elements using sound intensity. The obtained results may be useful for all professionals involved in the building process: architects, engineers, installers, developers, manufacturers, etc. in the new construction developments and in rehabilitation. In the future, it could be added to building catalogues and applications of the Spanish Building Code, as well as to the new design and sound insulation software. With the acquired knowledge and its application, there will be a contribution to improve the quality of a more sustainable and efficient construction. Productivity and competitiveness of manufacturers of building materials and components will improve, increasing the degree of satisfaction of the final user with a consequent increase in the quality of life of citizens. Technical knowledge of such systems and compatibility between the various requirements set by the legislation will also expand.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Esta tesis presenta un estudio de la resistencia de interferencia en multicascos, término que engloba las variaciones en la resistencia al avance debidas a la interacción entre cascos. Su característica más notable es que puede ser tanto positiva como negativa, contribuyendo favorablemente en este último caso a la reducción de la resistencia total. Su análisis permanece como un área activa dentro de la comunidad hidrodinámica, si bien se ha detectado una significativa falta de información experimental sobre el flujo entre cascos. En primer lugar se incluye una caracterización de los fenómenos de interferencia, evaluando su impacto en las diferentes componentes de la resistencia al avance. Al igual que la resistencia total, su predicción requiere el uso de técnicas experimentales o numéricas al ser inviable su solución analítica. Ambos procedimientos han sido considerados en esta tesis. El análisis experimental de la resistencia de interferencia supone el núcleo central del trabajo realizado. Se han ensayado dos geometrías diferentes, un catamarán de servicio comercial PESBO junto con un catamarán compuesto por dos Serie 60 (S60) en paralelo. Los ensayos se han llevado a cabo en dos canales de experiencias, CEHINAV y CEHIPAR, midiéndose resistencia al avance, asiento y trimados dinámicos, y cortes de olas en la zona entre cascos. Mención especial a estos últimos, dado que a pesar de ser en la zona central donde ocurren los principales efectos de interferencia, no se encontró información previa publicada en la literatura. Su medición requirió la fabricación de un sistema de soporte especifico para las probetas de medición. Por otro lado, aunque el Serie 60 es una geometría bien conocida en la comunidad hidrodinámica, a conocimiento del autor su comportamiento como multicasco no había sido aun caracterizado experimentalmente. Los bastidores de unión se fabricaron de forma que permitieran variar la separación entre cascos. Además, los multicascos son en general embarcaciones de alta velocidad mostrando asientos y trimados dinámicos significativos. Para cuantificar su efecto en la resistencia total y de interferencia se construyo un sistema de fijación del modelo al carro que los restringiera, posibilitando comparar los resultados en esta condición con los del modelo libre. Como resultado, se han obtenido resultados experimentales de las dos geometrías estudiadas con múltiples separaciones, incluyendo un solo casco, y con modelo fijo y libre. Una de las principales utilidades de los resultados experimentales es servir como referencia para validar modelos de predicción. Como primera aplicación, los datos experimentales obtenidos con el catamarán S60 se han contrastado con las predicciones numéricas de Yeung et al. (2004). El análisis numérico de la resistencia de interferencia se completa con la realización de simulaciones numéricas utilizando dos códigos substancialmente diferentes: Tdynlin y CD--‐Adapco Star--‐CCM+. Los cortes de olas obtenidos en las simulaciones se comparan con los valores experimentales, mostrándose además los campos de presiones y velocidades calculados sobre el casco. La principal aportación de esta tesis es una extensa caracterización experimental de los fenómenos de interferencia, con la intención de servir de referencia para futuros estudios con multicascos. El análisis de los resultados permite comprender mejor el impacto que la interacción entre cascos, así como las variaciones dinámicas de las condiciones de navegación, tienen en las diferentes componentes de la resistencia. Por otro lado, permite apreciar la dependencia de la resistencia de interferencia con la velocidad y separación entre cascos, de cara a su utilización como parámetro de diseño. ABSTRACT This thesis presents a study of the interference resistance in multihulls, which comprises all the variations in the ship resistance due to the interaction between hulls. Its most remarkable characteristic is that it can be positive or negative, contributing in the second case to the reduction of the total ship resistance. Its study remains an active area in the hydrodynamic community, although there is a significant lack of published experimental data regarding the flow between hulls. First of all, the interference phenomena are characterized, evaluating the impact in the different components of the ship resistance. Similar to the total resistance, their prediction requires experimental or numerical techniques, as no analytic solutions are known. Both procedures have been considered in this thesis. The experimental analysis of the interference resistance is the core of the work done. Two different geometries have been tested, a commercial catamaran PESBO and a catamaran composed by two parallel Series 60 (S60). The tests have been carried out in two towing tanks, CEHINAV and CEHIPAR, measuring ship resistance, dynamic sinkage and trim, and wave cuts in--‐between the hulls. Special mention to the wave cuts, as no previous published information was found regarding this zone, even if it is where the main interference effects happen. Their measurement required building a support tripod for the probes, specifically designed for this experimental campaign. In addition, although the Series 60 is a well known hull for experimental and computational analyses, to the author’s knowledge its behavior as a multihull had not yet been experimentally described. The connection frames between the hulls were built so they allowed adjusting the hull spacing. Furthermore, multihulls are usually high--‐speed vessels, acquiring significant dynamic sinkage and trim. To quantify the effect of these dynamic variations of the interference resistance, a clamping system was developed to fixed the model and compare the results with the free model condition. Thus, experimental results have been obtained for various hull separations with the two geometries analyzed, including a single hull, and with free and fixed model. One of the main applications of experimental results is to serve as a reference to validate prediction models. As a first step, the obtained experimental data with the catamaran S60 have been compared with the numerical predictions of Yeung et al. (2004). The numerical analysis of the interference resistance is completed with the inclusion of numerical simulations using two codes substantially different: Tdynlin and CD--‐Adapco Star--‐CCM+. The wave cuts obtained from the simulations are compared with the experimental ones, showing also the pressure and velocity fields over the hulls. The main contribution of this thesis is an extensive experimental characterization of the interference phenomena, aiming to serve as reference for future studies about multihulls. The analysis of the results provides insights into the impact that the interaction between hulls, as well as the dynamic variations of the sailing conditions, have in the different components of the ship resistance. Moreover, it allows us to observe the dependence of the interference resistance on the velocity and hull spacing, useful towards its use as a design parameter.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Esta investigación analiza la solución constructiva y dimensional de las fachadas del primer tramo de la Gran Vía madrileña y señala, entre otros aspectos, la aportación que supuso en el Sector de la Construcción español, la incorporación de perfilería metálica a la fábrica en los edificios del primer tramo de la calle, constituyendo el punto de partida del construir moderno del Madrid de principios del Siglo XX. Se han analizado sistemas y modulaciones que sintetizan, en un catálogo de fichas el modo constructivo de los primeros lustros del SXX. La metodología se ha centrado en el diseño de las fichas que describo a continuación: • Ficha de Histórica de datos generales (hitos históricos), esta ficha resume la historia de la construcción del edificio, indicando usos tanto originales como actuales, propiedad, fecha de construcción, e intervenciones constatadas. Especial significado para el desarrollo del trabajo tiene la definición de usos tanto originales como actuales. El uso del edificio se ha interpretado como la función. • Ficha dimensional, muestra medidas tanto en el eje X como en el Y, o en Z, en concreto intereje de huecos, medidas de entrepaños, ancho de huecos; medidas de suelo a suelo, medida del hueco más dintel; medidas de vuelos de balcones y/o miradores, y otros parámetros como porcentaje de huecos en fachada, frecuencia de aparición de los distintos huecos, su proporción alto ancho; parámetros que definen dimensionalmente los elementos que constituyen la fachada del edificio. Esta Ficha se acompaña del alzado de cada edificio acotado y de una fotografía actual. • Ficha de elementos y sistemas constructivos, en función del soporte (composición) y/o del material de acabado recogen datos obtenidos de la documentación gráfica y memorias existente en el archivo histórico y/o de documentación gráfica realizada por arquitectos que han intervenido en estos edificios. Tanto el contacto establecido con los arquitectos intervinientes, propietarios y empresas constructoras, como la localización de manuales de construcción fechados entre 1870 y 1925, han ayudado a definir a través de este catálogo de Fichas, los tipos (sistemas) constructivos y las modulaciones empleadas, una métrica que define con matemáticas la geometría del diseño, expresando además toda la carga de magia, encantamiento y siempre de modelo y orden que permanece en las fachadas de estos edificios. El desarrollo de estas técnicas denominadas en 1915 modernas han supuesto un cambio importante en el diseño, pues éste es un hecho diferencial en esta arquitectura con estructura metálica con respecto a los sistemas constructivos anteriores, permitiendo reducir el espesor del muro, y conseguir luces superiores tanto en huecos como en los vuelos de elementos salientes (balcones y miradores ) y consiguiendo un diseño acorde con la importancia del edificio. Una vez analizado el uso del edificio, sus dimensiones y los sistemas empleados, (siempre referidos al estudio de fachadas), se ha podido comprobar la relación entre Dimensión, Sistema y Función y los casos concretos en que esto sucede. La inspección visual y seguimiento de la calle han constatado la frecuencia de las labores de mantenimiento, reparación, o restauración en las fachadas de estos edificios. Estos conocimientos serán importantes de cara a intervenciones posteriores en el tiempo, quizá en los próximos 100 años. ABSTRACT Innovative techniques used in Spanish construction (for houses and buildings) emerged at the beginning of the 20th century. Reinforced steel profiles instead of traditional masonry was one of the most important innovations that was introduced. In order to make the most of the space available, masonry had to be as light as possible. This paper will examine the façades of these first buildings in “Gran Vía” Street and aims to show how they were constructed. Field work was carried out in order to analyze both the history of how the buildings were constructed and the construction and dimensional systems of the façade elements. Comprehending these building techniques and characteristics is the purpose of this Investigation. Some data sheets (cards) have been designed for finding out about historical information, uses, modulations and construction systems, in order to determine the relation between the Function, Dimension and System in these buildings. • The historical card shows date of construction, uses, propertys not only the original ones but nowadays, interventions special interest keeps the use or finality of the building. • The dimensional card shows measurements not only of axis X but also Y and Z, specifically the centre distance of openings, measurements of stretches of walls, the width of openings; floor to floor measurements, measurement of windows plus lintels; balcony overhangs and / or bay windows, and other parameters such as the percentage of façade openings, the frequency of the appearance of different openings, their proportion regarding height and width; parameters that dimensionally define the elements that make the façade of the building. This Card accompanies of the elevation of every measured building plus a current photograph. • Card of elements and building systems, depending on the support (composition) and / or the finish material that compiles information obtained from the existing graphic documentation and reports from historic files and / or graphic documentation drawn up by architects who have intervened in these buildings. The visual inspection and follow-up of the street confirm the frequency of maintenance work, repairs, or restoration of the façades of these buildings. Comprehension of these techniques and characteristics will enable future intervention, maybe in the next century.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Una Red de Procesadores Evolutivos o NEP (por sus siglas en ingles), es un modelo computacional inspirado por el modelo evolutivo de las celulas, específicamente por las reglas de multiplicación de las mismas. Esta inspiración hace que el modelo sea una abstracción sintactica de la manipulation de information de las celulas. En particu¬lar, una NEP define una maquina de cómputo teorica capaz de resolver problemas NP completos de manera eficiente en tóerminos de tiempo. En la praóctica, se espera que las NEP simuladas en móaquinas computacionales convencionales puedan resolver prob¬lemas reales complejos (que requieran ser altamente escalables) a cambio de una alta complejidad espacial. En el modelo NEP, las cóelulas estóan representadas por palabras que codifican sus secuencias de ADN. Informalmente, en cualquier momento de cómputo del sistema, su estado evolutivo se describe como un coleccion de palabras, donde cada una de ellas representa una celula. Estos momentos fijos de evolucion se denominan configuraciones. De manera similar al modelo biologico, las palabras (celulas) mutan y se dividen en base a bio-operaciones sencillas, pero solo aquellas palabras aptas (como ocurre de forma parecida en proceso de selection natural) seran conservadas para la siguiente configuracióon. Una NEP como herramienta de computation, define una arquitectura paralela y distribuida de procesamiento simbolico, en otras palabras, una red de procesadores de lenguajes. Desde el momento en que el modelo fue propuesto a la comunidad científica en el año 2001, múltiples variantes se han desarrollado y sus propiedades respecto a la completitud computacional, eficiencia y universalidad han sido ampliamente estudiadas y demostradas. En la actualidad, por tanto, podemos considerar que el modelo teórico NEP se encuentra en el estadio de la madurez. La motivación principal de este Proyecto de Fin de Grado, es proponer una aproxi-mación práctica que permita dar un salto del modelo teórico NEP a una implantación real que permita su ejecucion en plataformas computacionales de alto rendimiento, con el fin de solucionar problemas complejos que demanda la sociedad actual. Hasta el momento, las herramientas desarrolladas para la simulation del modelo NEP, si bien correctas y con resultados satisfactorios, normalmente estón atadas a su entorno de ejecucion, ya sea el uso de hardware específico o implementaciones particulares de un problema. En este contexto, el propósito fundamental de este trabajo es el desarrollo de Nepfix, una herramienta generica y extensible para la ejecucion de cualquier algo¬ritmo de un modelo NEP (o alguna de sus variantes), ya sea de forma local, como una aplicación tradicional, o distribuida utilizando los servicios de la nube. Nepfix es una aplicacion software desarrollada durante 7 meses y que actualmente se encuentra en su segunda iteration, una vez abandonada la fase de prototipo. Nepfix ha sido disenada como una aplicacion modular escrita en Java 8 y autocontenida, es decir, no requiere de un entorno de ejecucion específico (cualquier maquina virtual de Java es un contenedor vólido). Nepfix contiene dos componentes o móodulos. El primer móodulo corresponde a la ejecución de una NEP y es por lo tanto, el simulador. Para su desarrollo, se ha tenido en cuenta el estado actual del modelo, es decir, las definiciones de los procesadores y filtros mas comunes que conforman la familia del modelo NEP. Adicionalmente, este componente ofrece flexibilidad en la ejecucion, pudiendo ampliar las capacidades del simulador sin modificar Nepfix, usando para ello un lenguaje de scripting. Dentro del desarrollo de este componente, tambióen se ha definido un estóandar de representacióon del modelo NEP basado en el formato JSON y se propone una forma de representation y codificación de las palabras, necesaria para la comunicación entre servidores. Adicional-mente, una característica importante de este componente, es que se puede considerar una aplicacion aislada y por tanto, la estrategia de distribution y ejecución son total-mente independientes. El segundo moódulo, corresponde a la distribucióon de Nepfix en la nube. Este de-sarrollo es el resultado de un proceso de i+D, que tiene una componente científica considerable. Vale la pena resaltar el desarrollo de este modulo no solo por los resul-tados prócticos esperados, sino por el proceso de investigation que se se debe abordar con esta nueva perspectiva para la ejecución de sistemas de computación natural. La principal característica de las aplicaciones que se ejecutan en la nube es que son gestionadas por la plataforma y normalmente se encapsulan en un contenedor. En el caso de Nepfix, este contenedor es una aplicacion Spring que utiliza el protocolo HTTP o AMQP para comunicarse con el resto de instancias. Como valor añadido, Nepfix aborda dos perspectivas de implementation distintas (que han sido desarrolladas en dos iteraciones diferentes) del modelo de distribution y ejecucion, que tienen un impacto muy significativo en las capacidades y restricciones del simulador. En concreto, la primera iteration utiliza un modelo de ejecucion asincrono. En esta perspectiva asincrona, los componentes de la red NEP (procesadores y filtros) son considerados como elementos reactivos a la necesidad de procesar una palabra. Esta implementation es una optimization de una topologia comun en el modelo NEP que permite utilizar herramientas de la nube para lograr un escalado transparente (en lo ref¬erente al balance de carga entre procesadores) pero produce efectos no deseados como indeterminacion en el orden de los resultados o imposibilidad de distribuir eficiente-mente redes fuertemente interconectadas. Por otro lado, la segunda iteration corresponde al modelo de ejecucion sincrono. Los elementos de una red NEP siguen un ciclo inicio-computo-sincronizacion hasta que el problema se ha resuelto. Esta perspectiva sincrona representa fielmente al modelo teórico NEP pero el proceso de sincronizacion es costoso y requiere de infraestructura adicional. En concreto, se requiere un servidor de colas de mensajes RabbitMQ. Sin embargo, en esta perspectiva los beneficios para problemas suficientemente grandes superan a los inconvenientes, ya que la distribuciín es inmediata (no hay restricciones), aunque el proceso de escalado no es trivial. En definitiva, el concepto de Nepfix como marco computacional se puede considerar satisfactorio: la tecnología es viable y los primeros resultados confirman que las carac-terísticas que se buscaban originalmente se han conseguido. Muchos frentes quedan abiertos para futuras investigaciones. En este documento se proponen algunas aproxi-maciones a la solucion de los problemas identificados como la recuperacion de errores y la division dinamica de una NEP en diferentes subdominios. Por otra parte, otros prob-lemas, lejos del alcance de este proyecto, quedan abiertos a un futuro desarrollo como por ejemplo, la estandarización de la representación de las palabras y optimizaciones en la ejecucion del modelo síncrono. Finalmente, algunos resultados preliminares de este Proyecto de Fin de Grado han sido presentados recientemente en formato de artículo científico en la "International Work-Conference on Artificial Neural Networks (IWANN)-2015" y publicados en "Ad-vances in Computational Intelligence" volumen 9094 de "Lecture Notes in Computer Science" de Springer International Publishing. Lo anterior, es una confirmation de que este trabajo mas que un Proyecto de Fin de Grado, es solo el inicio de un trabajo que puede tener mayor repercusion en la comunidad científica. Abstract Network of Evolutionary Processors -NEP is a computational model inspired by the evolution of cell populations, which might model some properties of evolving cell communities at the syntactical level. NEP defines theoretical computing devices able to solve NP complete problems in an efficient manner. In this model, cells are represented by words which encode their DNA sequences. Informally, at any moment of time, the evolutionary system is described by a collection of words, where each word represents one cell. Cells belong to species and their community evolves according to mutations and division which are defined by operations on words. Only those cells are accepted as surviving (correct) ones which are represented by a word in a given set of words, called the genotype space of the species. This feature is analogous with the natural process of evolution. Formally, NEP is based on an architecture for parallel and distributed processing, in other words, a network of language processors. Since the date when NEP was pro¬posed, several extensions and variants have appeared engendering a new set of models named Networks of Bio-inspired Processors (NBP). During this time, several works have proved the computational power of NBP. Specifically, their efficiency, universality, and computational completeness have been thoroughly investigated. Therefore, we can say that the NEP model has reached its maturity. The main motivation for this End of Grade project (EOG project in short) is to propose a practical approximation that allows to close the gap between theoretical NEP model and a practical implementation in high performing computational platforms in order to solve some of high the high complexity problems society requires today. Up until now tools developed to simulate NEPs, while correct and successful, are usu¬ally tightly coupled to the execution environment, using specific software frameworks (Hadoop) or direct hardware usage (GPUs). Within this context the main purpose of this work is the development of Nepfix, a generic and extensible tool that aims to execute algorithms based on NEP model and compatible variants in a local way, similar to a traditional application or in a distributed cloud environment. Nepfix as an application was developed during a 7 month cycle and is undergoing its second iteration once the prototype period was abandoned. Nepfix is designed as a modular self-contained application written in Java 8, that is, no additional external dependencies are required and it does not rely on an specific execution environment, any JVM is a valid container. Nepfix is made of two components or modules. The first module corresponds to the NEP execution and therefore simulation. During the development the current state of the theoretical model was used as a reference including most common filters and processors. Additionally extensibility is provided by the use of Python as a scripting language to run custom logic. Along with the simulation a definition language for NEP has been defined based on JSON as well as a mechanisms to represent words and their possible manipulations. NEP simulator is isolated from distribution and as mentioned before different applications that include it as a dependency are possible, the distribution of NEPs is an example of this. The second module corresponds to executing Nepfix in the cloud. The development carried a heavy R&D process since this front was not explored by other research groups until now. It's important to point out that the development of this module is not focused on results at this point in time, instead we focus on feasibility and discovery of this new perspective to execute natural computing systems and NEPs specifically. The main properties of cloud applications is that they are managed by the platform and are encapsulated in a container. For Nepfix a Spring application becomes the container and the HTTP or AMQP protocols are used for communication with the rest of the instances. Different execution perspectives were studied, namely asynchronous and synchronous models were developed for solving different kind of problems using NEPs. Different limitations and restrictions manifest in both models and are explored in detail in the respective chapters. In conclusion we can consider that Nepfix as a computational framework is suc-cessful: Cloud technology is ready for the challenge and the first results reassure that the properties Nepfix project pursued were met. Many investigation branches are left open for future investigations. In this EOG implementation guidelines are proposed for some of them like error recovery or dynamic NEP splitting. On the other hand other interesting problems that were not in the scope of this project were identified during development like word representation standardization or NEP model optimizations. As a confirmation that the results of this work can be useful to the scientific com-munity a preliminary version of this project was published in The International Work- Conference on Artificial Neural Networks (IWANN) in May 2015. Development has not stopped since that point and while Nepfix in it's current state can not be consid¬ered a final product the most relevant ideas, possible problems and solutions that were produced during the seven months development cycle are worthy to be gathered and presented giving a meaning to this EOG work.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En este trabajo se aborda una cuestión central en el diseño en carga última de estructuras de hormigón armado y de fábrica: la posibilidad efectiva de que las deformaciones plásticas necesarias para verificar un estado de rotura puedan ser alcanzadas por las regiones de la estructura que deban desarrollar su capacidad última para verificar tal estado. Así, se parte de las decisiones de diseño que mediante mera estática aseguran un equilibrio de la estructura para las cargas últimas que deba resistir, pero determinando directamente el valor de las deformaciones necesarias para llegar a tal estado. Por tanto, no se acude a los teoremas de rotura sin más, sino que se formula el problema desde un punto de vista elastoplástico. Es decir, no se obvia el recorrido que la estructura deba realizar en un proceso de carga incremental monótono, de modo que las regiones no plastificadas contribuyen a coaccionar las libres deformaciones plásticas que, en la teoría de rotura, se suponen. En términos de trabajo y energía, se introduce en el balance del trabajo de las fuerzas externas y en el de la energía de deformación, aquella parte del sistema que no ha plastificado. Establecido así el balance energético como potencial del sistema es cuando la condición de estacionariedad del mismo hace determinados los campos de desplazamientos y, por tanto, el de las deformaciones plásticas también. En definitiva, se trata de un modo de verificar si la ductilidad de los diseños previstos es suficiente, y en qué medida, para verificar el estado de rotura previsto, para unas determinadas cargas impuestas. Dentro del desarrollo teórico del problema, se encuentran ciertas precisiones importantes. Entre ellas, la verificación de que el estado de rotura a que se llega de manera determinada mediante el balance energético elasto-plástico satisface las condiciones de la solución de rotura que los teoremas de carga última predicen, asegurando, por tanto, que la solución determinada -unicidad del problema elásticocoincide con el teorema de unicidad de la carga de rotura, acotando además cuál es el sistema de equilibrio y cuál es la deformada de colapso, aspectos que los teoremas de rotura no pueden asegurar, sino sólo el valor de la carga última a verificar. Otra precisión se basa en la particularidad de los casos en que el sistema presenta una superficie de rotura plana, haciendo infinitas las posibilidades de equilibrio para una misma deformada de colapso determinada, lo que está en la base de, aparentemente, poder plastificar a antojo en vigas y arcos. Desde el planteamiento anterior, se encuentra entonces que existe una condición inherente a cualquier sistema, definidas unas leyes constitutivas internas, que permite al mismo llegar al inicio del estado de rotura sin demandar deformación plástica alguna, produciéndose la plastificación simultánea de todas las regiones que hayan llegado a su solicitación de rotura. En cierto modo, se daría un colapso de apariencia frágil. En tal caso, el sistema conserva plenamente hasta el final su capacidad dúctil y tal estado actúa como representante canónico de cualquier otra solución de equilibrio que con idéntico criterio de diseño interno se prevea para tal estructura. En la medida que el diseño se acerque o aleje de la solución canónica, la demanda de ductilidad del sistema para verificar la carga última será menor o mayor. Las soluciones que se aparten en exceso de la solución canónica, no verificarán el estado de rotura previsto por falta de ductilidad: la demanda de deformación plástica de alguna región plastificada estará más allá de la capacidad de la misma, revelándose una carga de rotura por falta de ductilidad menor que la que se preveía por mero equilibrio. Para la determinación de las deformaciones plásticas de las rótulas, se ha tomado un modelo formulado mediante el Método de los Elementos de Contorno, que proporciona un campo continuo de desplazamientos -y, por ende, de deformaciones y de tensiones- incluso en presencia de fisuras en el contorno. Importante cuestión es que se formula la diferencia, nada desdeñable, de la capacidad de rotación plástica de las secciones de hormigón armado en presencia de cortante y en su ausencia. Para las rótulas de fábrica, la diferencia se establece para las condiciones de la excentricidad -asociadas al valor relativo de la compresión-, donde las diferencias entres las regiones plastificadas con esfuerzo normal relativo alto o bajo son reseñables. Por otro lado, si bien de manera un tanto secundaria, las condiciones de servicio también imponen un límite al diseño previo en carga última deseado. La plastificación lleva asociadas deformaciones considerables, sean locales como globales. Tal cosa impone que, en estado de servicio, si la plastificación de alguna región lleva asociadas fisuraciones excesivas para el ambiente del entorno, la solución sea inviable por ello. Asimismo, las deformaciones de las estructuras suponen un límite severo a las posibilidades de su diseño. Especialmente en edificación, las deformaciones activas son un factor crítico a la hora de decidirse por una u otra solución. Por tanto, al límite que se impone por razón de ductilidad, se debe añadir el que se imponga por razón de las condiciones de servicio. Del modo anterior, considerando las condiciones de ductilidad y de servicio en cada caso, se puede tasar cada decisión de diseño con la previsión de cuáles serán las consecuencias en su estado de carga última y de servicio. Es decir, conocidos los límites, podemos acotar cuáles son los diseños a priori que podrán satisfacer seguro las condiciones de ductilidad y de servicio previstas, y en qué medida. Y, en caso de no poderse satisfacer, qué correcciones debieran realizarse sobre el diseño previo para poderlas cumplir. Por último, de las consecuencias que se extraen de lo estudiado, se proponen ciertas líneas de estudio y de experimentación para poder llegar a completar o expandir de manera práctica los resultados obtenidos. ABSTRACT This work deals with a main issue for the ultimate load design in reinforced concrete and masonry structures: the actual possibility that needed yield strains to reach a ultimate state could be reached by yielded regions on the structure that should develop their ultimate capacity to fulfill such a state. Thus, some statically determined design decisions are posed as a start for prescribed ultimate loads to be counteracted, but finding out the determined value of the strains needed to reach the ultimate load state. Therefore, ultimate load theorems are not taken as they are, but a full elasto-plastic formulation point of view is used. As a result, the path the structure must develop in a monotonus increasing loading procedure is not neglected, leading to the fact that non yielded regions will restrict the supposed totally free yield strains under a pure ultimate load theory. In work and energy terms, in the overall account of external forces work and internal strain energy, those domains in the body not reaching their ultimate state are considered. Once thus established the energy balance of the system as its potential, by imposing on it the stationary condition, both displacements and yield strains appear as determined values. Consequently, what proposed is a means for verifying whether the ductility of prescribed designs is enough and the extent to which they are so, for known imposed loads. On the way for the theoretical development of the proposal, some important aspects have been found. Among these, the verification that the conditions for the ultimate state reached under the elastoplastic energy balance fulfills the conditions prescribed for the ultimate load state predicted through the ultimate load theorems, assuring, therefore, that the determinate solution -unicity of the elastic problemcoincides with the unicity ultimate load theorem, determining as well which equilibrium system and which collapse shape are linked to it, being these two last aspects unaffordable by the ultimate load theorems, that make sure only which is the value of the ultimate load leading to collapse. Another aspect is based on the particular case in which the yield surface of the system is flat -i.e. expressed under a linear expression-, turning out infinite the equilibrium possibilities for one determined collapse shape, which is the basis of, apparently, deciding at own free will the yield distribution in beams and arches. From the foresaid approach, is then found that there is an inherent condition in any system, once defined internal constitutive laws, which allows it arrive at the beginning of the ultimate state or collapse without any yield strain demand, reaching the collapse simultaneously for all regions that have come to their ultimate strength. In a certain way, it would appear to be a fragile collapse. In such a case case, the system fully keeps until the end its ductility, and such a state acts as a canonical representative of any other statically determined solution having the same internal design criteria that could be posed for the that same structure. The extent to which a design is closer to or farther from the canonical solution, the ductility demand of the system to verify the ultimate load will be higher or lower. The solutions being far in excess from the canonical solution, will not verify the ultimate state due to lack of ductility: the demand for yield strains of any yielded region will be beyond its capacity, and a shortcoming ultimate load by lack of ductility will appear, lower than the expected by mere equilibrium. For determining the yield strains of plastic hinges, a Boundary Element Method based model has been used, leading to a continuous displacement field -therefore, for strains and stresses as well- even if cracks on the boundary are present. An important aspect is that a remarkable difference is found in the rotation capacity between plastic hinges in reinforced concrete with or without shear. For masonry hinges, such difference appears when dealing with the eccentricity of axial forces -related to their relative value of compression- on the section, where differences between yield regions under high or low relative compressions are remarkable. On the other hand, although in a certain secondary manner, serviceability conditions impose limits to the previous ultimate load stated wanted too. Yield means always big strains and deformations, locally and globally. Such a thing imposes, for serviceability states, that if a yielded region is associated with too large cracking for the environmental conditions, the predicted design will be unsuitable due to this. Furthermore, displacements must be restricted under certain severe limits that restrain the possibilities for a free design. Especially in building structures, active displacements are a critical factor when chosing one or another solution. Then, to the limits due to ductility reasons, other limits dealing with serviceability conditions shoud be added. In the foresaid way, both considering ductility and serviceability conditions in every case, the results for ultimate load and serviceability to which every design decision will lead can be bounded. This means that, once the limits are known, it is possible to bound which a priori designs will fulfill for sure the prescribed ductility and serviceability conditions, and the extent to wich they will be fulfilled, And, in case they were not, which corrections must be performed in the previous design so that it will. Finally, from the consequences derived through what studied, several study and experimental fields are proposed, in order to achieve a completeness and practical expansion of the obtained results.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La aparición del tren de alta velocidad en Europa en las últimas décadas del siglo XX supuso el resurgir de un medio de transporte en progresivo declive desde la popularización del automóvil y del avión. La decadencia del ferrocarril había supuesto en muchos casos el abandono, o incluso la demolición, de estaciones históricas y el deterioro de su entorno urbano. Como reacción a esa desatención surgió, también en el último cuarto de siglo, una mayor conciencia social preocupada por la conservación del patrimonio construido del ferrocarril. La necesidad de adaptación de las grandes estaciones de ferrocarril para dar servicio al nuevo sistema de transporte, junto con el interés por poner en valor sus construcciones históricas y su céntrico entorno, ha dado como resultado la realización de importantes transformaciones. El objeto de la presente investigación es el estudio de las transformaciones que han sufrido las grandes estaciones europeas del siglo XIX con la llegada del tren de alta velocidad, profundizando de manera especial en el caso más significativo que tenemos en nuestro país: la estación de Atocha. En el ámbito europeo es donde se localizan los ejemplos más relevantes de estaciones que tuvieron gran trascendencia en el siglo XIX y que ahora, con la llegada de la Alta Velocidad, vuelven a recuperar su grandeza. En España, el crecimiento de la Alta Velocidad en los últimos años ha sido extraordinario, hasta situarse como el segundo país del mundo con más kilómetros de líneas de alta velocidad en operación y, en consecuencia, se ha construido un gran número de estaciones adaptadas a este servicio. El caso más notable es el de la estación de Atocha, que desde la llegada del AVE en 1992 hasta el día de hoy, se ha convertido en uno de los complejos ferroviarios más importantes del mundo. El trabajo parte del estudio de otros referentes europeos, como las Gares de París, la estación de St Pancras en Londres y de otras cinco estaciones del centro de Europa –Amsterdam Centraal, Antwerpen Centraal, Köln Hauptbahnhof, Frankfurt (Main) Hauptbahnhof y la Gare de Strasbourg–, para establecer el marco analítico sobre el que se profundiza con la estación de Atocha. El proceso de transformación de la estación de Atocha se ha gestado a través de una serie de proyectos que han ido configurando la estación hasta el momento actual y planteando la previsión de futuro: el proyecto del Plan General de Madrid, el concurso de ideas para el diseño de la estación, la estación de Cercanías, la estación de Alta Velocidad y Largo Recorrido, la ampliación de esta para separar los flujos por niveles, los Estudios Informativos del Nuevo Complejo Ferroviario de la Estación de Atocha y su primera fase de construcción. Estos siete proyectos son objeto de un análisis en tres niveles: análisis cronológico, análisis funcional y análisis formal. La estación de Atocha fue la primera estación histórica europea en sufrir una gran transformación vinculada a la llegada de la Alta Velocidad. Aporta el entendimiento de la estación como un todo y la intermodalidad como sus principales valores, además de la gran mejora urbana que supuso la «operación Atocha», y adolece de ciertas carencias en su desarrollo comercial, vinculadas en parte a la presencia del jardín tropical, y de un pobre espacio en las salas de embarque para los pasajeros de salidas. La estación de Atocha completa su transformación a partir de su renovación funcional, manteniendo la carga simbólica de su historia. De la confrontación del caso de Atocha con otras importantes estaciones europeas resulta la definición de las principales consecuencias de la llegada de la Alta Velocidad a las grandes terminales europeas y la identificación de los elementos clave en su transformación. Las consecuencias principales son: la potenciación de la intermodalidad con otros medios de transporte, el desarrollo comercial no necesariamente destinado a los usuarios de los servicios ferroviarios, y la puesta en valor de la antigua estación y de su entorno urbano. Por su parte, los elementos clave en la transformación de las grandes estaciones tienen que ver directamente con la separación de flujos, el entendimiento de la estación por niveles, la dotación de nuevos accesos laterales y la construcción de una nueva gran cubierta para los nuevos andenes. La preeminencia de unos elementos sobre otros depende del carácter propio de cada estación y de cada país, de la magnitud de la intervención y, también, de la estructura y composición de los equipos encargados del diseño de la nueva estación. En la actualidad, nos encontramos en un momento interesante respecto a las estaciones de Alta Velocidad. Tras el reciente atentado frustrado en el Thalys que viajaba de Ámsterdam a París, se ha acordado establecer controles de identidad y equipajes en todas las estaciones de la red europea de alta velocidad, lo que implicará modificaciones importantes en las grandes estaciones que, probablemente, tomarán el modelo de la estación de Atocha como referencia. ABSTRACT The emergence of the high speed train in Europe in the last few decades of the 20th century represented the resurgence of a means of transport in progressive decline since the popularization of the car and the airplane. The railway decay brought in many cases the abandonment, or even the demolition, of historical stations and the deterioration of its urban environment. In response to that neglect, a greater social awareness towards the preservation of the railway built heritage raised up, also in the last quarter-century. The need for adaptation of the great railway stations to serve the new transport system, along with the interest in enhancing the historical buildings and its central locations, had resulted in important transformations. The subject of current investigation is the study of the transformations that the great 19th century European stations have experienced with the arrival of the high speed rail, deepening in particular in the most significant case we have in Spain: Atocha railway station. At European level is where the most relevant examples of stations which have had a great significance in the 19th century and now, with the arrival of the high speed train, have regain their greatness, are located. In Spain, the growth of the high speed rail over the past few years has been outstanding. Today is the second country in the world with the longest high speed rail network in operation and, therefore, with a great number of new stations adapted to this service. The most remarkable case is Atocha station. Since the arrival of the AVE in 1992, the station has become one of the world's most important railway hub. The research starts with the study of other European reference points, as the Gares of Paris, St Pancras station in London and five other stations of Central Europe –Amsterdam Centraal, Antwerpen Centraal, Köln Hauptbahnhof, Frankfurt (Main) Hauptbahnhof y la Gare de Strasbourg–, to establish the analytical framework that will be deepen with Atocha station. The transformation process of Atocha station has been created through a number of projects that have forged the station to date and have raised the sights in the future: the project of the General Urban Development Plan, the ideas competition for the station design, the Suburban train station, the High Speed and Long Distance station, its enlargement in order to separate passenger flows in different levels, the 'Masterplans' for the new Atocha transport hub and its first phase of construction. These seven projects are under scrutiny at three levels: chronological analysis, functional analysis and formal analysis. Atocha station was the first European historical station to undergo a great transformation tied to the arrival of the high speed rail. It brings the understanding of the station as a whole and the intermodality as its greatest values, besides the great urban improvement of the 'Atocha operation', and suffers from certain shortcomings in its commercial development, partly linked to the presence of the tropical garden, and from a poor space in the departure lounges. Atocha station completes its transformation on the basis of its functional renewal, keeping the symbolic charge of its history. The confrontation of Atocha case with the great European stations results in the definition of the principal consequences of the high speed rail arrival to the great European terminals and the identification of the key elements in its transformation. The principal consequences are: the empowering of the intermodality with other means of transport, of the commercial development, not necessarily intended for railway services users, and the enhancement of the old station and its urban environment. On the other hand, the key elements in the transformation of the great stations are directly related with the separation of passenger flows, the understanding of the station in different levels, the placement of new lateral accesses and the construction of a new deck over the new platforms. The pre-eminence of some elements over the others depends on the particular nature of each station and each country, on the scale of the intervention and also in the structure and composition of the teams in charge of the new station design. Nowadays, this is an interesting time concerning the high speed rail stations. After the recent foiled terrorist attempt in the Thalys train travelling from Amsterdam to Paris, it was agreed to establish passenger and luggage controls in every European high speed rail station. This will mean important changes in these great stations, which probably will take Atocha station's model as a reference.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La Mezquita-Catedral de Córdoba es un edificio vivo. Un edificio que ha sido transformado sucesivamente por hombres de razas, culturas y religiones distintas durante sus más de 1.200 años de vida y que, a pesar de ello, no ha dejado de estar en uso ni uno solo de esos días de esa larga vida. De esta forma, el edificio se muestra ante el visitante como un complejo objeto arquitectónico, resultado de una continua transformación. La capacidad de la transformación de los edificios es algo inherente a su propia condición arquitectónica, no es un hecho exclusivo de la Mezquita-Catedral. Sin embargo, en este edificio esa transformación se produce con una gran intensidad y sin pérdida de su autenticidad. Tradicionalmente, los edificios se han adaptado a los nuevos requerimientos de cada época en un proceso que ha buscado en el propio edificio las leyes o principios que habían de regir la intervención. De esta forma, tanto las sucesivas ampliaciones de la Mezquita de Abd al-Rahman I como las siguientes intervenciones cristianas debieron asumir lo preexistente como material de trabajo. Así, los arquitectos del califa al-Hakam II dialogaron con sus antecesores complejizando el espacio que recibieron, así como los Hernán Ruiz consiguieron un nuevo organismo resultante de la introducción de su arquitectura luminosa en la trama hispanomusulmana. El siglo XIX confirmó el deseo por descubrir las huellas de un pasado esplendoroso que la intervención barroca había silenciado bajo un tratamiento homogéneo del espacio. La recuperación de esas huellas supuso, hace exactamente dos siglos, el inicio de la última gran etapa en la transformación del edificio, la de la restauración. La fábrica es considerada como objeto a conservar y los esfuerzos desde ese momento se centraron en la recuperación de la arquitectura omeya latente. De este modo, la práctica de la restauración como disciplina se encontró absolutamente influenciada por la Arqueología como única fuente de conocimiento. Las intervenciones buscaban lo original como modo de recuperar espacial y formalmente aquel pasado, concentrándose en los lugares del edificio considerados como esenciales. La declaración del edificio como monumento nacional en 1882 propició que el Estado se hiciera cargo de su mantenimiento y conservación, sustituyendo en esa tarea a los Obispos y Cabildos del siglo XIX, que tuvieron un entendimiento muy avanzado para su época. La llegada del arquitecto Velázquez Bosco en las últimas décadas del siglo XIX supuso un cambio trascendental en la historia del edificio, puesto que recibió un edificio con importantes deterioros y consiguió poner las bases del edificio que hoy contemplamos. El empeño por la recuperación material y espacial devolvió a la Mezquita-Catedral buena parte de su imagen original, reproduciendo con exactitud los modelos hallados en las exploraciones arqueológicas. La llegada de Antonio Flórez tras la muerte de Velázquez Bosco supuso la traslación al edificio del debate disciplinar que se desarrolló en las dos primeras décadas del siglo XX. Flórez procuró un nuevo entendimiento de la intervención, considerando la conservación como actuación prioritaria. En 1926 el Estado reformó la manera en que se atendía al patrimonio con la creación de un sistema de zonas y unos arquitectos a cargo de ellas. La existencia de un nuevo marco legislativo apuntaló esa nueva visión conservativa, avalada por la Carta de Atenas de 1931. Este modelo restauración científica huía de la intervención en estilo y valoraba la necesidad de intervenir de la manera más escueta posible y con un lenguaje diferenciado, basándose en los datos que ofrecía la Arqueología. Por tanto, se continuaba con la valoración del edificio como documento histórico, buscando en este caso una imagen diferenciada de la intervención frente a la actitud mimética de Velázquez. Resulta destacable la manera en la que el historiador Manuel Gómez-Moreno influyó en varias generaciones de arquitectos, arqueólogos e historiadores, tanto en el entendimiento científico de la restauración como en la propia estructura administrativa. La labor desarrollada en el edificio por José Mª Rodríguez Cano primero y Félix Hernández a continuación estuvo influida de manera teórica por el método de Gómez-Moreno, aunque en muchos aspectos su labor no representó una gran diferencia con lo hecho por Velázquez Bosco. La búsqueda de lo original volvió a ser recurrente, pero la carga económica del mantenimiento de un edificio tan extenso conllevó la no realización de muchos de los proyectos más ambiciosos. Esta obsesiva búsqueda de la imagen original del edificio tuvo su última y anacrónica etapa con la intervención de la Dirección General de Arquitectura en los 70. Sin embargo, el agotamiento del modelo científico ya había propiciado un nuevo escenario a nivel europeo, que cristalizó en la Carta de Venecia de 1964 y en una nueva definición del objeto a preservar, más allá del valor como documento histórico. Esta nueva posición teórica tuvo su traslación al modelo restaurador español en el último cuarto de siglo XX, coincidiendo con la Transición. El arquitecto Dionisio Hernández Gil defendió una interpretación distinta a la de los arqueólogos y de los historiadores, que había prevalecido durante todo el siglo. En opinión de Hernández Gil, los problemas de intervención debían enfocarse fundamentalmente como problemas de Arquitectura, abandonando la idea de que solamente podían ser resueltos por especialistas. Esta convicción teórica fue defendida desde la nueva Administración y deparó la utilización de unos criterios de intervención particularizados, provenientes del análisis multifocal de cada situación y no sólo desde el valor de los edificios como documentos históricos. Y este cambio tuvo su traslación a la Mezquita-Catedral con la práctica de Gabriel Ruiz Cabrero y Gabriel Rebollo. En consecuencia con esa nueva perspectiva, aceptaron el edificio que recibieron, sustituyendo la búsqueda de aquella página original por la aceptación de cada una de las páginas de su historia y el respeto a las técnicas constructivas del pasado. La búsqueda de soluciones específicas desde el propio objeto arquitectónico significó la renovada atención a la potente estructura formal-constructiva como origen de toda reflexión. Considerar la Mezquita-Catedral en primer lugar como Arquitectura implicaba la atención a todo tipo de factores además de los históricos, como medio para preservar su autenticidad. Esta tesis pretende demostrar que la práctica de la restauración realizada en la Mezquita-Catedral a lo largo del siglo XX ha evolucionado desde la búsqueda de lo original hasta la búsqueda de lo auténtico, como reflejo de una visión basada en lo arqueológico frente a una renovada visión arquitectónica más completa, que incluye a la anterior. La consideración de la intervención en este edificio como otra página más de su historia y no como la última, significa la reedición de un mecanismo recurrente en la vida del edificio y un nuevo impulso en ese proceso de continua transformación. ABSTRACT The Mosque-Cathedral of Cordoba is a living building. A building transformed by men of different races, cultures and religions during more than 1.200 years old and that, nevertheless, it has continued to be in use all days in that long life. Thus, the building shows to the visitor as a complex architectural object, the result of continuous transformation. This transformation capacity of the buildings is inherent in their own architectural condition, it’s not an exclusive fact of the Mosque-Cathedral. However, in this building that transformation happens with a great intensity, without losing their authenticity. Traditionally, buildings have been adapted to the new requirements of times in a process that looked for laws or principles in order to guide the intervention. Thus, both the successive enlargements of the Mosque of Abd al-Rahman and Christian interventions must assume the preexistence as a working material. So, the architects of the caliph al-Hakam II spoke to their predecessors, complexing the receiving space, as well as Hernan Ruiz got a new organism as result the introduction of his luminous architecture into hispanic-muslim weft. The nineteenth century confirmed the desire to discover the traces of a glorious past that Baroque intervention had silenced, under a uniform space treatment. Exactly two centuries ago, the recovery of these traces meant the start of the last major phase in the transformation of the building: the restoration. The building was considered subject to conserve and since then, efforts focused on the recovery of latent Umayyad architecture. Thus, the practice of restoration as a discipline was absolutely influenced by Archaeology as the only source of knowledge. Interventions were seeking the original as the way to recover that past in a space and formal way, concentrating on essential sites of the building. The statement as a national monument in 1882 prompted the State take charge of its maintenance and preservation, replacing to the nineteenth century Bishops and Cabildos, which had a very advanced understanding for that time. The arrival of the architect Velazquez Bosco in the last decades of the nineteenth century involved a momentous change in the history of the building, since he received a building with significant damage and he achieved the foundations of the building that we can see today. Efforts to a material and space recover returned the Mosque-Cathedral to its original image, accurately reproducing the models found in archaeological explorations. The arrival of Antonio Florez after Velazquez’s death involved the translation of discipline debate, which was developed in the first two decades of the twentieth century. Florez tried a new understanding of the intervention, considering conservation as a priority action. In 1926, the State reformed the way in which heritage was attended, creating a zones system with a few architects in charge of them. The existence of a new legislative framework, underpinned this new conservative vision, supported by the Athens Charter of 1931. This scientific restoration model fleeing from intervention in style and it appreciated the need to intervene in the most concise way, with a distinct language based on the data offered by Archaeology. Therefore, it continued with the appraisement of the building as a historical document, seeking in this case a differentiated image of intervention, against Velazquez mimetic attitude. It is remarkable the way in which the historian Manuel Gomez-Moreno influenced several generations of architects, archaeologists and historians, both in the scientific understanding of the restoration and the administrative structure. The work of Jose Maria Rodriguez Cano first and then Felix Hernandez was theoretically influenced by the Gomez-Moreno’s method, although in many respects their work did not represent a great difference to Velazquez Bosco. The search of the original returned to recur, but the economic charge of maintaining such a large building led to the non-realization of many of the most ambitious projects. This obsessive search for the original image of the building had its last and anachronistic stage with the intervention of the Department of Architecture at 70’s. However, the exhaustion of the scientific model had already led to a new scenario at European level, which crystallized in the Venice Charter of 1964 and a new definition of the object to be preserved beyond the value as a historical document. This new theoretical position had its translation to Spanish restaurateur model in the last quarter of the twentieth century, coinciding with the Transition. The architect Dionisio Hernandez Gil defended a different interpretation from archaeologists and historians, that had prevailed throughout the century. According to Hernandez Gil, the problems of intervention should focus primarily as architectural issues, abandoning the idea that they could only be determined by specialist. This theoretical conviction was defended from the new administration and led to the use of particularized criteria, from a multifocal analysis of each situation. And this change had its translation to the Mosque with the practice of Gabriel Ruiz Cabrero and Gabriel Rebollo. Consistent with this new perspective, they accepted the receiving building, replacing the search on original page for acceptance of all historical pages and respecting the constructive techniques of the past. The search for specific solutions from the architectural object meant the renewed attention to the powerful formal-constructive structure as the origin of all thought. Consider the Mosque-Cathedral as Architecture, involved the attention to all kinds of factors in addition to the historical, as a means to preserve its authenticity. This thesis aims to demonstrate that the practice of restoration in the Mosque-Cathedral throughout the twentieth century has evolved from the search of the original to the search for the authentic, reflecting a vision based on the archaeological against a renewed more complete architectural vision, including the above. Consideration of intervention in this building as another page in its history and not the last one, means the reissue of an own mechanism and a new impetus in that continuous transformation process.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El objetivo general de esta investigación consiste en sacar a la luz un conjunto de documentos, los documentos de patentes presentadas en España, sobre un tema concreto, la bicicleta y el ciclismo, y durante un periodo determinado, 1826-1929, presentes en la Oficina Española de Patentes y Marcas (OEPM), organizando esta documentación para su posterior utilización por la comunidad científica. Para ello se han identificado y sistematizado las patentes referidas a la bicicleta, presentadas entre 1826 y 1929, realizando tablas de frecuencia que permitan extraer datos de su incidencia en la invención en el periodo considerado. Ello ha permitido conocer una serie de datos de los inventores, que, en definitiva son los creadores del desarrollo tecnológico en este campo, extrayendo, ordenando y categorizando la información sobre lugar de origen, tipo de inventor (empresa o particular), sexo, práctica de colaboración y profesión. Finalmente se ha estudiado el tipo de inventos, mostrando los sectores en los que se producen las invenciones, identificando si se han puesto en práctica, y determinando aspectos tales como su carácter de invención incremental, su posible consideración como invento raro y curioso, y su coexistencia con una marca registrada. El trabajo se inicia con la introducción seguida de un apartado en el que se presenta el marco teórico en el que se desarrolla la investigación, en una doble vía: en primer lugar el contexto de los documentos de patente, su relación con la innovación y su utilidad como fuentes de información, y en segundo lugar el marco de la invención en el ciclismo, presentando las fases esenciales de la evolución de la bicicleta (capítulo 2). En el marco metodológico (capítulo 3) se explican fuentes y metodología, presentando a continuación el diseño de la investigación, que se resume como sigue: 1- Determinación del universo de datos, 2- Consulta en el Archivo Histórico de la OEPM, 3- Diseño y creación de la base de datos propia, 4- Consulta de los expedientes y toma de imágenes, 5- Tratamiento y análisis de los datos, 6- Búsqueda de información en fuentes para patentes extranjeras, y 7- Consulta a la base de datos de Marcas de la OEPM. El capítulo 4 está dedicado a la investigación propiamente dicha, estructurado en tres grandes bloques. El primero recoge las cuantificaciones tabuladas del total de patentes y el análisis de determinados aspectos generales como la cronología de la invención y diversas comparaciones con resultados obtenidos en otros trabajos. El segundo bloque está centrado en los estudios de solicitantes de patentes, protagonistas de las invenciones. De ellos se contemplan una serie de datos extraídos de los expedientes, y posteriormente tabulados y cuantificados: su procedencia geográfica, su adscripción como empresas o solicitantes particulares, y sus datos de colaboración, finalizando el bloque con un apartado que dedicamos a la innovación femenina, que consideramos una línea de investigación interés. El tercer bloque, el más amplio de todos, está dedicado a la descripción y análisis de los datos referidos a los propios inventos, puesto que es la aplicación de los inventos lo que marca el desarrollo tecnológico de la máquina bicicleta, y su consiguiente evolución histórica y social. Se estructura asimismo en varias secciones. La primera es la más amplia, donde se muestran y explican los datos que tienen que ver con la adscripción de los inventos a sectores temáticos, es decir, que desarrolla las funciones o componentes de la bicicleta que han sido objeto de invención. Los apartados siguientes muestran datos y consideraciones sobre las patentes puestas en práctica, las invenciones incrementales, los inventos curiosos, y las patentes con posible marca registrada de su nombre. Finalmente, las conclusiones del estudio, el establecimiento de posibles líneas abiertas de investigación, la relación de fuentes consultadas y los anexos cerrarán la exposición de esta tesis. ABSTRACT The main goal of this research thesis is to shed light on a specific documentary record: patents presented in Spain, regarding a specific theme: bicycles and cycling, within a given period: 1826-1929. This record is organized for the ulterior use by the scientific community. In order to carry out this goal, the mentioned patents have been identified and systematized, and analyzed for frequency in order to infer the incidence of its invention in the period under consideration. This has brought to light some information on the inventors which are, after all, the creators in the technological development of that field. Their bibliographical information: origin, type of inventor (company or individual), gender, collaboration behavior and profession. Finally, the type of inventions has been studied, showing the sectors in which inventions are produced, whether these were transferred to practice, and other key information like the incremental nature of their invention, their possible consideration as ‘rare or curious invention’, and their coexistence with a registered trademark. This thesis is organized with an initial introduction, after which a section outlines the theoretical framework for the research along two axes: first the context of the patent documents, their relation with innovation and their usefulness as information sources; second, the invention of cycling and the development phases of bicycles. In the methodological section the sources and methodology are explained and reasoned, followed by the research design: 1-determination of the data universe, 2-consultation at the historical archive of the OEPM (National Patent Office), 3-design and creation of a database, 3-analysis of the files and image catchment, 5-treatment and analysis of data, 6-browsing of source information for foreign patents, and 7-consultation of the trademark information at the OEPM. Chapter 4 is dedicated to research itself, in three main sections. The first one has the quantification of the patent total in tables and the analysis of specific overall chronological aspects of the invention, and some comparisons with the results obtained in other research. The second section is centered on the studies of patent requests and inventors. Some data extracted from the files has been systematized: geographical origin, adscriptions as companies or individuals, and their collaboration data, ending with a sub-section on women’s invention, which we consider an interesting research line. The third section, the biggest one of them all, is dedicated to the description and analysis of the data referred to the inventions themselves, because it is the application of the inventions which constitutes the technological development of the bicycle, and therefore its historical and social evolution. It is also structured in various sub-sections. The first one is the longest one, with information regarding the thematic typology of the inventions: functions and bicycle components which are innovated. The other ensuing subsections study patents which were actually incorporated and used, incremental inventions, curious inventions and patents with possible associated trademarks. Finally, the study conclusions, the establishment of lines of potential further research, the references used, and the annexes which culminate the thesis exposition.