261 resultados para lachrymal sIgA
Resumo:
Dentro del objetivo común que persigue alcanzar una estabilidad social y una economía de éxito sostenible en el actual e incierto contexto mundial, el pronóstico es que la demanda de energía siga aumentando y que la generación mundial de electricidad se duplique entre los años 2005 y 2030. En este escenario, los combustibles fósiles podrían mantener una contribución muy significativa al mix energético posiblemente hasta el año 2050, participando del mercado de generación de energía eléctrica mundial en aproximadamente un 70% y siendo base de la generación de energía eléctrica europea en un 60%. El carbón sin duda seguirá teniendo una contribución clave. Este incremento en la demanda energética y energía eléctrica, en el consumo de carbón y de combustibles fósiles en general, sin duda tendrá impacto sobre los niveles de concentración de CO2 a nivel global en los diferentes escenarios evaluados, con un fatal pronóstico de triplicar, si no se contiene de alguna manera su emisión, los niveles actuales de concentración de CO2 hasta valores próximos a 1.200 ppm para finales de este siglo XXI. El Protocolo de Kyoto, adoptado en 1997, fue el primer tratado de responsabilidad a nivel mundial para el monitoreo y limitación de las emisiones de CO2, realizando una primera aproximación hasta el año 2012 y tomando como valores de referencia los referidos a los niveles de concentración de gases de efecto invernadero registrados en 1990. Algunos de los principales países emisores de CO2 como USA y China no ratificaron los objetivos de límite de emisión y niveles de reducción de CO2, y sin embargo están tomando sus propias acciones y medidas en paralelo para reducir sus emisiones. Los procesos de combustión más eficientes y con menor consumo de combustible, proporcionan una significativa contribución del sector de generación eléctrica a la reducción de los niveles de concentración de CO2, pero podría no ser suficiente. Tecnologías de captura y almacenamiento de carbono (CCS, del inglés Carbon Capture and Storage) han comenzado a ganar más importancia desde principios de esta década, se ha intensificado la investigación y proliferado la creación de fondos que impulsen su desarrollo y estimulen su despliegue. Tras los primeros proyectos de investigación básica y ensayos a pequeña escala, casi embrionaria, tres procesos de captura se posicionan como los más viables actualmente, con potencial para alcanzar niveles de reducción de CO2 del 90%, mediante su aplicación en centrales de carbón para generación eléctrica. En referencia al último paso del esquema CCS en el proceso de reducción de las ingentes cantidades de CO2 que habría que eliminar de la atmósfera, dos opciones deberían ser consideradas: la reutilización (EOR y EGR) y el almacenamiento. El presente artículo evalúa el estado de las diferentes tecnologías de captura de CO2, su disponibilidad, su desarrollo y su coste de instalación estimado. Se incorpora un pequeño análisis de los costes de operación y varias extrapolaciones, dado que solo están disponibles algunos de estos datos hasta la fecha. Además este artículo muestra los principales hallazgos y los potenciales de reducción de emisiones de CO2 en la utilización del carbón para generar electricidad y proporciona una visión del desarrollo y despliegue actual de la tecnología. Se realiza una revisión de las iniciativas existentes a nivel mundial mediante proyectos de demostración orientados a la viabilidad comercial del esquema CCS para el período 2020 ? 2030. Se evalúan los diferentes programas en curso y sus avances, como el programa de UK, el EEPR (European Energy Program for Recovery), etc. Las principales fuentes empleadas en la elaboración de este artículo son el DOE, NETL, MIT, EPRI, Centros e Institutos de Investigación, Universidades Europeas, Administraciones Públicas y Agencias Internacionales, suministradores de tecnología crítica, compañías eléctricas (utilities) y empresas tecnológicas.
Resumo:
El mercado de outsourcing ha estado creciendo en los últimos años y se prevé que lo siga haciendo en los próximos, pero este crecimiento ha estado limitado por el fracaso de muchos proyectos que, en algunos casos, han llevado a las organizaciones a asumir de nuevo esos servicios (insourcing). Estos fracasos se han debido en gran parte a los problemas con los proveedores: falta de experiencia, de capacidades para asumir los proyectos, dificultad en la comunicación. Así como hay marcos de buenas prácticas para la gestión de los proyectos de outsourcing para los clientes, no ocurre lo mismo con los proveedores, que basan la provisión de los servicios en sus experiencias anteriores y en sus capacidades técnicas. El objetivo de este artículo es demostrar la necesidad de proponer una metodología que guíe a los proveedores durante todo el ciclo de vida un proyecto de outsourcing y que facilite la provisión de servicios de calidad y bien gestionados. ABSTRACT. The outsourcing market has been growing in recent years and it is expected to keep doing it, but this growth has been limited by the failure of many projects. These failures have been due to a major degree to problems with providers: lack of experience and capacity to take on the projects and difficult communication. There are good practices frameworks for managing outsourcing projects for clients, but it is not the same for providers, who base the provision of services on their past experience and technical capabilities. The aim of this paper is to state the need to propose a methodology that guides providers throughout the whole outsourcing life cycle and facilitates the provision of quality services and their management.
Resumo:
El mercado de outsourcing ha estado creciendo en los últimos años y se espera que lo siga haciendo, pero este crecimiento se ha visto limitado por el fracaso de muchos proyectos. Estos fracasos se han debido en gran parte a los problemas con los proveedores: la falta de experiencia y capacidad para asumir los proyectos, y una comunicación difícil. Se han propuesto marcos de buenas prácticas para la gestión de proyectos de outsourcing desde el punto de vista del cliente, pero no ha sido así para los proveedores, que basan la prestación de servicios en su experiencia pasada y sus capacidades técnicas. El objetivo de este trabajo es establecer la necesidad de proponer una metodología que guíe a los proveedores a lo largo de todo el ciclo de vida del outsourcing y facilite la provisión de servicios de calidad y bien gestionados. ABSTRACT. The outsourcing market has been growing in recent years and it is expected to keep doing it, but this growth has been limited by the failure of many projects. These failures have been due to a major degree to problems with providers: lack of experience and capacity to take on the projects and difficult communication. There are good practices frameworks for managing outsourcing projects for clients, but it is not the same for providers, who base the provision of services on their past experience and technical capabilities. The aim of this paper is to state the need to propose a methodology that guides providers throughout the whole outsourcing life cycle and facilitates the provision of quality services and their management.
Resumo:
El mercado de outsourcing ha estado creciendo en los últimos años y se prevé que lo siga haciendo en los próximos, pero este crecimiento ha estado limitado por el fracaso de muchos proyectos que, en algunos casos, han llevado a las organizaciones a asumir de nuevo esos servicios (insourcing). Estos fracasos se han debido en gran parte a los problemas con los proveedores: falta de experiencia, de capacidades para asumir los proyectos, dificultad en la comunicación,… A diferencia de lo que ocurre en otras disciplinas, no existe una metodología que ayude, tanto a los clientes como a los proveedores de servicios de outsourcing de TI, a gobernar y gestionar sus proyectos y conseguir los resultados buscados. En los últimos años han aparecido, al mismo tiempo que la expansión del outsourcing, algunos modelos y marcos de buenas prácticas para la gestión de los proyectos de outsourcing, pero generalmente sólo cubren algunos aspectos de la gestión. No se los puede considerar metodologías, porque no definen roles, responsabilidades ni entregables. Por lo general, son el resultado de la experiencia en la gestión de otros tipos de proyectos. Hay que considerar también que, excepto eSCM-SP, que es un modelo de buenas prácticas para mejorar la capacidad en la provisión de servicios, están todos orientados al cliente. El objetivo de esta tesis es, por un lado, demostrar la necesidad de contar con una metodología que guíe a los proveedores durante todo el ciclo de vida un proyecto de outsourcing y, por otro, proponer una metodología que contemple desde la fase inicial de la búsqueda de oportunidades de negocio, evaluación de las propuestas RFP, la decisión de hacer una oferta o no para la prestación de servicios, la participación en la due diligence, la firma del contrato, la transición y la entrega de servicios, hasta la finalización del contrato. La metodología se ha organizado en base a un ciclo de vida del outsourcing de cinco etapas, definiendo para cada una de ellas los roles que participan y las responsabilidades que deberán asumir, las actividades a realizar y los entregables que se deberán generar, y que servirán de elementos de control tanto para la gestión del proyecto como para la provisión del servicio. La validación de la metodología se ha realizado aplicándola en proyectos de provisión de servicios de TI de una mediana empresa española y comparando los resultados obtenidos con los conseguidos en proyectos anteriores. ABSTRACT The outsourcing market has been growing in recent years and it is expected to keep doing so in the coming years, but this growth has been limited by the failure of many projects that, in some cases, has led organizations to take back those services (insourcing). These failures have been due to a major degree to problems with providers: lack of experience and capacity to take on the projects, and difficulties of communication. Unlike what happens in other disciplines, there is no methodology for helping both customers and providers of outsourcing services. In recent years, some good practice frameworks have also appeared at the same time as the expansion of outsourcing. They are not methodologies because they have not defined any roles, responsibilities and deliverables. These frameworks aim to help organizations to be successful at managing and governing outsourcing projects. They are usually the result of their experience in managing other kinds of projects. In consequence, it is not appropriate to name them "methodologies" for managing outsourcing projects and much less "standards". It is also important to note that all existing good practice frameworks, except eSCM-SP, are client-oriented. The aim of this thesis is to state the need to propose a methodology that guides providers throughout the whole outsourcing life cycle and facilitates the provision of quality services and their management, and the proposal of a methodology in which the stages, activities, deliverables, roles and responsibilities are clearly defined. The proposed methodology cover all the stages of the outsourcing life cycle, from the early stage of searching for business opportunities, evaluation of the RFP proposals, the decision to bid or not to bid for the service provision, participation in the due diligence if necessary, the signing of the contract, the transition and delivery of service to the termination of the contract. For each activity, roles, responsibilities and deliverables have been defined. The validation of the methodology has been done by applying it in the provision of some outsourcing projects carried out by a Spanish IT medium company and comparing the results with those obtained in previous projects.
Resumo:
Esta tesis se enmarca dentro de una línea de investigación iniciada en el 2004 focalizada en el estudio de soluciones constructivas energéticamente eficientes para la crianza del vino. El objetivo principal es promover el ahorro energético y la sostenibilidad en el diseño de la sala de crianza de las bodegas. Para ello, se profundiza en el estudio de las bodegas subterráneas, ejemplo de eco-construcción, ya que por lo general proporcionan condiciones adecuadas para la crianza sin gasto energético en climatización. En concreto, se abordan aspectos clave para la caracterización y comprensión del funcionamiento de estas construcciones, que en muchas ocasiones condicionan el éxito o el fracaso de las mismas. Así, se analiza el complejo comportamiento de la ventilación natural a lo largo del año, determinando los factores que la condicionan, desvelando el papel que desempeña tanto el túnel de acceso como las chimeneas de ventilación en su funcionamiento. Además, se desarrollan y validan modelos de simulación mediante CFD, que permiten evaluar y predecir con detalle el comportamiento termofluidodinámico de las construcciones subterráneas. Por otra parte, se cuantifica la uniformidad y estabilidad de la sala de crianza a lo largo del año, información que permite fijar recomendaciones y pautas concretas de diseño de los planes de monitorización. Finalmente, se determinan las diferencias de comportamiento higrotérmico existentes entre un amplio abanico de bodegas subterráneas para vino tinto, bodegas representativas de otras soluciones constructivas alternativas de vino tinto, así como bodegas para cavas y vinos generosos, enmarcando el comportamiento de estas bodegas en un contexto global. Además, se desarrollan metodologías adaptadas a las características particulares de estas construcciones, en concreto un sistema de monitorización basado en termografía infrarroja para llevar a cabo inspecciones puntuales para el control ambiental de grandes naves de crianza. Es de esperar que los estudios técnicos y las herramientas desarrolladas ayuden a mejorar el diseño de nuevas bodegas, y a la mejora de las condiciones higrotérmicas de las ya existentes, colaborando a que España siga situada en la vanguardia de la producción de vino de calidad. ABSTRACT This thesis is part of the research started in 2004 and focusing on the study of the energy efficiency in wine aging constructive solutions. The main objective is to promote energy conservation and sustainability in the design of wine aging rooms. To do so, this study focuses on the analysis of the underground cellars, example of eco-construction, since they usually provide adequate conditions for wine aging without using air-conditioning systems. In particular, key aspects for characterizing and understanding these constructions, which often determine the success or failure of them. Thus, the complex behavior of natural ventilation throughout the year is discussed, determining the influencing factors and revealing the role of both the access tunnel and the ventilation chimney. In addition, numerical models are developed and validated using CFD simulation, allowing an in-depth assessment and prediction of the thermofluidynamic behavior in underground constructions. Moreover, uniformity and stability of the aging room throughout the year is quantified, allowing for precise information useful to set recommendations and design guidelines for defining monitoring plans. Finally, hygrothermal behavior differences between a wide range of underground cellars for red wine, red wine wineries with alternative construction solutions and wineries for generous wines and cava wines, In addition, new methodologies adapted towards the particular characteristics of these constructions, a monitoring system based on infrared thermography to perform periodic inspections for environmental controls of the aging rooms, are developed. It is expected that the technical studies and tools developed here will help to improve the design of new wineries, and also the hygrothermal conditions of the existing ones, headed for keeping Spain in the forefront of the countries producing high quality wine.
Resumo:
El tema de la tesis se centra en el pensamiento de Walter Benjamin y en el concepto de percepción distraída, desarrollado en el ensayo La obra de arte en la época de su reproducibilidad técnica (1936). El título percepción dispersa deriva de una profundización de los conceptos benjaminianos en términos lingüísticos, adoptando otros significados de la palabra distracción que relacionan este concepto a cuestiones de ámbito espacial y atmosférico. Benjamin sostiene que la arquitectura, en una época en la que se desarrollan y se difunden nuevas técnicas de reproducción/ comunicación, no se puede percibir solo de manera visual sino también táctil, interrelacionando la difusión de nuevas técnicas de reproducción, la tensión entre diferentes modalidades perceptivas y la arquitectura: según él, la dispersión de la vista a favor de la percepción táctil/háptica es un rasgo característico de una sociedad en la que se desarrollan y se difunden nuevas técnicas de reproducción. La tesis profundiza en estos temas, actualizando el concepto de distracción/dispersión para valorar las repercusiones de esta intuición en el ámbito de una parte de la producción arquitectónica contemporánea: se propone una contextualización histórica y una conceptual, relativas a los proyectos recientes de algunos de los autores que profundizan en el impacto de las nuevas tecnologías en el ámbito del proyecto de arquitectura. La hipótesis que se quiere demostrar es que se está desarrollando una tendencia que lleva proyectos o edificios de alto nivel tecnológico y informático desde un ámbito de (supuesto) predominio de la percepción visual, hasta una arquitectura que proporciona experiencias multisensoriales: espacios que se pueden medir con el movimiento, los músculos y el tacto, que desarrollan un conjunto de sensaciones táctiles/hápticas y no solo visuales. Finalmente se quiere verificar si, revertiendo siglos de evolución visual, la visión táctil y cercana siga siendo uno de los polos dialécticos que estructuran la experiencia de la arquitectura, como previsto por Benjamin hace 75 años. ABSTRACT The thesis focuses on the thought of Walter Benjamin and the concept of distracted perception, developed in the essay The Work of Art in the Age of Mechanical Reproduction (1936). The title derives from a linguistic approach to this concept which further explores the meaning of the word distraction, finally relating this kind of perception to spatial and atmospheric issues. Benjamin argues that architecture, thanks to the development of new reproduction/communication technologies, cannot be perceived exclusively in a visual way but also in a tactile way, interrelating new technologies of reproduction, perceptual modalities and architecture: according to him, the dispersion of the view in favor of tactile/ haptic perception is a fundamental characteristic of a technologically developed society. The thesis explores these issues, updating the concept of distraction/dispersion to assess its implications in the works of some architects that are exploring with their buildings the impact of new communication technologies in the field of architectural design. The hypothesis at the base of this work is that we are facing a new trend in this particular field: many of the most advanced buildings provide multisensory experience, and define spaces that can be better perceived with the sense of touch (haptic sense), going beyond a mere visual perception. Finally the thesis wants to verify if, reversing centuries of visual evolution, tactile and close vision remains one of the dialectical poles that stay at the base of the experience of architecture, as foreseen by Benjamin 75 years ago. ABSTRACT La tesi si basa sul pensiero di Walter Benjamin e sul concetto di percezione distratta, sviluppato nel saggio La opera d’arte nell’epoca della sua riproducibilità tecnica (1936). Il titolo, percezione dispersa, deriva da un approfondimento dei concetti benjaminiani in termini linguistici, adottando ulteriori significati della parola che il filosofo utilizza per indicare la distrazione e che relazionano questo termine a questioni di ambito spaziale ed atmosferico. Benjamin sostiene che l’architettura, in un’epoca nella quale si sviluppano e si diffondono nuove tecniche di riproduzione (o meglio: nuove tecnologie di comunicazione), non possa essere percepita solamente in maniera visuale, ma anche tattile, mettendo in relazione la diffusione di nuove tecnologie, la tensione tra differenti modalità percettive e l’architettura: secondo Benjamin, la dispersione della vista a favore di una ricezione tattile/aptica della realtà è una caratteristica tipica di quei momenti storici nei quali si manifestano grandi trasformazioni di ambito sociale e culturale dovute allo sviluppo di nuove tecnologie di comunicazione. La tesi approfondisce questi temi, aggiornando il concetto di distrazione/dispersione per valutarne le ripercussioni su una certa parte della produzione architettonica contemporanea: si propone una contestualizzazione storica ed una concettuale, relative ai progetti di alcuni architetti che lavorano da tempo sull’impatto delle nuove tecnologie nell’ambito del progetto di architettura. La ipotesi che si dimostra con questa tesi è che si sta sviluppando una contro-tendenza tattile, a seguito della quale molti degli edifici tecnologicamente ed informaticamente più avanzati strutturano la relazione con i propri utenti sulla base di esperienze multisensoriali, definendo spazi che possono essere percepiti attraverso una percezione aptica, piuttosto che visuale. In definitiva la tesi verifica che, superando secoli di evoluzione visuale, la visione tattile e ravvicinata e - più in generale - una percezione di tipo aptico continuano ad essere uno dei poli dialettici che strutturano l’esperienza dell’architettura, come previsto da Benjamin più di 75 anni fa.
Resumo:
Este proyecto tiene como objetivo la implementación de un sistema capaz de analizar el movimiento corporal a partir de unos puntos cinemáticos. Estos puntos cinemáticos se obtienen con un programa previo y se captan con la cámara kinect. Para ello el primer paso es realizar un estudio sobre las técnicas y conocimientos existentes relacionados con el movimiento de las personas. Se sabe que Rudolph Laban fue uno de sus mayores exponentes y gracias a sus observaciones se establece una relación entre la personalidad, el estado anímico y la forma de moverse de un individuo. Laban acuñó el término esfuerzo, que hace referencia al modo en que se administra la energía que genera el movimiento y de qué manera se modula en las secuencias, es una manera de describir la intención de las expresiones internas. El esfuerzo se divide en 4 categorías: peso, espacio, tiempo y flujo, y cada una de estas categorías tiene una polaridad denominada elemento de esfuerzo. Con estos 8 elementos de esfuerzo un movimiento queda caracterizado. Para poder cuantificar los citados elementos de esfuerzo se buscan movimientos que representen a alguno de ellos. Los movimientos se graban con la cámara kinect y se guardan sus valores en un archivo csv. Para el procesado de estos datos se establece que el sistema más adecuado es una red neuronal debido a su flexibilidad y capacidad a la hora de procesar entradas no lineales. Para la implementación de la misma se requiere un amplio estudio que incluye: topologías, funciones de activación, tipos de aprendizaje, algoritmos de entrenamiento entre otros. Se decide que la red tenga dos capas ocultas, para mejor procesado de los datos, que sea estática, siga un proceso de cálculo hacia delante (Feedforward) y el algoritmo por el que se rija su aprendizaje sea el de retropropagación (Backpropagation) En una red estática las entradas han de ser valores fijos, es decir, no pueden variar en el tiempo por lo que habrá que implementar un programa intermedio que haga una media aritmética de los valores. Una segunda prueba con la misma red trata de comprobar si sería capaz de reconocer movimientos que estuvieran caracterizados por más de un elemento de esfuerzo. Para ello se vuelven a grabar los movimientos, esta vez en parejas de dos, y el resto del proceso es igual. ABSTRACT. The aim of this project is the implementation of a system able to analyze body movement from cinematic data. This cinematic data was obtained with a previous program. The first step is carrying out a study about the techniques and knowledge existing nowadays related to people movement. It is known that Rudolf Laban was one the greatest exponents of this field and thanks to his observations a relation between personality, mood and the way the person moves was made. Laban coined the term effort, that refers to the way energy generated from a movement is managed and how it is modulated in the sequence, this is a method of describing the inner intention of the person. The effort is divided into 4 categories: weight, space, time and flow, and each of these categories have 2 polarities named elements of effort. These 8 elements typify a movement. We look for movements that are made of these elements so we can quantify them. The movements are recorded with the kinect camera and saved in a csv file. In order to process this data a neural network is chosen owe to its flexibility and capability of processing non-linear inputs. For its implementation it is required a wide study regarding: topology, activation functions, different types of learning methods and training algorithms among others. The neural network for this project will have 2 hidden layers, it will be static and follow a feedforward process ruled by backpropagation. In a static net the inputs must be fixed, this means they cannot vary in time, so we will have to implement an intermediate program to calculate the average of our data. A second test for our net will be checking its ability to recognize more than one effort element in just one movement. In order to do this all the movements are recorded again but this time in pairs, the rest of the process remains the same.
Resumo:
El gran desarrollo experimentado por la alta velocidad en los principales países de la Unión Europea, en los últimos 30 años, hace que este campo haya sido y aún sea uno de los principales referentes en lo que a investigación se refiere. Por otra parte, la aparición del concepto super − alta velocidad hace que la investigación en el campo de la ingeniería ferroviaria siga adquiriendo importancia en los principales centros de investigación de los países en los que se desea implantar este modo de transporte, o en los que habiendo sido ya implantado, se pretenda mejorar. Las premisas de eficacia, eficiencia, seguridad y confort, que este medio de transporte tiene como razón de ser pueden verse comprometidas por diversos factores. Las zonas de transición, definidas en la ingeniería ferroviaria como aquellas secciones en las que se produce un cambio en las condiciones de soporte de la vía, pueden afectar al normal comportamiento para el que fue diseñada la infraestructura, comprometiendo seriamente los estándares de eficiencia en el tiempo de viaje, confort de los pasajeros y aumentando considerablemente los costes de mantenimiento de la vía, si no se toman las medidas oportunas. En esta tesis se realiza un estudio detallado de la zonas de transición, concretamente de aquellas en las que existe una cambio en la rigidez vertical de la vía debido a la presencia de un marco hidráulico. Para realizar dicho estudio se lleva a cabo un análisis numérico de interacción entre el vehículo y la estructura, con un modelo bidimensional de elemento finitos, calibrado experimentalmente, en estado de tensión plana. En este análisis se tiene en cuenta el efecto de las irregularidades de la vía y el comportamiento mecánico de la interfaz suelo-estructura, con el objetivo de reproducir de la forma más real posible el efecto de interacción entre el vehículo, la vía y la estructura. Otros efectos como la influencia de la velocidad del tren y los asientos diferenciales, debidos a deformaciones por consolidación de los terraplenes a ambos lados el marco hidráulico, son también analizados en este trabajo. En esta tesis, los cálculos de interacción se han llevado a cabo en dos fases diferentes. En la primera, se ha considerado una interacción sencilla debida al paso de un bogie de un tren Eurostar. Los cálculos derivados de esta fase se han denominado cálculos a corto plazo. En la segunda, se ha realizado un análisis considerando múltiples pasos de bogie del tren Eurostar, conformando un análisis de degradación en el que se tiene en cuenta, en cada ciclo, la deformación de la capa de balasto. Los cálculos derivados de esta fase, son denominados en el texto como cálculos a largo plazo. Los resultados analizados muestran que la utilización de los denominados elementos de contacto es fundamental cuando se desea estudiar la influencia de asientos diferenciales, especialmente en transiciones terraplén-estructura en las que la cuña de cimentación no llega hasta la base de cimentación de la estructura. Por otra parte, tener en cuenta los asientos del terraplén, es sumamente importante, cuando se desea realizar un análisis de degradación de la vía ya que su influencia en la interacción entre el vehículo y la vía es muy elevada, especialmente para valores altos de velocidad del tren. En cuanto a la influencia de las irregularidades de la vía, en los cálculos efectuados, se revela que su importancia es muy notable, siendo su influencia muy destacada cuanto mayor sea la velocidad del tren. En este punto cabe destacar la diferencia de resultados derivada de la consideración de perfiles de irregularidades de distinta naturaleza. Los resultados provenientes de considerar perfiles artificiales son en general muy elevados, siendo estos más apropiados para realizar estudios de otra índole, como por ejemplo de seguridad al descarrilamiento. Los resultados provenientes de perfiles reales, dados por diferentes Administradores ferroviarios, presentan resultados menos elevados y más propios del problema analizar. Su influencia en la interacción dinámica entre el vehículo y la vía es muy importante, especialmente para velocidades elevadas del tren. Además el fenómeno de degradación conocido como danza de traviesas, asociado a zonas de transición, es muy susceptible a la consideración de irregularidades de la vía, tal y como se desprende de los cálculos efectuados a largo plazo. The major development experienced by high speed in the main countries of the European Union, in the last 30 years, makes railway research one of the main references in the research field. It should also be mentioned that the emergence of the concept superhigh − speed makes research in the field of Railway Engineering continues to gain importance in major research centers in the countries in which this mode of transportation is already implemented or planned to be implemented. The characteristics that this transport has as rationale such as: effectiveness, efficiency, safety and comfort, may be compromised by several factors. The transition zones are defined in railway engineering as a region in which there is an abrupt change of track stiffness. This stiffness variation can affect the normal behavior for which the infrastructure has been designed, seriously compromising efficiency standards in the travel time, passenger comfort and significantly increasing the costs of track maintenance, if appropriate measures are not taken. In this thesis a detailed study of the transition zones has been performed, particularly of those in which there is a change in vertical stiffness of the track due to the presence of a reinforced concrete culvert. To perform such a study a numerical interaction analysis between the vehicle, the track and the structure has been developed. With this purpose a two-dimensional finite element model, experimentally calibrated, in a state of plane stress, has been used. The implemented numerical models have considered the effects of track irregularities and mechanical behavior of soil-structure interface, with the objective of reproducing as accurately as possible the dynamic interaction between the vehicle the track and the structure. Other effects such as the influence of train speed and differential settlement, due to secondary consolidation of the embankments on both sides of culvert, have also been analyzed. In this work, the interaction analysis has been carried out in two different phases. In the first part a simple interaction due to the passage of a bogie of a Eurostar train has been considered. Calculations derived from this phase have been named short-term analysis. In the second part, a multi-load assessment considering an Eurostar train bogie moving along the transition zone, has been performed. The objective here is to simulate a degradation process in which vertical deformation of the ballast layer was considered. Calculations derived from this phase have been named long-term analysis. The analyzed results show that the use of so-called contact elements is essential when one wants to analyze the influence of differential settlements, especially in embankment-structure transitions in which the wedge-shaped backfill does not reach the foundation base of the structure. Moreover, considering embankment settlement is extremely important when it is desired to perform an analysis of track degradation. In these cases the influence on the interaction behaviour between the vehicle and the track is very high, especially for higher values of speed train. Regarding the influence of the track irregularities, this study has proven that the track’s dynamic response is heavily influenced by the irregularity profile and that this influence is more important for higher train velocities. It should also be noted that the difference in results derived from consideration of irregularities profiles of different nature. The results coming from artificial profiles are generally very high, these might be more appropriate in order to study other effects, such as derailment safety. Results from real profiles, given by the monitoring works of different rail Managers, are softer and they fit better to the context of this thesis. The influence of irregularity profiles on the dynamic interaction between the train and the track is very important, especially for high-speeds of the train. Furthermore, the degradation phenomenon known as hanging sleepers, associated with transition zones, is very susceptible to the consideration of track irregularities, as it can be concluded from the long-term analysis.
Resumo:
Este proyecto se centra en la implementación de un sistema de control activo de ruido mediante algoritmos genéticos. Para ello, se ha tenido en cuenta el tipo de ruido que se quiere cancelar y el diseño del controlador, parte fundamental del sistema de control. El control activo de ruido sólo es eficaz a bajas frecuencias, hasta los 250 Hz, justo para las cuales los elementos pasivos pierden efectividad, y en zonas o recintos de pequeñas dimensiones y conductos. El controlador ha de ser capaz de seguir todas las posibles variaciones del campo acústico que puedan producirse (variaciones de fase, de frecuencia, de amplitud, de funciones de transferencia electro-acústicas, etc.). Su funcionamiento está basado en algoritmos FIR e IIR adaptativos. La elección de un tipo de filtro u otro depende de características tales como linealidad, causalidad y número de coeficientes. Para que la función de transferencia del controlador siga las variaciones que surgen en el entorno acústico de cancelación, tiene que ir variando el valor de los coeficientes del filtro mediante un algoritmo adaptativo. En este proyecto se emplea como algoritmo adaptativo un algoritmo genético, basado en la selección biológica, es decir, simulando el comportamiento evolutivo de los sistemas biológicos. Las simulaciones se han realizado con dos tipos de señales: ruido de carácter aleatorio (banda ancha) y ruido periódico (banda estrecha). En la parte final del proyecto se muestran los resultados obtenidos y las conclusiones al respecto. Summary. This project is focused on the implementation of an active noise control system using genetic algorithms. For that, it has been taken into account the noise type wanted to be canceled and the controller design, a key part of the control system. The active noise control is only effective at low frequencies, up to 250 Hz, for which the passive elements lose effectiveness, and in small areas or enclosures and ducts. The controller must be able to follow all the possible variations of the acoustic field that might be produced (phase, frequency, amplitude, electro-acoustic transfer functions, etc.). It is based on adaptive FIR and IIR algorithms. The choice of a kind of filter or another depends on characteristics like linearity, causality and number of coefficients. Moreover, the transfer function of the controller has to be changing filter coefficients value thought an adaptive algorithm. In this project a genetic algorithm is used as adaptive algorithm, based on biological selection, simulating the evolutionary behavior of biological systems. The simulations have been implemented with two signal types: random noise (broadband) and periodic noise (narrowband). In the final part of the project the results and conclusions are shown.
Resumo:
La industria de la energía eólica marina ha crecido de forma significativa durante los últimos 15 años, y se espera que siga creciendo durante los siguientes. La construcción de torres en aguas cada vez más profundas y el aumento en potencia y tamaño de las turbinas han creado la necesidad de diseñar estructuras de soporte cada vez más fiables y optimizadas, lo que requiere un profundo conocimiento de su comportamiento. Este trabajo se centra en la respuesta dinámica de una turbina marina con cimentación tipo monopilote y sobre la que actúa la fuerza del viento. Se han realizado cálculos con distintas propiedades del suelo para cubrir un rango de rigideces que va desde una arena muy suelta a una muy densa. De este modo se ha analizado la influencia que tiene la rigidez del suelo en el comportamiento de la estructura. Se han llevado a cabo análisis estáticos y dinámicos en un modelo de elementos finitos implementado en Abaqus. El desplazamiento en la cabeza de la torre y la tensión en su base se han obtenido en función de la rigidez del suelo, y con ellos se ha calculado la amplificación dinámica producida cuando la frecuencia natural del sistema suelo‐cimentación torre se aproxima a la frecuencia de la carga. Dos diferentes enfoques a la hora de modelizar el suelo se han comparado: uno utilizando elementos continuos y otro utilizando muelles elásticos no lineales. Por último, un análisis de fiabilidad se ha llevado a cabo con un modelo analítico para calcular la probabilidad de resonancia del sistema, en el que se han considerado las propiedades de rigidez del suelo como variables aleatorias. Offshore wind energy industry has experienced a significant growth over the past 15 years, and it is expected to continue its growth in the coming years. The expansion to increasingly deep waters and the rise in power and size of the turbines have led to a need for more reliable and optimized support designs, which requires an extensive knowledge of the behaviour of these structures. This work focuses on the dynamic response of an offshore wind turbine founded on a monopile and subjected to wind loading. Different soil properties have been considered in order to cover the range of stiffness from a very loose to a very dense sand. In this way, the influence of stiffness on the structure behaviour has been assessed. Static and dynamic analyses have been carried out by means of a finite element model implemented in Abaqus. Head displacement and stress at the tower base have been obtained as functions of soil stiffness, and they have been used to calculate the dynamic amplification that is produced when the natural frequency of the system soil‐foundation‐tower approaches the load frequency. Two different approaches of soil modelling have been compared: soil modelled as a continuum and soil simulated with non linear elastic springs. Finally, a reliability analysis to assess the probability of resonance has been performed with an analytical model, in which soil stiffness properties are considered as stochastic variables.
Resumo:
Se recoge en esta tesis doctoral la definición y clasificación de los edificios cuya finalidad es proporcionar espacios para escuchar y producir música. Se centra en aquellos construidos a lo largo del siglo XX, en el área geográfica y cultural que forman Europa occidental y Estados Unidos. Se analizan edificios construidos en el pasado, en una serie que se origina a mediados del siglo XIX y que se culmina terciado el propio siglo XX. Son edificios que contienen espacios pensados para músicas que, sin embargo, en su mayoría fueron creadas en un periodo anterior, desde mediados del siglo XVIII hasta las primeras décadas del siglo pasado. Un auditorium es un edificio cuya idea conlleva la compleja herencia de los múltiples lugares, abiertos y cerrados, que han alojado la música a lo largo del tiempo. Es un edificio que es útil a la sociedad y que ocupa un lugar significativo dentro de la ciudad, y es consecuencia del campo de fuerzas que constituyen los avances técnicos, el progreso de las sociedades urbanas y la evolución del arte, al compartir estrechamente, música y arquitectura, el interés por hallar la expresión de una nueva relación con la naturaleza. Se parte de la hipótesis de que el auditorium puede constituir un tipo arquitectónico con entidad suficiente para generar una tipología. Entendida ésta como una herramienta que dota de conocimientos útiles a quien va a proyectar un edificio para la música y también que permita abrir el campo de pensamiento sobre el espacio musical, sin necesidad de recurrir a modelos previos, aunque se hayan manifestado útiles y precisos. Se comienza con una aproximación a una definición del término «auditorium » y se analizan a qué funciones responde y en qué es distinto de otros edificios, a través de determinar las características formales propias. Para ello se articula la tesis en varios bloques de análisis. I Elementos para una tipología Se indaga en los atributos que determinan la naturaleza de los auditorios para definir cómo son estos edificios y qué características y condiciones tienen, no sólo las salas sino también los edificios que las contienen, buscando el origen de los espacios musicales y su relación con las personas que allí se han reunido para celebrar, a través de la música, acontecimientos colectivos. Relación que ha comportado desplazamientos por los distintos espacios que ha compartido, supeditada a otras actividades, hasta que finalmente, la música ha reclamado espacios propios. Pero también se establece otra relación física entre las distintas posiciones que ocupan en el espacio cuantos intervienen en la celebración del hecho musical, músicos y público. De otra parte se analiza cómo son sus espacios interiores, salas y vestíbulos, y los volúmenes y formas de los edificios en relación con la ciudad. Su conexión con la idea del paisaje abierto y con el carácter originario de la cueva. II Cinco tiempos Los edificios sobre los que se van explorar estas capacidades son en muchos casos arquitecturas divulgadas y conocidas. Sin embargo no todas han tenido desde su aparición el mismo grado de aprecio ni reconocimiento, y sólo el paso del tiempo ha confirmado su excelencia. El estudio se estructura en los periodos marcados por los acontecimientos bélicos y las grandes crisis que sacudieron Europa y Norte América desde comienzos del siglo XX. La identificación de los elementos significativos de la tipología se hace a través del análisis de distintos tiempos que agrupan casos heterogéneos, tiempos entendidos unas veces como la relación entre edificios coetáneos y otra como proyectos pensados por un mismo arquitecto y se detiene, entre otros, en cuatro excepcionales edificios que condensan la experiencia de varias décadas y demuestran su plenitud arquitectónica, por haber evolucionado de modelos precedentes o por su novedosas aportaciones. El Royal Festival Hall (1951), el Kresge Auditorium (1954), el Kulttuuritalo (1958) y la Philharmonie de Berlín (1963), sirven de base para una clasificación del auditorium. III Cronología gráfica Este apartado es fundamentalmente gráfico y consta un inventario de más de 100 archivos correspondientes a otros tantos auditorios y sus salas, en orden cronológico. Cada archivo cuenta con una imagen del exterior del edificio y otra del interior de la sala. Se han incorporado en cada uno de los archivos, dos dibujos a la misma escala. El primero muestra la planta de la sala con tres parámetros: la ocupación del público en referencia al lugar que ocupa la orquesta, la relación de tamaño entre la sala y las de los cuatro auditorios de referencia y la distancia al foco de sonido, la orquesta, mediante una escala en metros. Estos tres parámetros están superpuestos al que he considerado espacio audible, un rectángulo de 60 por 90 metros, en el que el foco está desplazado, por considerar que el sonido de una orquesta tiene una componente directional y que en esas dimensiones la energía sonora no decae. En el friso bajo el dibujo, aparecen cuatro iconos que informan de la relación formal de la sala con la del auditorium. Puede ser una sala dentro de un edificio sin correspondencia formal, un edificio en el que se manifiesta exteriormente el volumen de la sala, un edificio que tiene la forma de la sala y resuelve el resto del programa funcional sin manifestarlo exteriormente o, finalmente un edificio complejo cuya forma absorbe dos o más salas de música. El segundo dibujo es la sección longitudinal de la sala, recortada sobre un fondo negro para destacar su forma y proporción, todas están a la misma escala y en la misma dirección respecto del escenario para facilitar su lectura y comparación. En el parte inferior de la sección, aparecen cuatro esquemas de la forma y distribución en planta sobre el que destaca la de cada caso de estudio. La forma del techo de las salas de música de los auditorios, expresada a través de la sección longitudinal, es uno de los elementos que caracteriza el espacio musical. El perímetro de la sección, determina su superficie y por tanto, el volumen total interior. Es una herramienta técnica que permite dirigir el sonido reflejado en él, hasta cualquier lugar del interior de la sala, garantizando una distribución homogénea y evitando concentraciones perjudiciales o «sombras acústicas», lugares donde no llegan las primeras reflexiones. IV Geometría de las salas El análisis efectuado permite la elaboración de paralelos de tres de los elementos fundamentales de la tipología de las salas de los auditorium y que definen el espacio musical. El perímetro de la sección y su superficie que establecen el volumen total interior, que es un factor determinante en la reverberación de una sala. La forma y superficie del techo, que interviene directamente en el cálculo de la absorción del sonido, en función de la cualidad reflejante o absorbente del material con el que está construido, y por otra parte en la distribución del sonido en el espacio. Y por último, la forma del suelo de las salas también expresada a través de la sección longitudinal, es otro de los elementos que caracteriza el espacio musical. El modelado del suelo permite mediante distintas pendientes garantizar la correcta visión del escenario y por tanto permite también una buena audición, puesto que la llegada directa del sonido está asegurada. La otra limitación dimensional es el ancho de la grada. Cuando se ha buscado incrementar al máximo la capacidad de una sala, se han establecido graderíos en balcones en voladizo para no penalizar la distancia al escenario, de manera que algunas partes del graderío quedan cubiertas, en detrimento de su calidad acústica al privarlas de las primeras reflexiones que proceden del techo. V Auditórium y ciudad El auditorium es un edificio singular que establece con la ciudad una relación particular y que contiene en su interior una o varias salas especiales destinadas a oír y ejecutar música, a las que se accede a través de otros espacios de carácter social. Han ido evolucionando y modificándose de manera ininterrumpida, dando lugar a edificios de diversa complejidad en su programa y a salas cada vez mas especificas para cumplir mejor su cometido, perfeccionando su sonido y buscando la más elevada musicalidad. Estos edificios disponen de otros ámbitos de relación, son los espacios interiores, vestíbulos y escaleras, generalmente generosos en superficie y espacialidad, previos al espacio musical, corazón del auditorium donde suena la música en condiciones acústicas precisas. También el lugar donde se construyen los auditoriums en las ciudades tiene un especial significado, porque generalmente han buscado interponer espacios abiertos o ajardinados que suavicen el contacto directo con la ciudad y que implican, por otra parte, una preparación de las personas que asisten para escuchar los conciertos. Con el paso del tiempo, la aceptación generalizada de formas afianzadas en la ciudad, será uno de los vehículos que permita contaminar a otros tipos de edificios y alcanzar una libertad formal renovadora de los paisajes urbanos. Conclusiones La disolución del espacio musical convencional pregonado por el pabellón Philips del año 1958, no ha impedido que hoy siga vivo para el arquitecto el reto del proyecto y construcción del auditorium. Hoy conviven experiencias musicales totales; imagen, luz y movimiento, ocupando todo tipo de espacios públicos, cerrados o al aire libre, con la voluntad de conseguir espacios capaces de crear la intimidad y las precisas condiciones ambientales que hagan posible la recreación de las músicas del pasado en una especie de emocionante museo sonoro vivo. Como edificios urbanos, los auditoriums han conseguido un lugar destacado en la iconografía urbana después de un largo camino hasta conseguir el reconocimiento social. Se puede, así, establecer que estos edificios han introducido en la ciudad una nueva manera de expresarse la arquitectura. Que lo inesperado de sus formas y volúmenes en el espacio urbano, o la sorpresa de sus interiores altamente técnicos, justificados para satisfacer las nuevas necesidades impuestas por una audiencia cada vez más y más experta, obtienen la aceptación urbana por su utilidad social y por su capacidad de establecer una relación distinta entre las personas, la ciudad y la naturaleza. Coda Finalmente, el epílogo habla de la metamorfosis del espacio musical y de la convivencia de distintos espacios musicales en la actualidad. Desde la creación de las primeras y sencillas salas de música hasta las grandes salas filarmónicas que se construyen en las últimas décadas, la arquitectura ha proporcionado lugares adecuados para contener y disfrutar la música, espacios que se han modificado según cambiaban las formas musicales. Sin embargo el sonido parece mostrarse reticente a ser encerrado en el espacio y busca aliarse con el tiempo para conseguir un desplazamiento permanente. Seguramente es en el pabellón Philips de Bruselas en 1958 donde se presenta el último intento de la arquitectura de contener la música, que impulsada por tecnologías absolutamente nuevas, se mueve como dardos que atraviesan el espacio en todos los lugares y en todas las direcciones. Desde aquellas décadas centrales del pasado siglo, y superando los mas optimistas intentos de distribuir masivamente la música a través de incipientes tecnologías, se puede afirmar que vivimos en una inmersión sonora universal. Anexos Incluyen, una colección de mapas de la geografía de los auditorios europeos y norte-americanos, referenciados a los periodos de su construcción, y una relación de los auditorios estudiados con referencias bibliográficas. ABSTRACT This doctoral thesis does not only look at the ways in which architecture and music relate with one another; it also seeks to be an exact, scientific study of auditoriums, a building type that first appeared in the 20th century as a place in which to produce and listen to music. It studies concert halls, raised in Europe and the United Stated in the 20th century, for the purpose of recreating older music, that were the result of the evolution of various ancient building types. Auditoriums have a complex heritage of architecture of all times, openair and covered alike, and occupy important spots in cities. They incorporate the technical innovations of their times, and are reflections not only of the music played within them, but also of the societies that built them. Music and architecture share an interest in connecting with nature. Auditorium, a 20th-century Typology tries to define this building typology, and with that, be a practical tool in designing and constructing spaces for music, besides exploring the relationship between the two disciplines, architecture and music, and establishing the foundations for an entire school of thought. It is organized in five chapters, each focusing on a particular aspect of auditoriums, all towards defining a possible typology: I Typology elements. A study of the origin of auditoriums, and of how the different parts of these buildings —the actual concert hall, the foyer, the open spaces— relate with the city and with nature, which is ever present in music and in the origin of auditoriums. II Five sequences. A chronological journey through the 20th century, in periods marked by the two world wars and the consequent crises, with case studies of four exceptional buildings: the Royal Festival Hall (1951), the Kresge Auditorium (1954), the Kulttuuritalo (1958), and the Berlin Philharmonie (1963). III Graphic chronology. A methodical sequence looking at a hundred auditoriums, with each entry presenting images of the concert hall and the building as a whole, and two drawings on the same scale. Each concert hall floor plan shows how the orchestra relates with the audience, and it is compared to the floor plans of the four case-study examples named above. We also see how the hall is set into the building. The second drawing is the longitudinal section of the hall. Ceiling shape much determines the character of concert hall spaces, while technical data like air volume and the amount of absorbent and reflecting materials used have a direct bearing on the reflection of sound and on the overall musical quality of the auditorium. IV Geometry of concert halls. Graphic analysis of the key elements of a music space: the ceiling and the floor plan. The section is a necessary tool for determining the reverberation time of a concert hall, and is closely linked to the shape of the floor plan. In concert halls, there is a strong connection between the ceiling, the walls, and the floor, as there is between different musical instruments. It also includes maps showing where these European and American buildings are located geographically as well as in time. V The auditorium in the city. This chapter presents a series of maps showing the location of auditoriums in the city. They are often located in squares and gardens, open public spaces that serve to emotionally prepare the listener for an imminent musical experience. Time has shown that concert halls have changed the urban landscape and city life. Conclusions As a building type, auditoriums —though «dissolved» by the Philips Pavilion in 1958— remain valid spaces for listening to music. As intimate and unique spaces for social gathering and musical creation, they have done their part in transforming cities. Acoustics play a key role in these technical interiors, but just as important is the rapport that is struck between the musicians and the audience, and between musical works of the past, present, and future. Auditoriums are urban buildings that have been very successful throughout history. They have enriched our cities with surprising shapes and volumes, introduced new interiors in architecture, and struck new relationships between people, the city, and nature. As such, they are necessary. Coda Finally, the epilogue presents the evolution of the music space, from the early simple music halls to the highly complex philharmonic halls of recent years. Architecture has produced spaces for the enjoyment of music that have been modified for new musical creations, while remaining useful for the historical repertoire. Sound, and thus music, has as complex a relationship with space as it does with time. The coda of this thesis is the Philips Pavilion of 1958, perhaps the last attempt to propose a new kind of architecture for music with the latest technology. Annexes The thesis includes a collection of site maps of European and American auditoriums, complete with completion dates and descriptions.
Resumo:
La ciudadela habanera sigue un modelo arquitectónico ampliamente difundido en la América de habla hispana proveniente de la metrópoli, conocido popularmente como casa de patio, casa de vecindad, o mejor, casa de corredor. Como tal, constituyen una tipología peculiar fácilmente identificable, que nace como consecuencia de la necesidad de alojamiento de las clases populares de origen más humilde, a menudo también asociada a la inmigración, a partir de la revolución industrial y, por supuesto, no exclusiva de La Habana. Las ciudadelas Habaneras, como tipología específica, surgen en el siglo XIX, como consecuencia del proceso de aparición de las clases asalariadas, es decir, como respuesta lógica y práctica a una imperiosa demanda de obtener la máxima rentabilidad al suelo en una trama urbana compacta, teniendo en cuenta las especificidades del clima y la especulación urbana. Estas premisas establecen las características tipológicas generales de las ciudadelas: pequeñas habitaciones que delimitan un patio, elemento que constituye, además, el espacio de circulación, con servicios sanitarios y un área de cocina comunes para todos los inquilinos. A partir de 1938 queda prohibida la construcción de ciudadelas, pero ello no impide que su uso siga vigente, dadas las peculiares condiciones socio-políticas cubanas, que han hecho que, desde la revolución castrista, no se produzca la renovación del parque edilicio que ha tenido lugar en otros países. Las ciudadelas, como las casas de corredor españolas y las del resto de América, están íntimamente asociadas al concepto de infravivienda, con unas condiciones de habitabilidad que, si ya eran mínimas hace 150 años, actualmente son inaceptables. No obstante, el modelo continúa resultando atractivo, pues ofrece una posibilidad de relaciones personales y de sentido de la pertenencia que otros modelos urbanos no permiten. Es por ello que se intenta recuperar este modo de vida mediante la rehabilitación de las casas de corredor, eso sí, siguiendo criterios de espacio y salubridad acordes con la época y la normativa actual. Por todo ello, en esta tesis se profundiza en el conocimiento de las ciudadelas habaneras tanto desde el punto de vista histórico y tipológico como en el constructivo o patológico. En primer lugar se estudia su origen y evolución, así como sus similitudes y diferencias con sus homólogas en España e Hispanoamérica, para entender su morfología propia y poder decidir sobre la técnica de rehabilitación más apropiada. En segundo lugar, se describen y analizan sus características geométricas y morfológicas, con el objeto de determinar su correlación con el concepto de infravivienda y las relaciones espaciales patio/solar, para demostrar que su origen es fruto de la adaptación de un modelo universal, que deviene en una tipología específica de La Habana. En tercer lugar, se analizan los materiales y los sistemas constructivos y estructurales empleados en su origen, prácticamente intactos en la mayoría de los casos, demostrando así que en las ciudadelas se siguieron métodos similares y se optó por soluciones muy semejantes a las utilizadas en otras edificaciones habitacionales de carácter popular contemporáneas, por lo que el campo de aplicación de las soluciones deducidas de la documentación desarrollada en este trabajo es mucho más amplio que su mera adopción en las ciudadelas. En cuarto lugar, se realiza un estudio patológico de las fachadas de los edificios. Este análisis permitirá analizar con mayor rigor técnico las causas de las lesiones y diseñar técnicas de rehabilitación más adecuadas y duraderas, con un campo de aplicación también muy amplio, dado que las soluciones constructivas de los cerramientos son idénticas a las adoptadas prácticamente en la totalidad de las edificaciones de La Habana Vieja Por último, se elabora un estudio comparado de los resultados alcanzados en las ciudadelas habaneras con los obtenidos en los estudios previos realizados en las corralas madrileñas, para establecer correlaciones, similitudes y diferencias que permitan adaptar y aplicar las mismas o similares soluciones para casos semejantes en una y otra tipología.
Resumo:
Propuesta sobre la mejora barrial en la localidad de ‘Mhamid Nuevo. Se pretende aportar una mirada nueva sobre las posibilidades de futuro de dicho núcleo de población en el ámbito del urbanismo, la arquitectura, la construcción, las infraestructuras y algunos puntos de encuentro entre disciplinas. El objetivo último es hacer una pequeña contribución al trabajo de las personas implicadas en el desarrollo de Mhamid, empezando por los habitantes, las asociaciones, los responsables políticos y los técnicos trabajando en el lugar. Es evidente que no se trata de un proyecto terminado sino de un paso ligado al esfuerzo de la asociación Terrachidia en los últimos dos años que, si bien se centra en el estudio y las intervenciones sobre el patrimonio material e inmaterial, también aborda otras iniciativas de desarrollo. Precisamente se trata aquí de realizar un primer acercamiento a Mhamid Nuevo desde la consolidación y mejora de las condiciones de habitabilidad cubriendo las necesidades urgentes de cobijo, espacio público, infraestructuras y servicios imprescindibles para que Mhamid siga vivo.
Resumo:
A comienzos de diciembre de 1996, Javier León, uno de los autores, impartió una conferencia en esta Escuela ante una inesperadamente grande e interesada audiencia de profesores y alumnos de todos los cursos. El tema central de aquella intervención era La construcción de un puente en el siglo XVIII, basado en el trabajo de J.R. Perronet, fundador de la Ecole des Ponts et Chaussées de Paris, precedente inmediato de nuestra Escuela de Caminos y Canales que fundara Agustín de Bediencourt en 1802. Los asistentes manifestaron un gran interés, que comparto, por las cuestiones históricas relacionadas con nuestra profesión, que comprende no sólo puentes, sino puertos, faros, canales y edificios como catedrales o torres. Su estudio debe contemplarse desde ángulos complementarios, es decir, técnicos, académicos y humanísticos, en la medida en que la obligación de mantener las joyas estructurales del pasado enseña mucho acerca del comportamiento de las de hoy. No podrían concebirse las grandes estructuras de estadios y palacios de congresos si no hubieran existido los teatros romanos o las catedrales medievales, ni se entenderían las estructuras metálicas de los siglos XIX y XX sin los precedentes de las estructuras de madera de la antigüedad. Su análisis en profundidad requiere la puesta al día de las técnicas de nuestros antepasados, que debemos conocer, como recuerda este libro que me honro en prologar. Esto comporta compilar, enseñar y practicar. Qué duda cabe que facilita enormemente las cosas (incluso las condiciona) el hecho de poseer una formación humanística que permita entender el momento histórico en que se ejecutaron tales estructuras. Ni siquiera estas cuestiones se circunscriben al ámbito local (regional o español), trascienden a nuestra vieja Europa en un sentimiento compartido de interés y de necesidad. En particular, es reseñable el enorme impulso que han dado algunas escuelas alemanas (Karlsruhe, Stuttgart, Munich, Aquisgrán, Dresde). Desde una sólida formación estructural y humanista, han conseguido estos equipos multidisciplinares poner a punto un conjunto de técnicas analíticas y constructivas que se han traducido en destacables ejemplos conocidos, como, por ejemplo, la reconstrucción y mantenimiento de edificios y estructuras tras la II Guerra Mundial. El conocimiento de los muchos textos disponibles, escritos mayoritariamente en alemán, no puede ser ignorado por los técnicos y, especialmente, por los alumnos de nuestras escuelas, cada vez más ávidos de intercambio con el exterior y, por fin, con mejor nivel de idiomas que la generación que les precede. (Merece una mención muy especial el creciente número de alumnos que, año tras año, eligen la asignatura de Alemán como idioma complementario. También crece el número de alumnos alemanes que, en virtud del programa Erasmus de intercambio, cursan sus últimos años de estudios en nuestra Escuela, con cuyo alto nivel de formación quedan satisfechos.) Por todas esas razones, contemplé con simpatía y creciente entusiasmo la iniciativa de los autores, quienes, sobre un texto en sí mismo interesante, han conseguido articular una sugerente propuesta de estudio ?tanto para el alumno como para el profesional en ejercicio? con un contenido humanista en el que idioma y lenguaje son, además, un hermoso componente práctico. Quisiera finalmente señalar que este libro es el primero de una colección que los autores están invitados a ir desarrollando, y ojala este ejemplo cunda y se siga ?entre profesores y alumnos? en otros campos. Nuestra Escuela, que posee unos fondos bibliográficos de enorme valor, verá encantada cómo éstos se difunden y cómo se configura una disciplina que la praxis, la profesión, exige ya en toda Europa.
Resumo:
En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica: Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool). Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral. Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx. Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema. Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.