990 resultados para Primeros tiempos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Leyendo distintos artículos en la Revista de Obras Públicas (Jiménez Salas, 1945) uno recuerda a las grandes figuras como Coulomb (1773), Poncelet (1840), Rankine (1856), Culmann (1866), Mohr (1871), Boussinesq (1876) y otros muchos, que construyeron la base de un conocimiento que poco a poco irían facilitando la complicada tarea que suponía la construcción. Pero sus avances eran aproximaciones que presentaban notables diferencias frente al comportamiento de la naturaleza. Esas discrepancias con la naturaleza llegó un momento que se hicieron demasiado patentes. Importantes asientos en la construcción de los modernos edificios, rotura de presas de materiales sueltos y grandes corrimientos de tierras, por ejemplo durante la construcción del canal de Panamá, llevaron a la Sociedad Americana de Ingenieros Civiles (ASCE) a crear un comité que analizase las prácticas de la construcción de la época. Hechos similares se producían en Europa, por ejemplo en desmontes para ferrocarriles, que en el caso de Suecia supusieron unas cuantiosas perdidas materiales y humanas. El ingeniero austriaco-americano Karl Terzaghi (1883) había podido comprobar, en su práctica profesional, la carencia de conocimientos para afrontar muchos de los retos que la naturaleza ofrecía. Inicialmente buscó la respuesta en la geología pero encontró que ésta carecía de la definición necesaria para la práctica de la ingeniería, por lo que se lanzó a una denodada tarea investigadora basada en el método experimental. Comenzó en 1917 con escasos medios, pero pronto llegó a desarrollar algunos ensayos que le permitieron establecer los primeros conceptos de una nueva ciencia, la Mecánica de Suelos. Ciencia que ve la luz en 1925 con la publicación de su libro Erdbaumechanik auf bodenphysikalischer Grundlage. Rápidamente otras figuras empezaron a hacer sus contribuciones científicas y de divulgación, como es el caso del ingeniero austriaco-americano Arthur Casagrande (1902), cuya iniciativa de organizar el primer Congreso Internacional de Mecánica de Suelos e Ingeniería de Cimentaciones proporcionó el altavoz que necesitaba esa nueva ciencia para su difusión. Al mismo tiempo, más figuras internacionales se fueron uniendo a este período de grandes avances e innovadores puntos de vista. Figuras como Alec Skempton (1914) en el Reino Unido, Ralph Peck (1912) en los Estados Unidos o Laurits Bjerrum (1918) en Noruega sobresalieron entre los grandes de la época. Esta tesis investiga las vidas de estos geotécnicos, artífices de múltiples avances científicos de la nueva ciencia denominada Mecánica de Suelos. Todas estas grandes figuras de la geotecnia fueron presidentes, en distintos periodos, de la Sociedad Internacional de Mecánica de Suelos e Ingeniería de Cimentaciones. Se deja constancia de ello en las biografías que han sido elaboradas a partir de fuentes de variada procedencia y de los datos cruzados encontrados sobre estos extraordinarios geotécnicos. Así, las biografías de Terzaghi, Casagrande, Skempton, Peck y Bjerrum contribuyen no solo a su conocimiento individual sino que constituyen conjuntamente un punto de vista privilegiado para la comprensión de los acontecimientos vividos por la Mecánica de Suelos en el segundo tercio del siglo XX, extendiéndose en algunos casos hasta los albores del siglo XXI. Las aportaciones científicas de estos geotécnicos encuentran también su lugar en la parte técnica de esta tesis, en la que sus contribuciones individuales iniciales que configuran los distintos capítulos conservan sus puntos de vista originales, lo que permite tener una visión de los principios de la Mecánica de Suelos desde su mismo origen. On reading several articles in the journal, Revista de Obras Públicas (Jiménez Salas, 1945), one recalls such leading figures as Coulomb (1773), Poncelet (1840), Rankine (1856), Culmann (1866), Mohr (1871) and Boussinesq (1876) among many others, who created the basis of scientific knowledge that would make the complicated task of construction progressively easier. However, their advances were approximations which suffered considerable discrepancies when faced with the behaviour of the forces of nature. There came a time when such discrepancies became all too evident. Substantial soil settlements when constructing modern buildings, embankment dam failures and grave landslides, during the construction of the Panama Canal for example, led the American Society of Civil Engineers (ASCE) to form a committee in order to analyse construction practices of the time. Similar incidents had taken place in Europe, for example with railway slides, which in the case of Sweden, had resulted in heavy losses in both materials and human lives. During the practice of his career, the Austrian-American engineer Karl Terzaghi (1883) had encountered the many challenges posed by the forces of nature and the lack of knowledge at his disposal with which to overcome them. Terzaghi first sought a solution in geology only to discover that this lacked the necessary accuracy for the practice of engineering. He therefore threw himself into tireless research based on the experimental method. He began in 1917 on limited means but soon managed to develop several tests, which would allow him to establish the basic fundamentals of a new science; Soil Mechanics, a science which first saw the light of day on the publication of Terzaghi’s book, Erdbaumechanik auf bodenphysikalischer Grundlage. Other figures were quick to make their own scientific contributions. Such was the case of Austrian-American engineer, Arthur Casagrande (1902), whose initiative to organize the first International Congress of Soil Mechanics and Foundation Engineering provided the springboard that this science needed. At the same time, other international figures were becoming involved in this period of great advances and innovative concepts. Figures including the likes of Alec Skempton (1914) in the United Kingdom, Ralph Peck (1912) in the United States, and Laurits Bjerrum (1918) in Norway stood out amongst the greatest of their time. This thesis investigates the lives of these geotechnical engineers to whom we are indebted for a great many scientific advances in this new science known as Soil Mechanics. Moreover, each of these eminent figures held the presidency of the International Society of Soil Mechanics and Foundation Engineering, record of which can be found in their biographies, drawn from diverse sources, and by crosschecking and referencing all the available information on these extraordinary geotechnical engineers. Thus, the biographies of Terzaghi, Casagrande, Skempton, Peck and Bjerrum not only serve to provide knowledge on the individual, but moreover, as a collective, they present us with an exceptional insight into the important developments which took place in Soil Mechanics in the second third of the 20th century, and indeed, in some cases, up to the dawn of the 21st. The scientific contributions of these geotechnical engineers also find their place in the technical part of this thesis in which the initial individual contributions which make up several chapters retain their original approaches allowing us a view of the principles of Soil Mechanics from its very beginnings.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A medida que se incrementa la energía de los aceleradores de partículas o iones pesados como el CERN o GSI, de los reactores de fusión como JET o ITER, u otros experimentos científicos, se va haciendo cada vez más imprescindible el uso de técnicas de manipulación remota para la interacción con el entorno sujeto a la radiación. Hasta ahora la tasa de dosis radioactiva en el CERN podía tomar valores cercanos a algunos mSv para tiempos de enfriamiento de horas, que permitían la intervención humana para tareas de mantenimiento. Durante los primeros ensayos con plasma en JET, se alcanzaban valores cercanos a los 200 μSv después de un tiempo de enfriamiento de 4 meses y ya se hacía extensivo el uso de técnicas de manipulación remota. Hay una clara tendencia al incremento de los niveles de radioactividad en el futuro en este tipo de instalaciones. Un claro ejemplo es ITER, donde se esperan valores de 450 Sv/h en el centro del toroide a los 11 días de enfriamiento o los nuevos niveles energéticos del CERN que harán necesario una apuesta por niveles de mantenimiento remotos. En estas circunstancias se enmarca esta tesis, que estudia un sistema de control bilateral basado en fuerza-posición, tratando de evitar el uso de sensores de fuerza/par, cuyo contenido electrónico los hace especialmente sensitivos en estos ambientes. El contenido de este trabajo se centra en la teleoperación de robots industriales, que debido a su reconocida solvencia y facilidad para ser adaptados a estos entornos, unido al bajo coste y alta disponibilidad, les convierte en una alternativa interesante para tareas de manipulación remota frente a costosas soluciones a medida. En primer lugar se considera el problema cinemático de teleoperación maestro-esclavo de cinemática disimilar y se desarrolla un método general para la solución del problema en el que se incluye el uso de fuerzas asistivas para guiar al operador. A continuación se explican con detalle los experimentos realizados con un robot ABB y que muestran las dificultades encontradas y recomendaciones para solventarlas. Se concluye el estudio cinemático con un método para el encaje de espacios de trabajo entre maestro y esclavo disimilares. Posteriormente se mira hacia la dinámica, estudiándose el modelado de robots con vistas a obtener un método que permita estimar las fuerzas externas que actúan sobre los mismos. Durante la caracterización del modelo dinámico, se realizan varios ensayos para tratar de encontrar un compromiso entre complejidad de cálculo y error de estimación. También se dan las claves para modelar y caracterizar robots con estructura en forma de paralelogramo y se presenta la arquitectura de control deseada. Una vez obtenido el modelo completo del esclavo, se investigan diferentes alternativas que permitan una estimación de fuerzas externas en tiempo real, minimizando las derivadas de la posición para minimizar el ruido. Se comienza utilizando observadores clásicos del estado para ir evolucionando hasta llegar al desarrollo de un observador de tipo Luenberger-Sliding cuya implementación es relativamente sencilla y sus resultados contundentes. También se analiza el uso del observador propuesto durante un control bilateral simulado en el que se compara la realimentación de fuerzas obtenida con las técnicas clásicas basadas en error de posición frente a un control basado en fuerza-posición donde la fuerza es estimada y no medida. Se comprueba como la solución propuesta da resultados comparables con las arquitecturas clásicas y sin embargo introduce una alternativa para la teleoperación de robots industriales cuya teleoperación en entornos radioactivos sería imposible de otra manera. Finalmente se analizan los problemas derivados de la aplicación práctica de la teleoperación en los escenarios mencionados anteriormente. Debido a las condiciones prohibitivas para todo equipo electrónico, los sistemas de control se deben colocar a gran distancia de los manipuladores, dando lugar a longitudes de cable de centenares de metros. En estas condiciones se crean sobretensiones en controladores basados en PWM que pueden ser destructivas para el sistema formado por control, cableado y actuador, y por tanto, han de ser eliminadas. En este trabajo se propone una solución basada en un filtro LC comercial y se prueba de forma extensiva que su inclusión no produce efectos negativos sobre el control del actuador. ABSTRACT As the energy on the particle accelerators or heavy ion accelerators such as CERN or GSI, fusion reactors such as JET or ITER, or other scientific experiments is increased, it is becoming increasingly necessary to use remote handling techniques to interact with the remote and radioactive environment. So far, the dose rate at CERN could present values near several mSv for cooling times on the range of hours, which allowed human intervention for maintenance tasks. At JET, they measured values close to 200 μSv after a cooling time of 4 months and since then, the remote handling techniques became usual. There is a clear tendency to increase the radiation levels in the future. A clear example is ITER, where values of 450 Sv/h are expected in the centre of the torus after 11 days of cooling. Also, the new energetic levels of CERN are expected to lead to a more advanced remote handling means. In these circumstances this thesis is framed, studying a bilateral control system based on force-position, trying to avoid the use of force/torque sensors, whose electronic content makes them very sensitive in these environments. The contents of this work are focused on teleoperating industrial robots, which due its well-known reliability, easiness to be adapted to these environments, cost-effectiveness and high availability, are considered as an interesting alternative to expensive custom-made solutions for remote handling tasks. Firstly, the kinematic problem of teloperating master and slave with dissimilar kinematics is analysed and a new general approach for solving this issue is presented. The solution includes using assistive forces in order to guide the human operator. Coming up next, I explain with detail the experiments accomplished with an ABB robot that show the difficulties encountered and the proposed solutions. This section is concluded with a method to match the master’s and slave’s workspaces when they present dissimilar kinematics. Later on, the research studies the dynamics, with special focus on robot modelling with the purpose of obtaining a method that allows to estimate external forces acting on them. During the characterisation of the model’s parameters, a set of tests are performed in order to get to a compromise between computational complexity and estimation error. Key points for modelling and characterising robots with a parallelogram structure are also given, and the desired control architecture is presented. Once a complete model of the slave is obtained, different alternatives for external force estimation are review to be able to predict forces in real time, minimizing the position differentiation to minimize the estimation noise. The research starts by implementing classic state observers and then it evolves towards the use of Luenberger- Sliding observers whose implementation is relatively easy and the results are convincing. I also analyse the use of proposed observer during a simulated bilateral control on which the force feedback obtained with the classic techniques based on the position error is compared versus a control architecture based on force-position, where the force is estimated instead of measured. I t is checked how the proposed solution gives results comparable with the classical techniques and however introduces an alternative method for teleoperating industrial robots whose teleoperation in radioactive environments would have been impossible in a different way. Finally, the problems originated by the practical application of teleoperation in the before mentioned scenarios are analysed. Due the prohibitive conditions for every electronic equipment, the control systems should be placed far from the manipulators. This provokes that the power cables that fed the slaves devices can present lengths of hundreds of meters. In these circumstances, overvoltage waves are developed when implementing drives based on PWM technique. The occurrence of overvoltage is very dangerous for the system composed by drive, wiring and actuator, and has to be eliminated. During this work, a solution based on commercial LC filters is proposed and it is extensively proved that its inclusion does not introduce adverse effects into the actuator’s control.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El incremento de la contaminación acústica se ha convertido en un problema medioambiental lo cual ha generado un aumento en la demanda del aislamiento de los edificios para lograr el confort acústico. Existen métodos de medición de aislamiento acústico a ruido aéreo de fachadas bajo ensayo “in situ” pero no para techos. El objetivo de esta investigación consiste en determinar el aislamiento acústico de prototipos de techos ecológicos multicapas adaptando la metodología recomendada por normas internacionales. Se propusieron cuatro prototipos de techos con distintos materiales naturales como especies vegetales y sustratos de fibra de coco, superpuestos sobre un techo base liviano. Al sustrato se le varió su espesor de 10 a 20 cm, sus condiciones seca o húmeda y su densidad: 100%, 66% y 33% fibra de coco. En los resultados se determinó que las especies vegetales no aportaron aislamiento, pero al incrementar el espesor y densidad del sustrato mejoró el aislamiento sonoro. También se determinó que el aislamiento acústico en condición seca fue mejor que en condición húmeda. Se planteó una metodología para determinar el aislamiento acústico a ruido aéreo en techos bajo ensayo “in situ” empleando el método global con altavoz, ésta se estructuró en tres partes: la primera describe el módulo experimental y la plataforma tecnológica; la segunda aborda procedimientos para medir los niveles de presión sonora, niveles de ruido de fondo y los tiempos de reverberación, en bandas de frecuencia de tercios de octava; en la tercera se explica el cálculo de los promedios de estos parámetros, así como también la diferencia de niveles estandarizada, el índice de reducción sonora aparente con sus valores globales y su incertidumbre. Así mismo, se determinó un algoritmo de predicción del aislamiento acústico, analizando los valores obtenidos en las mediciones “in situ” como la Diferencia de nivel estandarizada ponderada y el Índice ponderado de reducción sonora, los cuales se relacionaron con el peso y el espesor de los materiales de las diferentes multicapas. A través de un análisis de regresión se establecieron modelos para predecir la Diferencia de nivel estandarizada y el Índice de reducción sonora aparente en bandas de octavas. Los resultados del modelo propuesto son cercanos a los datos medidos “in situ”. Por otra parte, se realizaron mediciones térmicas en un módulo experimental y otro de referencia en tres períodos del día. En el módulo experimental se construyeron los prototipos de techos ecológicos y en el de referencia un techo de construcción tradicional, se compararon los resultados de ambos módulos y su interacción con la temperatura exterior. Se detectó que las temperaturas internas del módulo experimental en condición seca tienden a mantener sus valores durante todo el día, en horas de la mañana sus valores son superiores a los del módulo de referencia y temperatura exterior. Al mediodía y en la tarde las temperaturas internas del módulo experimental son inferiores a las del módulo de referencia, incrementándose esta última a medida que aumenta temperatura exterior. Finalmente, a partir de las mediciones “in situ” se realizaron cuatro modelos de correlación acústica-térmica, los tres primeros relacionando la temperatura y el nivel de presión sonora en tres momentos del día, en la tarde se aprecia que a medida que aumenta la temperatura aumentan los niveles de presión sonora. En el cuarto modelo se estableció una correlación acústica-térmica entre la resistencia térmica de los materiales de las multicapas con su índice de reducción sonora, obteniéndose un coeficiente de correlación moderado. La presente investigación plantea retos desde el punto de vista ambiental, permite cuantificar el aislamiento acústico de los techos y mejorar la calidad de vida en áreas urbanas; el empleo de los materiales de procedencia local como los utilizados fomenta el respeto por la naturaleza y producen un menor impacto ambiental. ABSTRACT Sound contamination increase has generated a raise in insulation demand of buildings in order to achieve a sound comfort, and this has become into an environmental problem. There are measurements methods for air borne soundproofing in facades through “in situ” test but there are not for roofs. The purpose of this research is to determine sound insulation of multilayer green roof prototypes following the methodology suggested by international standards. Four prototypes of roofs with different types of vegetation and overlapped coconut fiber substrates over a light roof were proposed. Thickness of substrate varied from 10 to 20 cm, as well as its dry a humid condition and its density: 100%, 66% y 33% of coconut fiber. Results determined that vegetation did not contribute to insulation but when increasing substrate’s thickness and density, sound insulation was improved. Likewise, it was determined that sound insulation in dry condition was greater than in humid condition. A methodology to determine airborne sound insulation in roofs through “in situ” test using a speaker global method was stated. This was structured in three parts: the first part describes the experimental module and the technological platform; the second one establishes the procedures to measure sound pressure levels; levels of background noise and time of reverberation in frequency bands of thirds of octave, and in the third part, averages of these parameters, as well as the difference of standardized levels, the apparent sound reduction with its global values and uncertainty were calculated. Likewise, a prediction algorithm of sound insulation was determined by analyzing values obtained in “in-situ” measures such as the difference of weighted standardized level and the weighted index of sound reduction which they were related to weight and thickness of different multilayer materials. Models to predict the standardized level difference and the apparent sound reduction index in bands of octaves were established by a regression analysis. Results for the proposed model are close to data measured “in situ”. On the other hand, thermal measures were done in an experimental module, as well as in another as for reference in three periods of the day. Green prototypes roofs were built in the experimental module and a traditional roof were built in the reference one. Results of both modules were compared as well as the interaction with outside temperature. Internal temperatures of the experimental module in dry condition tend to keep their values throughout the day; in the morning, its values are higher than those of the reference module and external temperatures. Finally, four models of sound-thermal correlation were done from measures “in situ”. The first three were related to temperature and sound pressure level in three moments of the day. In the afternoon, it is observed that when temperature increases, sound pressure levels increases too. In the fourth model, a sound and thermal correlation was established between thermal resistance of multilayer materials with their sound reduction index, and a moderated correlation coefficient was obtained. This research poses challenges from the environmental point of view, and it allows quantifying sound insulation of roofs as well as improving quality of life in urban areas; the use of local vegetation promotes respect for nature and it produces a smaller environmental impact as well.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el campo agrícola se producen una serie de desechos orgánicos, que por un lado representan serios problemas de contaminación ambiental y por otro el desperdicio de valores energéticos importantes. Es decir una acción contraria a la sostenibilidad que debe buscarse en este siglo XXI. Entre estos productos agrícolas pueden citarse la pulpa de café, residuos herbáceos, bagazo de caña y la fracción insoluble de estiércol de ganado porcino conocida como cerdaza. Un problema añadido para dar solución adecuada es la disponibilidad de estos solo en cortas épocas del año. Todo lo anterior ha sido el origen de la presente investigación, para dar solución adecuada tanto en el aprovechamiento de biogás como en la reducción de la contaminación. La investigación descrita en este documento contempla el desarrollo de los siguientes aspectos: 1) Caracterización y problemática de cada uno de los productos señalados, 2) la solución al problema mediante el proceso de digestión anaerobia con fases separadas con el aprovechamiento del biogás generados y 3) recomendaciones para el arranque del proceso de digestión anaerobia y su mantenimiento en una alternancia de los productos citados. En la primera etapa de la fase experimental se estimó el rendimiento específico de metano para los diferentes sustratos, utilizando reactores batch configurados en una y dos fases concluyendo que la digestión anaerobia en dos fases presenta diferentes ventajas sobre la digestión monoetapa. En general se obtuvo un mayor rendimiento en la producción de metano, una reducción en los tiempos de retención, mayor eficiencia en la eliminación de los sólidos volátiles agregados, y una mayor estabilidad en el proceso reflejado en el mantenimiento de valores de pH en los rangos de operación recomendados. Seguidamente, al comparar dos procesos para la puesta en marcha de digestores metanogénicos operados en forma continua, se concluye que las variables determinantes en la estabilidad del sistema son la alcalinidad total presente en el digestor, el establecimiento de la población de microorganismos y la carga orgánica aplicada. Las dos primeras están determinadas por la calidad y proporción del inóculo suministrado al inicio del proceso. La alternación de sustratos suministrados al sistema de digestión en dos fases, permitió determinar el impacto sobre el desempeño del mismo, registrando una reducción en la producción de biogás, la riqueza de metano y la eficiencia de eliminación de sólidos volátiles durante los primeros días de operación luego del cambio de sustrato. Este periodo corresponde al proceso de aclimatación de los microorganismos el cual requirió de 20 días para asimilar los componentes del nuevo sustrato. Finalmente, entre los sustratos analizados, la menor carga orgánica de operación para mantener la operación del sistema en continuo corresponde a la pulpa de café con 0.1 kg SV/m3. La composición de este sustrato favorece la rápida acumulación de acidez volátil en el sistema, proporcionando una tendencia a la acidificación. Sin embargo, al controlar las cargas orgánicas volumétricas, el sistema permaneció operando sin necesidad de adición de alcalinizantes. La aplicación de los resultados de la presente investigación a la problemática de residuos de café es alentadora, comprobando que el sistema puede ser operado en continuo alternando residuos boreales y pulpa de café, ambos sustratos disponibles en las plantas de procesamiento de la cereza de café. ABSTRACT In the agricultural field there are series of organic wastes, which in one hand are the source of serious problems of environmental pollution and in the other, they represent a residue that could be used as a feedstock with significant energy values. These actions are contrary to efforts towards sustainability, which should be a priority in this century. Among agricultural residues with significant abundance, the coffee pulp, herbaceous waste, sugarcane bagasse and the insoluble fraction of pig manure can be mentioned. An added problem to the development of appropriate treatment systems, which provides a solution to the disposal of such wastes, is the limited availability of these feedstocks only in short seasons. These arguments have been the source of our research, in order to provide properly measures to biogas usage and pollution reduction. The research presented in this document includes the approaches to the following aspects. 1) Characterization and problems regarding the selected feedstocks 2) the solution to the problem by anaerobic digestion process with separate phases and 3) recommendations for starting the process of anaerobic digestion and its maintenance with alternation of the products listed For the first stage of the experimental phase, the specific methane yield of the selected feedstocks was estimated using batch reactors configured in one and two phases. It was concluded that two-phase anaerobic digestion offered distinct advantages over the single-stage digestion. In general a higher methane production yields, lower retention times, higher efficiency in volatile solids removal, and increased stability among the process were obtained. When comparing two processes for starting up methanogenic digesters, it is concluded that the variables that determine the stability of the system are the total alkalinity in the digester, the establishment of the population of microorganisms and the organic load. The first variables are influenced by the proportion and quality of the inoculum supplied at the beginning of the process. The alternation of substrates gave as a result a negative impact on system performance, recording a reduction on biogas production, the methane concentration and the efficiency of volatile solids removal. The situation was observed during the first days of operation after the change of feeding. This period corresponds to the process of acclimatization of the microorganisms which required 20 days to assimilate new substrate components. Finally, among substrates studied, the lowest organic load applied to maintain a continuous operation of the system, corresponds to the coffee pulp with 0.1 kg VS / m3. The composition of this substrate promotes a rapid accumulation of volatile acidity within the system, providing a tendency to acidification. However, by controlling organic loads, the operating system remained stable without addition of alkalizing components. The application of the results of this research to the problem of coffee waste is promising, proving that an anaerobic system can be operated continuously by alternating boreal waste and coffee pulp, both substrates available in coffee processing plants.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica:  Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool).  Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral.  Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx.  Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema.  Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cuando se trata de Rem Koolhaas, su espejo no refleja una sola imagen sino múltiples, es un prisma poliédrico. Su espejo nos devuelve el Rem mediático, el intelectual, el conceptualizador, el constructor, el analista, el periodista, el actor... En el caso de esta investigación, fijamos el punto de mira en el Rem COMUNICADOR. “Rem a los dos lados del espejo” se enmarca en una investigación sobre los medios de comunicación de arquitectura, su reflejo en la producción arquitectónica y viceversa. Se trata de llegar a discernir si comunicación y producción arquitectónica colisionan y confluyen en el caso de grandes comunicadores como Rem Koolhaas, si el mensaje y el medio transmisor adquieren las mismas cualidades. Centrándose en la figura de Rem Koolhaas, la tesis aborda la evolución de su faceta comunicativa y las transformaciones sucesivas en el campo de la comunicación arquitectónica, en paralelo a su evolución conceptual a lo largo de su trayectoria. La investigación, por tanto, no se centra tanto en su componente teórica o en la práctica arquitectónica de OMA, sino en la exposición de su producción al mundo, especialmente a través de sus ensayos y libros. “Delirious New York” y “SMLXL” son un reflejo del momento conceptual en que se inscriben, y contienen mucha información sobre los referentes gráficos que irremediablemente han influido en su composición. Especialmente, la aparición de “SMLXL” supuso un revulsivo para el mundo de la comunicación arquitectónica, porque puso el foco sobre la importancia de dejar atrás un discurso narrativo linea y unifocal, para afrontar la comunicación barajando múltiples variables, y aproximaciones, en un proceso similar al desarrollo de un proyecto de arquitectura. Presenta un diseño muy novedoso y una edición extremadamente cuidada, que atiende a parámetros mucho más ambiciosos que los meramente narrativos. Profundiza en la necesidad de una temática global, planteando cuál es la aproximación más apropiada para cada uno de los proyectos que describe, transmitiendo al lector una percepción más allá de lo estrictamente visual, más próximo a lo sensorial. Además, su enorme repercusión a nivel internacional y el gran interés que despertó (no solamente entre los arquitectos, sino también entre diseñadores gráficos, publicistas, personas provenientes de todo tipo de tendencias artísticas y público en general), provocó la globalización del fenómeno de las publicaciones arquitectónicas y puso de manifiesto la importancia de la comunicación como una disciplina en sí misma, dentro de la producción arquitectónica en la era actual. A pesar de la importancia de “SMLXL” a todos los niveles, la presente tesis plantea que, donde realmente se culmina esa experiencia comunicativa, es en “Content”, al incluir nuevos parámetros relacionados con la fusión conceptual de continente y contenido. Es en esta publicación donde el objeto de la comunicación y la expresión de la misma se convierten en un único elemento, que se rige por leyes similares. En este caso, la ley fundamental es la aplicación hasta sus máximas consecuencias de la “cultura de la congestión”, tanto en el mensaje como en el medio, generando lo que hemos convenido en denominar “comunicación congestiva”. Esta concepción deviene en que necesariamente se materialice como un producto efímero, desechable, casi virtual, porque responde a las condiciones de un momento muy concreto y específico y fuera de ese contexto pierde su significación.. La “cultura de la congestión” empieza a surgir en los planteamientos de Koolhaas en la Architectural Association School of Architecture de Londres, bajo la tutela de Elia Zenghelis. Posteriormente se desarrolla en su manifiesto retroactivo sobre Manhattan, “Delirious New York”, donde declara la guerra abierta al urbanismo del movimiento moderno y afirma que la ciudad realmente contemporánea es aquella que es fruto de un desarrollo no planificado, hiperdensa y posible gracias a los avances tecnológicos de su era. Finalmente comienza a materializarse en la Diploma Unit 9 de la AA, donde entra como profesor en 1975, dejando una huella indeleble en las generaciones posteriores de arquitectos que pasaron dicha unidad. Rem Koolhaas es ante todo un intelectual y por ello, todo el constructo teórico sobre la metrópolis comienza a reflejarse en su obra a través de OMA desde el comienzo de su producción. Podemos decir a grandes rasgos que su carrera está marcada por dos hitos históricos fundamentales que determinan tres etapas diferenciadas en su producción. En sus primeros años de profesión, Koolhaas sigue fascinado por la metrópolis urbana y la aplicación del método paranoico crítico a su producción arquitectónica. Es un arquitecto profundamente surrealista. Entiende este método como una estrategia de conocimiento y aproximación al mundo que le rodea: “dejar salir el inconsciente pero sostenerlo con las muletas de la racionalidad”. Pero lo que en realidad le interesa es su aplicación a la gran escala, el “Bigness”, y por ello, participa en proyectos muy ambiciosos de los que surgen conceptos que, más allá de resultar premiados o no, han dejado una huella ideológica en el devenir de la arquitectura. Entre estos proyectos, cabe destacar su propuesta para el Parque de la Villette o la Très Grande Bibliotèque de París. Sus proyectos de esta época destilan una gran carga conceptual, que devienen en unos interiores sorprendentes pero una apariencia exterior sobria o incluso podríamos decir "povera", por el uso de materiales efímeros, poco habituales en la macro-arquitectura hasta ese momento. Súbitamente, en 1997, explotó el denominado “Efecto Bilbao”, de la mano de Frank Gehry (1). El Museo Guggenheim de Bilbao, con su espectacularidad, sus formas pregnantes e imposibles, impacta al mundo. Nace la era de la “Arquitectura del Espectáculo”; la transformación de la ciudad a través de ICONOS que actúen como nodos de atracción y concentración en torno a los cuales supuestamente se revitaliza la actividad económica, cultural y sociopolítica de la ciudad, como si a través de un único gesto se pudieran regenerar todos los tejidos internos de la urbe. Rem Koolhaas comprende rápidamente que la aproximación a la ciudad ha cambiado y, sobre todo, el mercado. En el mundo de la globalización, la única manera de llegar a materializar el “Bigness”, es encerrando sus ejercicios intelectuales en formas pregnantes, bellas, icónicas, espectaculares. Koolhaas encuentra su marca personal en la estética “Stealth”, proveniente de los aviones de combate facetados para evitar los radares, elaborados en los años 80. De esta época surgen proyectos como la Casa da Música de Oporto o la Biblioteca de Seattle; ambos edificios son iconos facetados, de belleza pregnante, que dejan una huella indeleble en la ciudad y provocan, al igual que el Guggenheim, un cierto efecto de recuperación y revitalización en el entorno en que se asientan, al menos de manera temporal. En cualquier caso, Koolhaas nunca abandona los ejercicios meramente teóricos, pero segrega su actividad en dos: OMA produce aquello que tiene vocación de ser construido y se rige por los parámetros del mercado global y AMO, la otra cara del espejo de Rem, aplica el pensamiento arquitectónico a campos no explorados, sin la dependencia de agentes externos, pudiendo permitirse ser un laboratorio puramente experimental. En este escenario, llega el 11 de septiembre de 2001 y el ataque a las Torres Gemelas de Nueva York tiene efectos devastadores a todos los niveles, significando, en un período de tiempo sorprendentemente corto, un cambio en el orden mundial. Rem Koolhaas da entonces un giro de 180 grados, dirige su mirada hacia China, donde entiende que sus aportaciones tienen un beneficio social más directo que en occidente. (2) Para presentar al mundo su nuevo cambio de rumbo y la creación del “Think Tank” AMO, plantea una gran exposición en la NeueGallerie de Berlín bajo el título de “Content”, experiencia paralela a la edición del libro con el mismo título, que inicialmente nace como “catálogo de la exposición, pero que internamente siempre se concibió como el documento más trascendente en el estudio desde “SMLXL”. Sin embargo, en muchos aspectos se trata de su opuesto: una publicación con formato revista, de tapa blanda, con paginado muy fino, formato de "folleto de supermercado" y contenido hiperdenso. Es un experimento efímero, fugaz, ligero, barato, de “usar y tirar”. De hecho, está fuera de stock, ya no se edita. Probablemente Rem Koolhaas desaprobaría que se hiciera una investigación que pusiera el foco sobre el mismo, porque diez años después de su publicación seguramente opine que su vigencia ha caducado. Sin embargo, muestra con una claridad meridiana el estado conceptual y vital de OMA en el momento de su publicación y representa, además un verdadero hito en la comunicación arquitectónica, un punto de no retorno, el máximo exponente de lo que hemos denominado “comunicación congestiva”. La presente tesis plantea que “Content” contiene la esencia de la mayor aportación de Rem Koolhaas al mundo de la arquitectura: la transformación profunda y definitiva de la comunicación arquitectónica mediante la convergencia del estado conceptual y la transmisión del mismo. Su legado arquitectónico y conceptual ha marcado a todas las generaciones posteriores de manera indeleble. Sus ensayos, sus teorías, sus proyectos y sus edificaciones ya pertenecen a la historia de la arquitectura, sin ninguna duda. Pero es su revisión del concepto de la comunicación en arquitectura lo que ha tenido y tendrá un reflejo inmediato en las generaciones futuras, no solamente en la comunicación sino en su arquitectura, a través de un intercambio biyectivo. El planteamiento a futuro sería determinar qué sucede tras “Content”, tras la hiperdensidad máxima, tras la cultura de la congestión visual; qué es lo que propone Koolhaas y qué se va a plantear también en el mundo de la comunicación arquitectónica. Para ello, estudiaremos en profundidad sus últimos proyectos relacionados con la comunicación, como su propuesta para la Biennale de Arquitectura de Venecia de 2014, su intensa investigación sobre el “Metabolismo” en “Project Japan: Metabolism Talks...”, o la dirección de sus últimos planteamientos territoriales. En los últimos tiempos Rem Koolhaas habla de “Preservación”, de “Sobriedad”, de “Esencialismo”, de “Performance”... El autor intelectual de la cultura de la congestión habla ahora de la “low density”...como no podía ser de otra manera en la otra cara del espejo. En definitiva, el color blanco como suma de todos los colores, todas las longitudes de onda del espectro visible recibidas al tiempo. ABSTRACT When talking about Rem Koolhaas, the mirror does not only reflect one but numerous images: it is nothing but a polyhedral prism. His mirror gives us the image of Rem the media celebrity, the intellectual, the conceptualizer, the builder, the analyst, the journalist, the actor... This research sets the spotlight on Rem the COMMUNICATOR. "Rem on both sides of the mirror" belongs to a research on architectural media, its influence on the architectural production and vice versa. It is aimed at getting to discern whether communication and architectural production collide and converge in the case of great communicators such as Rem Koolhaas, and whether the message and transmission media acquire the same features. Focusing on the figure of Rem Koolhaas, this thesis addresses the evolution of his communicative facet and the successive transformations in the field of architectural communication, parallel to the conceptual evolution he underwent throughout his career. Therefore, this research is not so much focused on his theoretical component or on the OMA’s architectural practice, but on the exhibition of his production to the world, especially through his essays and books. "Delirious New York" and "SMLXL" hold up a mirror to the conceptual moment they are part of, and contain a great deal of information about the graphic references that have inevitably influenced his work. Specially, the launch of "SMLXL" was a salutary shock for the architectural communication world, since it set the spotlight on the importance of leaving a linear and unifocal narrative behind in order to face communication considering multiple variables and approaches, based on a process similar to the development of an architectural project. It offers a very innovative design and an extremely careful editing, which deals with parameters much more ambitious than those merely narrative. It explores the need for a global subject and suggests the most appropriate approach for each of the projects described, giving the reader a closer insight to the sensory that goes beyond what’s strictly visual. In addition, its huge international impact and the great interest shown, not only by architects but also by graphic designers, publishers, people from all kinds of artistic trends and the general public, led to the globalisation of the architectural publications phenomenon and brought the importance of communication as a discipline in itself, within the architectural production in the age at hand, to light. Despite the importance of "SMLXL" at all levels, this thesis suggests that the communication experience really culminates in "Content", for it includes new conceptual parameters associated with the container-content conceptual fusion. It is in this book where the purpose of communication and the expression of such become a single element, ruled by similar laws. In this particular case, the fundamental law is to implement the "culture of congestion" to its extreme consequences in both the message and the media, leading to what we have agreed to refer to as "congestive communication”. This concept leads to its inevitable materialisation into an ephemeral, disposable, almost virtual product, because it meets the conditions of a very concrete and specific time, and outside that context it loses its significance. The "culture of congestion" emerged in Koolhaas’ approaches under the guidance of Elia Zenghelis, in the Architectural Association School of Architecture of London. Subsequently, his retroactive manifesto on Manhattan, "Delirious New York" developed it, waging an all-out war against the modern movement urbanism and maintaining that the really contemporary cities are those hyperdense ones that rise as a result of an unplanned development and thanks to the typical technological advances of their time. Finally it began to materialise in the Diploma Unit 9 of the AA, in which he started lecturing in 1975, leaving an indelible mark on subsequent generations of architects who passed that unit. First and foremost, Rem Koolhaas is an intellectual and, therefore, all the theoretical construct in the metropolis began to be reflected in his work through OMA since the beginnings of his production. Broadly speaking, we can say that his career is influenced by two essential historic events, which determine three different stages in his production. In the early years of his career, Koolhaas was still fascinated by the urban metropolis and the implementation of the paranoiac-critical method to his architectural production. He was then a deeply surreal architect. He understood this method as a knowledge strategy and an approach to the world around him: "let the subconscious out but hold it with the crutches of reasonableness”. However, he was actually interested in its implementation on a broad scale, the "Bigness", and therefore, he took part in ambitious projects that led to the accrual of concepts that, beyond being rewarded, left an ideological impression on the evolution of architecture. These projects included his proposal for the Parc de la Villette or the Très Grande Bibliotèque in Paris. The projects he carried out during this period showed a great conceptual background, which evolved into surprising interiors but a sober, or even "povera", exterior appearance, thanks to the use of ephemeral materials that were atypical in the macro-architecture field until that moment. Suddenly, in 1997, the so-called "Bilbao effect" boomed thanks to Frank Gehry (1). The Guggenheim Museum of Bilbao amazed the world with its spectacular nature and its pregnant and impossible shapes. It was the beginning of the era of “The architecture of spectacle”: the transformation of the city through ICONS that would act as nodes of attraction and gathering, around which the economic, cultural and socio-political activity of the city was supposed to be revitalized, as if through a single gesture all internal tissues of the city could be rebuilt. Rem Koolhaas quickly realized that the approach to the city, and especially to the global market, had changed. In the world of globalisation, the only way to get to materialise such "Bigness" was by keeping his intellectual exercises in pregnant, beautiful, iconic and spectacular shapes. Koolhaas found his personal brand in the Stealth aesthetic, resulting from the eighties American combat aircrafts whose shape was faceted in order to avoid radars. Projects such as the Casa da Música in Porto or the Seattle Library date from this period; both buildings are faceted icons of pregnant beauty that left an indelible mark on the city and caused, like the Guggenheim, some degree of recovery and revitalization on the environment in which they were based, at least temporarily. In any case, Koolhaas never gave the merely theoretical exercises up, but he segregated his work in two: OMA produced what was destined to be built and ruled by the parameters of the global market and AMO, Rem’s other side of the mirror, applied the architectural thought in unexplored fields, notwithstanding external agents and being able to work as a purely experimental laboratory. In light of this backdrop, September 11th 2001 came and the attacks on the Twin Towers in New York had devastating effects at all levels, leading to a change in the world order, in a surprisingly short period of time. Rem Koolhaas made a 180° turn directing his vision towards China, where he believed his contributions would have a more direct social benefit than in the Western world. (2) In order to introduce his new course of direction and the creation of the AMO "Think Tank", he planned a major exhibition in the Neue Nationalgalerie of Berlin under the title "Content", in parallel with edition of the book with the same title, which was at first the "exhibition catalog” but, deep down, was always conceived as the most important document of the Office since "SMLXL". However, in many ways it was just the opposite: a publication characterised by its magazine format, soft cover, very fine paging, "supermarket brochure" form and hyperdense content. It was an ephemeral, brief, light, cheap and "disposable" experiment. In fact, it is currently out of stock and out of print. Rem Koolhaas would probably disapprove of a research that sets the spotlight on him, for he would probably say that his validity has expired given that it has been ten years since its publication. However, it shows OMA’s conceptual and vital status at the time of its publication with crystalline clarity and it is also a true milestone in architectural communication. A point of no return. The epitome of the so-called "congestive communication ". This thesis suggests that "Content" contains the essence of Rem Koolhaas’ greatest contribution to the world of architecture: the deep and definitive transformation of architectural communication through the convergence of the conceptual state and the transmission thereof. His architectural and conceptual legacy has left an indelible mark on all subsequent generations. There is no doubt his essays, theories, projects and buildings already belong to the history of architecture. But it is his review on the concept of communication in architecture that has had and shall have an immediate influence on future generations, not only in their communication but also in their architecture, through a bijective exchange. Future approaches should try to determine what happens after "Content", after the maximum hyperdensity, after the visual culture of congestion; what shall Koolhaas suggest as well as what shall happen in the world of architectural communication. To this end, we shall study his latest communication-related projects, such as the design of the Venetian Architecture Biennale in 2014, his intensive research on the "Metabolism" in "Project Japan: Metabolism Talks ...", or the course of his latest territorial approaches in depth. Most recently, Rem Koolhaas has talked about "Preservation", "Sobriety" of "Essentialism", "Performance", etc. The mastermind of the culture of congestion now speaks of the "low density"... as it could not be otherwise, on the other side of the mirror. Summarizing, the white color as the sum of all colors; all wavelengths of the visible spectrum received at the same time.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El vidrio se trata de un material muy apreciado en la arquitectura debido a la transparencia, característica que pocos materiales tienen. Pero, también es un material frágil, con una rotura inmediata cuando alcanza su límite elástico, sin disponer de un período plástico, que advierta de su futura rotura y permita un margen de seguridad. Por ambas razones, el vidrio se ha utilizado en arquitectura como elemento de plementería o relleno, desde tiempos antiguos, pero no como elemento estructural o portante, pese a que es un material interesante para los arquitectos para ese uso, por su característica de transparencia, ya que conseguiría la desmaterialización visual de la estructura, logrando espacios más ligeros y livianos. En cambio, si se tienen en cuenta las propiedades mecánicas del material se puede comprobar que dispone de unas características apropiadas para su uso estructural, ya que su Módulo elástico es similar al del aluminio, elemento muy utilizado en la arquitectura principalmente en las fachadas desde los últimos años, y su resistencia a compresión es muy superior incluso al hormigón armado; aunque su principal problema es su resistencia a tracción que es muy inferior a su resistencia a compresión, lo que penaliza su resistencia a flexión. En la actualidad se empieza a utilizar el vidrio como elemento portante o estructural, pero debido a su peor resistencia a flexión, se utilizan con grandes dimensiones que, a pesar de su transparencia, tienen una gran presencia. Por ello, la presente investigación pretende conseguir una reducción de las secciones de estos elementos estructurales de vidrio. Entonces, para el desarrollo de la investigación es necesario responder a una serie de preguntas fundamentales, cuyas respuestas serán el cuerpo de la investigación: 1. ¿Cuál es la finalidad de la investigación? El objetivo de esta investigación es la optimización de elementos estructurales de vidrio para su utilización en arquitectura. 2. ¿Cómo se va a realizar esa optimización? ¿Qué sistemas se van a utilizar? El sistema para realizar la optimización será la pretensión de los elementos estructurales de vidrio 3. ¿Por qué se va a utilizar la precompresión? Porque el vidrio tiene un buen comportamiento a compresión y un mal comportamiento a tracción lo que penaliza su utilización a flexión. Por medio de la precompresión se puede incrementar esta resistencia a tracción, ya que los primeros esfuerzos reducirán la compresión inicial hasta comenzar a funcionar a tracción, y por tanto aumentará su capacidad de carga. 4. ¿Con qué medios se va a comprobar y justificar ese comportamiento? Mediante simulaciones informáticas con programas de elementos finitos. 5. ¿Por qué se utilizará este método? Porque es una herramienta que arroja ventajas sobre otros métodos como los experimentales, debido a su fiabilidad, economía, rapidez y facilidad para establecer distintos casos. 6. ¿Cómo se garantiza su fiabilidad? Mediante el contraste de resultados obtenidos con ensayos físicos realizados, garantizando de ésta manera el buen comportamiento de los programas utilizados. El presente estudio tratará de responder a todas estas preguntas, para concluir y conseguir elementos estructurales de vidrio con secciones más reducidas gracias a la introducción de la precompresión, todo ello a través de las simulaciones informáticas por medio de elementos finitos. Dentro de estas simulaciones, también se realizarán comprobaciones y comparaciones entre distintas tipologías de programas para comprobar y contrastar los resultados obtenidos, intentando analizar cuál de ellos es el más idóneo para la simulación de elementos estructurales de vidrio. ABSTRACT Glass is a material very appreciated in architecture due to its transparency, feature that just a few materials share. But it is also a brittle material with an immediate breakage when it reaches its elastic limit, without having a plastic period that provides warning of future breakage allowing a safety period. For both reasons, glass has been used in architecture as infill panels, from old times. However, it has never been used as a structural or load‐bearing element, although it is an interesting material for architects for that use: because of its transparency, structural glass makes possible the visual dematerialization of the structure, achieving lighter spaces. However, taking into account the mechanical properties of the material, it is possible to check that it has appropriate conditions for structural use: its elastic modulus is similar to that of aluminium, element widely used in architecture, especially in facades from recent years; and its compressive strength is much higher than even the one of concrete. However, its main problem consists in its tensile strength that is much lower than its compressive strength, penalizing its resistance to bending. Nowadays glass is starting to be used as a bearing or structural element, but due to its worse bending strength, elements with large dimensions must be used, with a large presence despite its transparency. Therefore this research aims to get smaller sections of these structural glass elements. For the development of this thesis, it is necessary to answer a number of fundamental questions. The answers will be the core of this work: 1. What is the purpose of the investigation? The objective of this research is the optimization of structural glass elements for its use in architecture. 2. How are you going to perform this optimization? What systems will be implemented? The system for optimization is the pre‐stress of the structural elements of glass 3. Why are you going to use the pre‐compression? Because glass has a good resistance to compression and a poor tensile behaviour, which penalizes its use in bending elements. Through the pre‐compression it is possible to increase this tensile strength, due to the initial tensile efforts reducing the pre‐stress and increasing its load capacity. 4. What are the means that you will use in order to verify and justify this behaviour? The means are based on computer simulations with finite element programs (FEM) 5. Why do you use this method? Because it is a tool which gives advantages over other methods such as experimental: its reliability, economy, quick and easy to set different cases. 6. How the reliability is guaranteed? It’s guaranteed comparing the results of the simulation with the performed physical tests, ensuring the good performance of the software. This thesis will attempt to answer all these questions, to obtain glass structural elements with smaller sections thanks to the introduction of the pre‐compression, all through computer simulations using finite elements methods. In these simulations, tests and comparisons between different types of programs will also be implemented, in order to test and compare the obtained results, trying to analyse which one is the most suitable for the simulation of structural glass elements.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La estructura urbana de Madrid comenzó a dibujarse con los primeros asentamientos fortificados del siglo IX. Sus posteriores ampliaciones estuvieron acotadas por los sucesivos recintos que delimitaron los contornos de una capital en constante expansión. De carácter inicialmente defensivo, luego fiscal y sanitario, estas estructuras estuvieron articuladas en torno a las puertas de acceso a la Villa, estableciendo un sistema general de cerramiento y comunicación que permitiera el control de personas y mercancías en su tránsito hacia el interior de la ciudad. La modestia inicial con que las puertas y tapias del recinto edificado en tiempos de Felipe IV desempeñaron sus funciones de espaldas al exterior de la Villa fue remplazada por un creciente protagonismo, de carácter simbólico y ornamental, que trascendió a su propia arquitectura para inspirar algunas de las importantes transformaciones urbanas operadas en su entorno. Relacionada principalmente con el ideal ilustrado de embellecimiento de la ciudad, la renovación de sus puertas principales se completaba con la reedificación y regularización de sus cercas, y la conformación de nuevos paseos en las afueras de la capital, cuyo trazado vertebrará en buena medida la ocupación de la periferia y la consiguiente definición de la trama urbana del Madrid de hoy. El presente trabajo de investigación indaga sobre la significación urbana de las Reales Puertas de la Villa de Madrid, a partir de la revisión de su establecimiento en los sucesivos recintos de la capital, con especial atención a las transformaciones urbanas operadas en ella desde la definición de su último límite hasta la proyección futura del Madrid ampliado según el anteproyecto de Carlos Mª de Castro. La observación conjunta de las componentes arquitectónica y urbana de las puertas de la Villa de Madrid se ofrece a partir de un relato cronológico de los hechos, fundamentado en su justificación documental y la secuencia visual registrada en la cartografía histórica de la ciudad. La incorporación de aportaciones gráficas de nueva elaboración, de carácter y alcance diversos, proporciona una superposición espacio-temporal que posibilita la lectura comparada de las arquitecturas de las Reales Puertas de la Villa de Madrid y de las transformaciones urbanas operadas a partir de ellas, determinantes en gran medida la configuración de la ciudad actual. ABSTRACT Madrid’s current urban structure has its roots in the first fortified settlements of the IX century. Its subsequent expansions due to the capital’s constant growth were limited by successive enclosures, built originally as a defense mechanism, but later used for fiscal and sanitary purposes as well. The construction of these structures pivoted around the gates that gave access to the city, establishing an enclosure that allowed control of both people and goods on their way into the city. The gates and walls originally built by Felipe IV performed their purpose with a modesty that was later replaced by an increasing symbolic and ornamental prominence, eventually surpassing their own architecture to inspire profound urban changes around them. With the purpose of embellishing the city, the main gates were renovated, the walls were rebuilt and standardized, and new avenues were laid out outside the city. These changes dictated in large part the settling on the suburbs and the resulting configuration of Madrid’s urban scene as we know it today. This research explores the urban significance of the Royal Gates of Madrid through the study of the enclosures that marked the limits of the city. Special attention is given to the urban changes since the last enclosure was established through to Carlos Mª de Castro’s draft for Madrid’s future projection. The architectonic and urban facets of Madrid’s gates are examined simultaneously in a series of chronological events, based on relevant documentation and the graphical record found in Madrid’s historic cartography. This thesis includes new graphic contributions, which allow the comparison of the architecture of the Royal Gates of Madrid as they evolved in time and space. These documents are essential in order to understand the urban transformations that took place based on the Gates, having largely determined the city’s current configuration.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo del presente estudio fue analizar si el test de velocidad crítica en natación predice adecuadamente el rendimiento específico en natación durante la competición en el MedioIronman. Para ello, 11 triatletas amateur fueron evaluados en ambas situaciones: 1) test de velocidad crítica y 2) Bloque de natación en la competición de MedioIronman. La primera situación de evaluación consistió en la realización del test de velocidad crítica en natación sobre las distancias de 200 y 400 metros, realizándose a partir de dichos datos la estimación del tiempo de la prueba de competición. La segunda situación de evaluación fue el bloque de nado en en la competición de MedioIronman. Se analizaron las diferencias y correlación entre ambos tiempos, el estimado por el test de velocidad crítica y el logrado en competición. Los resultados obtenidos confirman una relación positiva y significativa (r=0,82, p<0,05) entre la estimación del test de velocidad crítica y los tiempos obtenidos en competición. Igualmente, se observó una disminución del tiempo obtenido en competición respecto a la estimación del test, aunque dichas diferencias no fueron significativas (P = 0,16, t=7,823, gl = 10). Teniendo en cuenta estos resultados, podría afirmarse que el test de velocidad crítica predice adecuadamente los tiempos de competición de MedioIronman en triatletas amateur.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este artículo se propone analizar el debate sobre la forma de gobierno que se dio en las sesiones del Congreso Constituyente y en la prensa porteña durante 1816, como así también la posterior discusión del proyecto de constitución. Estas polémicas dieron lugar a diversas posturas acerca del ejercicio de la soberanía -monarquía o república- como sobre la titularidad de la misma -pueblos/nación-. En ese marco mostraremos que los partidarios de la unidad intentaron establecerla mediante la implantación de una monarquía constitucional y la consagración de la nación única e indivisible como sujeto de imputación de la soberanía

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La singular coyuntura de los años 1814-1816 enmarca la actividad del Congreso de Tucumán. Ante un escenario internacional de restauración monárquica y un contexto rioplatense signado por el levantamiento de Fontezuelas, el Congreso y el nuevo director supremo emanado del mismo dirigen sus acciones a consolidar su legitimidad y garantizar la gobernabilidad de los pueblos asistentes. Las sesiones secretas actúan como caja de resonancia de los múltiples frentes de intervención. El presente trabajo permite realizar un balance historiográfico del estado actual de los estudios sobre el Congreso en su etapa tucumana, aportando una lectura desde una fuente poco explorada

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo de este artículo apunta a visualizar los homenajes efectuados en memoria de Eva Perón como instancias de participación en la Resistencia peronista (1955-1963), a partir del análisis de fuentes periodísticas, informes de inteligencia y entrevistas. La observación de este tipo de prácticas nos ha permitido analizar cómo se realizó el proceso de construcción de memoria durante esta etapa y sus anclajes materiales, el carácter religioso que impregnó a dichas prácticas, y cómo la imagen de Eva Perón se constituyó en una instancia de legitimación para la participación política femenina, aunque fueron atributos conservadores los que habilitaron dicha participación

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La crisis económica en la que aún se halla inmersa la economía española ha sido especialmente procaz en el mercado laboral. Las abultadas cifras de desempleo parecen enmascarar una tétrica situación que es experimentada de desigual forma por hombres y mujeres. En este contexto, el objetivo fundamental de este artículo estriba en analizar si las diferencias de género existentes en el mercado laboral español se manifiestan del mismo modo durante la actual crisis o bien se aprecian diferencias entre la época de recesión y la inmediatamente anterior. Valorar si la crisis ha afectado por igual a los miembros de uno y otro sexo o si ha habido diferencias sustanciales entre ellos, conforma el hilo conductor de este trabajo, y en su seno evidenciar las eventuales diferencias existentes entre las empresas de Economía Social y el resto de empresas de la economía española.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los jóvenes procuran abrir espacios y tiempos distintos de los espacios y tiempos que dominan los adultos; y procuran relacionarse con formas comunicativas propias, tanto en el entorno físico (generalmente, urbano) como en el info-telemático. Para la generación y desarrollo de esas nuevas formas expresivas, aprovechan lo que les conviene de la cultura global y de las locales; de la comunicación de masas y de Internet; de los adultos y de los iguales, de las instituciones y normas sociales y de la posibilidad de transgredirlas. Sobre los sujetos sociales que son jóvenes en los comienzos del siglo XXI, y sus manifestaciones culturales, deben estar operando las transformaciones y contradicciones de su época, que ya no son las mismas que operaron sobre quienes eran jóvenes cuando se produjo la transición política en España y que hoy están en edad de ser padres de los actuales. En este artículo se ponen de relieve algunas de las circunstancias que contribuyen a la búsqueda de espacios intersticiales y a la generación de códigos adaptativos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo primero que se encontrará el lector y lectora en este cuadernillo es una breve y esquemática aproximación o contextualización histórica al uso de las redes telemáticas en política (2). Decía Wright Mills que “muchas veces tenemos que estudiar la historia para librarnos de ella”. De esta forma, una vez enmarcados y ubicados nuestros principales protagonistas, podemos olvidarnos (temporalmente) de esa historia que los ha llevado hasta donde ahora estamos. Además, en este trabajo hemos preferido optar por ecamino empírico, aquel que busca y encuentra casos prácticos a cada paso y que iluminan la senda. Muchas teorizaciones yerran sus análisis o profecías por apresurarse a afirmar categóricamente sin mirar fuera. Nosotros hemos optado por observar de cerca y quedarnos con muchos de los procesos que están, actualmente, en marcha. Es por ello que hemos dedicado gran parte de nuestra aportación a describir algunos casos que hemos valorado como relevantes: el tipo de acceso de las organizaciones sociales a las nuevas tecnologías (3.1), las movilizaciones contra la guerra y el papel de Internet en ellas (3.2) y la aparición de un nuevo movimiento social, los hackers (3.3). A continuación introducimos una pequeña encuesta de producción propia (4) que nos permitirá comparar con otros estudios realizados y sacar alguna conclusión tal vez aventurada. Finalmente dedicamos una parte considerable del estudio (5) a eso que se ha venido denominando la antiglobalización (los movimientos de resistencia a la globalización capitalista) y, en concreto, al papel de un recurso telemático nuevo y sumamente interesante, Indymedia (6), que aparece como complemento de los movimientos antes señalados. La intención final no es otra que obtener una radiografía aproximada de qué pasa y qué se mueve por las fibras y los cables de las redes que nos surcan y surcamos.