237 resultados para Carrera de Arquitectura


Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo de este proyecto se materializa en el diseño acústico y electroacústico de las salas de cine con número 18, 19, 20 y 21 del centro de cines Kinépolis situado en la Ciudad de la Imagen. Dichas salas son idénticas por lo que con el estudio y análisis de una se podrán extrapolar los resultados a las demás, por tanto a partir de ahora se realizará el diseño acústico y electroacústico centrado en la sala 18. Así pues se procederá a certificar que dicha sala cumple la norma THX. En dicho recinto se habrán aplicando con anterioridad diferentes técnicas de acondicionamiento sonoro (insonorización mediante el uso de materiales tanto absorbentes como reflectantes, arquitectura de la sala de las paredes, dimensiones... etc.>), así como todos los acondicionamientos propios de un espacio de uso público cumpliendo las consiguientes normativas de seguridad. Se analizará la sala en su estado de partida mediante medidas acústicas in-situ tanto del tiempo de reverberación como del ruido de fondo, así como medidas espaciales con un medidor de alta precisión (láser); para posteriormente realizar las simulaciones en el programa EASE 4.01 de manera que la simulación sea lo más fidedigna posible. Estas medidas se realizarán de acuerdo a lo especificado en la norma UNE-EN ISO 3382. Cuando el comportamiento acústico del modelado de la sala sea el mismo que el de la sala real (respondan con el mismo Tiempo de Reverberación), mediante la introducción de los materiales adecuados y del ruido de fondo; se procederá al diseño electroacústico del equipo necesario para implementar el sistema de sonido multicanal Dolby (R). En el estudio electroacústico se distribuirán los diferentes altavoces que correctamente insertados ajustados sus niveles y retardos cubrirán con su señal uniformemente la sala cumpliendo los requisitos de la norma Dolby (R). Y finalmente una vez propuesto el sistema electroacústico y comprobado su correcto funcionamiento y por tanto el cumplimiento de la norma THX se propondrán mejoras en el sistema. Hay que señalar que aunque las recomendaciones THX son conocidas como norma THX no es una norma como tal, sino un conjunto de recomendaciones, que aconsejan utilizar una norma u otra para cada requisito. De ahora en adelante se referirá en este documento como norma THX. Se recuerda una vez más que dado que las salas son idénticas, y que las medidas realizadas en cada una de ellas son similares, se procederá en adelante al estudio de la sala única sala, la sala 18, siendo todos los estudios, análisis, comentarios y conclusiones aplicables a las otras 3 salas. Abstract The aim of this Project is the acoustic and electroacoustic design of the projection rooms 18th, 19th, 20th and 21st of the theater kinépolis, which is located at “Ciudad de la imagen”. These rooms are equal so with the studing and analazing of one of them , the results can be extrapolted from this one to the others, therefore as from now the and electroacoustic design will focus on the 18th room. As result the room will be certified that it comply with the standard THX. The starting point of the room will be analized such on-spot acoustical measures as the reverberation time and the noise level, in the same way the spatial measurements will be make with a precise laser meter, in order to perform simulations with the data obtained with the EASE 4.01 program. These mesurements should be made in accordance with the standard UNE-EN ISO 3382. Once the acoustical behavior of the simulated room became the same as the real room (the same reverberation times), through the configuration of the suitable materials and the background noise, previously measured, the electroacoustic design of the equipment necessary to develop the multichannel sound system Dolby (R) will be completed. In the electroacoustic design the sound power level and the dealys of the speakers and its amplifiers will be configurated till amplifiers provide an uniform coverage over the entire room in compliance with the Dolby (R) standard. Finally, once an electroacoustic system will be proposed and checked it works correctly in compliance with the THX standard, posible improvements will be identified. Abstract. Acoustic and electroacoustic study of the 18th room of the movie theater Kinépolis (Madrid) It must however be pointed out that although the THX standard is known as a standard it is actually a set of recommended practices made by Lucasfilm Ltd, anyway, from now on we will call it THX standard.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En las últimas décadas se han producido importantes avances tecnológicos, lo que ha producido un crecimiento importante de las Redes Inalámbricas de Sensores (RIS), conocidas en inglés como Wireless Sensor Networks (WSN). Estas redes están formadas por un conjunto de pequeños nodos o también, conocidos como motas, compuestos por diversos tipos de sensores. Las Redes Inalámbricas de Sensores pueden resultar muy útiles en entornos donde el despliegue de redes cableadas, formadas por ordenadores, encaminadores u otros dispositivos de red no sea posible. Sin embargo, este tipo de redes presentan una serie de carencias o problemas que dificultan, en ocasiones, su implementación y despliegue. Este Proyecto Fin de Carrera tiene como principales objetivos: diseñar e implementar un agente que haga uso de la tecnología Bluetooth para que se pueda comunicar tanto con la arquitectura orientada a servicios, vía radio, como con el módulo Bioharness para obtener parámetros fisiológicos; ofrecer una serie de servicios simples a la Red Inalámbrica de Sensores; diseñar un algoritmo para un sistema de alarmas; realizar e implementar una pasarela entre protocolos que usen el estándar IEEE802.15.4 (ZigBee) y el estándar IEEE802.15.1 de la Tecnología Bluetooth. Por último, implementar una aplicación Android para el reloj WiMM y que este pueda recibir alarmas en tiempo real a través del la Interfaz Bluetooth. Para lograr estos objetivos, en primer lugar realizaremos un estudio del Estado del Arte de las Redes Inalámbricas de Sensores, con el fin de estudiar su arquitectura, el estándar Bluetooth y los dispositivos Bluetooth que se han utilizado en este Proyecto. Seguidamente, describiremos detalladamente el firmware iWRAP versión 4, centrándonos en sus modos de operación, comandos AT y posibles errores que puedan ocurrir. A continuación, se describirá la arquitectura y la especificación nSOM, para adentrarnos en la arquitectura orientada a servicios. Por último, ejecutaremos la fase de validación del sistema y se analizarán los resultados obtenidos durante la fase de pruebas. ABSTRACT In last decades there have been significant advances in technology, which has resulted in important growth of Wireless Sensor Networks (WSN). These networks consist of a small set of nodes, also known as spots; equipped with various types of sensors. Wireless Sensor Networks can be very useful in environments where deployment of wired networks, formed by computers, routers or other network devices is not possible. However, these networks have a number of shortcomings or challenges to, sometimes, their implementation and deployment. The main objectives of this Final Project are to design and implement an agent that makes use of Bluetooth technology so you can communicate with both the service-oriented architecture, via radio, as with Bioharness module for physiological parameters; offer simple services to Wireless Sensor Network, designing an algorithm for an alarm system, make and implement a gateway between protocols using the standard IEEE802.15.4 (ZigBee) and IEEE802.15.1 standard Bluetooth Technology. Finally, implement an Android application for WiMM watch that can receive real-time alerts through the Bluetooth interface. In order to achieve these objectives, firstly we are going to carry out a study of the State of the Art in Wireless Sensor Network, where we study the architecture, the Bluetooth standard and Bluetooth devices that have been used in this project. Then, we will describe in detail the iWRAP firmware version 4, focusing on their operation modes, AT commands and errors that may occur. Therefore, we will describe the architecture and specification nSOM, to enter into the service-oriented architecture. Finally, we will execute the phase of validation of the system in a real application scenario, analyzing the results obtained during the testing phase.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente proyecto fin de carrera tiene como objetivo realizar un estudio del núcleo de red en las de redes de nueva generación (NGN) y de cómo la evolución de las redes actuales hacia estos conceptos producirá un cambio en la forma de pensar y desarrollar las redes de comunicaciones del futuro. El estudio esta desglosado en tres grandes partes y se inicia con el análisis de la evolución que ha sufrido el núcleo de red en las redes de comunicaciones móviles digitales desde la implantación de las primeras redes digitales hasta la actualidad abarcando tanto la evolución de las redes troncales como de las redes de acceso así como los cambios que han tenido lugar tanto dentro de las propias estructuras de red de los operadores como la forma de interconectarse entre sus redes. Una segunda parte que constituye el cuerpo teórico del trabajo donde se estudia a nivel funcional y de arquitectura de red el desarrollo de los nuevos modelos de red proporcionados por los organismos de estandarización que dan lugar a la aparición de las redes de nueva generación (NGN) y que constituirán el siguiente paso en la evolución de las redes de comunicaciones hacia una infraestructura de red común para todas las redes de acceso actuales. Y una tercera parte que tiene como objetivo el estudio del grado de transformación que tienen que sufrir el núcleo de red en actuales redes troncales de comunicaciones móviles y terrestres, así como una valoración del estado actual de dicha integración, de las dificultades que están encontrando fabricantes y proveedores de servicio para la implementación de dichas redes en el contexto tecnológico y económico actual y su respectivo análisis de como afectará este cambio a los modelos de negocio de los proveedores de servicios de telecomunicaciones. Finalmente se estudia como se esta llevando a cabo este proceso por medio de un caso práctico de implantación e interconexión de la solución propuesta por un fabricante de equipamiento basándose en los modelos anteriormente expuestos en una red comercial de un operador en España y todas las implicaciones asociadas a esta caso concreto. The object of this work is to provide a deep view about the core network inside next generation network (NGN) and how the evolution of the current comunications networks towards the concepts introduced by these new networks brings a change in the way of think and develop communications networks of the future. This work is composed of three blocks and one real case and it starts with the analysis of the evolution of the core network in digital mobile comunications networks since the beginning of the digital mobile comunications networks deployments until nowadays both in core network side and access network side and how the providers have made changes inside their comunications infrastructure and how they interconnect them with other networks. A second part which is the central theoretical part of this work where it is studied the next generation network models stablished by telecomunications associations and how they will be the next step in the evolution of comunications networks towards a common network infrastructure for all existing access networks. A third part where it is studied the level of transformation that core network in mobile and terrestrial comunications networks have to experienced since current situation up to next generation scenarios and what it is the impact of these changes, the issues that are arising for developers, manufactures and service providers in this process, the way that these changes will improve and shift telecomunications business models and how the current economic and technological context is influencing in the whole process. Finally it is studied a actual case about a proposed solution by a manufacturer that based on the models exposed in second part take place a integration and interconection process in a the comercial network of one telecomunication service providers in Spain. This final part regards to all implications associated with this specific case.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las FPAA´s son dispositivos analógicos programables. Estos dispositivos se basan en el uso de condensadores conmutados junto con amplificadores operacionales. Este tipo de tecnología presenta una serie de ventajas, ya que combinan las ventajas de dispositivos digitales, como la reprogramación en función de las variables del entorno que los rodean, con la diferencia de ser dispositivos analógicos, permitiendo la realización de una amplia gama de diseños analógicos en un solo chip. En este proyecto se ha realizado un estudio sobre el funcionamiento de los condensadores conmutados y su uso en el dispositivo AN221E04 del fabricante Anadigm. Una vez descrita la arquitectura del AN221E04 y explicadas las bases del funcionamiento de los condensadores conmutados, utilizando como ejemplo los modelos facilitados por Anadigm, se desarrolla un modelo de amplificador de instrumentación teórico y se describe la metodología para su implementación en un AN221E04 con el software Anadigm Designer 2. Una vez implementado este modelo de amplificador de instrumentación se han efectuado una serie de pruebas con el objetivo de estudiar la capacidad de estos dispositivos. Dichas pruebas ponen de manifiesto que las FPAA´s tienen una serie de ventajas a tener en cuenta a la hora de realizar diseños analógicos. La precisión obtenida por el modelo de amplificador de instrumentación realizado es más que aceptable, llegando a obtener errores de ganancia inferiores al 1% con ganancias de 200V/V sin tener la necesidad de realizar grandes ajustes. En las conclusiones de este estudio se exponen tanto ventajas como inconvenientes de la utilización de FPAA´s en diseños analógicos. La principal ventaja de este uso es el ahorro de costes, ya que una vez desarrollada una plataforma de diseño, la capacidad de reconfiguración permite utilizar dicha plataforma para un amplio abanico de aplicaciones, reduciendo el número de componentes y simplificando las etapas de diseño. Como desventaja, las FPAA´s tienen una serie de limitaciones qué hay que tener en cuenta en ciertos casos pudiendo hacer irrealizable un diseño concreto; como puede ser el valor máximo o mínimo de ganancia. The FPAA's are programmable analog devices. These devices rely on the use of switched capacitors together with operational amplifiers. This type of technology has a number of advantages, because they combine the advantages of digital devices such as the reprogramming function of the variables of the surrounding environment, with the difference being analog devices, allowing the realization of a wide range of designs analog on a single chip. This project has conducted a study on the operation of the switched capacitor and its use in the device AN221E04 from Anadigm. Having described the architecture of AN221E04 and explained the basis for the operation of the switched capacitor, using the example models provided by Anadigm is developing an instrumentation amplifier theory model and describes the methodology for implementation in a AN221E04 with the Anadigm Designer 2 software. Once implemented this instrumentation amplifier model, have made a series of tests in order to study the ability of these devices. These tests show that the FPAA's have a number of advantages to take into account when making analog designs. The accuracy obtained by the instrumentation amplifier model is made more than acceptable, earning gain errors of less than 1% with gains of 200V / V without the need for major adjustments. The conclusions of this study are presented both advantages and disadvantages of using FPAA's in analog designs. The main advantage of this application is the cost savings, because once developed a platform for design, reconfiguration capability allows you to use this platform for a wide range of applications, reducing component count and simplifying design stages. As a disadvantage, the FPAA's have a number of limitations which must be taken into account in certain cases may make impossible a specific design, such as the maximum or minimum gain, or the magnitude of the possible settings.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El proyecto surge de la necesidad de ahorro energético mundial, debido a la contaminación producida por las distintas formas de generación de electricidad. Mejorar la eficiencia energética suele ser la forma más barata, rápida y respetuosa del medio ambiente para satisfacer las necesidades energéticas del mundo. En España la Certificación Energética de Edificios es obligatorio, por lo que surge la necesidad analizar las distintas formas y en que ámbito legal pueden ser utilizadas. Se desarrolla la necesidad de otorgar una etiqueta de eficiencia energética de la letra A a la G, siendo la A la más eficiente y la G la menos eficiente. Para saber cuál es la letra que asignamos al edificio en proceso de Certificación, se ha de usar una opción de las que se nos ofrece.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Al poco de cumplirse 70 años del primer número de la revista se rinde homenaje al que fuera uno de sus principales artífices, José Moreno Villa

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Con la llegada al trono español de Felipe V, una pléyade de arquitectos y artistas italianos y franceses fueron llamados a Madrid por la nueva dinastía borbónica para cambiar el gusto artístico de un país de cultura y costumbres ajenas. De las obras que estos arquitectos dejaron en España, nos hemos centrado en la arquitectura religiosa por ser más evidente esta influencia. Hemos analizado dos iglesias madrileñas: la de San Ignacio y la Basílica Pontificia de San Miguel (antes iglesia de los santos Justo y Pastor).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo fundamental del Proyecto Fin de Carrera es ofrecer una visión global de la arquitectura de red IMS (“IP Multimedia Subsystem”) conociendo el comportamiento de los nodos que la forman y las funcionalidades que cada uno de ellos implementa. Durante la realización del proyecto se ha tenido en cuenta que las redes IMS han transformando el sector de las telecomunicaciones debido a la gran convergencia de los servicios que ofrece. Esta tecnología presenta un amplio abanico a las aplicaciones multimedia, tanto en el entorno empresarial como residencial. Como desarrollo práctico se expone un diseño de alto nivel que consiste en la ampliación de la capacidad existente de uno de los nodos de la red IMS para un operador nacional ofreciendo el servicio ‘Business Trunking’ para grandes clientes. El objetivo destinado alcanzar con este caso práctico es el análisis del impacto que supone la inclusión de este nuevo elemento en el resto de nodos que forman la red. Consiguiendo demostrar la facilidad para el operador, a la hora de ampliar la capacidad de su red, sin olvidarnos que esto conlleva numerosos beneficios tanto a nivel de proveedor como de usuario final. The principal objective in this Final Degree Project is to provide an overview of the architect of the IMS Network, considering the behavior of nodes that integrate this network and the main functionalities that each of them implements. During the study of this Project has taken into account that IMS network has turned Telecommunications world, due to the strong convergence of the services offered. This technology shows a wide range of multimedia applications, in enterprise as much as residential environment. As a practical development a high-level design is presented. It involves the expansion of existing capacity for one of IMS network nodes for a national operator offering ‘Business Trunking’ service for enterprises. The goal to achieve in this case is to analyze the impact caused by the inclusion of this new element in the rest of the nodes within the IMS network. To manage to prove the ease of the operator, in expanding the capacity of its network, and considering IMS technology allows to obtain several benefits for both supplier and end user.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente proyecto fin de carrera consiste en el diseño, desarrollo e implementación de una aplicación informática cuya función sea la identificación de distintos ficheros de imagen, audio y video y la interpretación y presentación de los metadatos asociados a los mismos. El software desarrollado, EXTRACTORDATOS_LBS, reconocerá el tipo de formato del fichero bajo estudio a partir del análisis de los bytes de identificación contenidos en la cabecera del archivo. En base a la información registrada en dicha cabecera, la aplicación interpretará el contenido de los metadatos asociados al fichero, mostrando por pantalla aquellos que resulten de interés para el análisis de los mismos. Previamente a la implementación del software se acomete el análisis teórico de los formatos de diversos archivos multimedia, recogidos en múltiples normas y recomendaciones. Tras esa identificación, se procede al desarrollo de la aplicación EXTRACTORDATOS_LBS , que informa de los parámetros de interés contenidos en las cabeceras de los archivos. El desarrollo se ilustra con los diagramas conceptuales asociados a la arquitectura del software implementado. De igual forma, se muestran las salidas por pantalla de una serie de ficheros de muestra, y se presenta el manual de usuario de la aplicación. La versión electrónica de este documento acompaña el ejecutable que permite el análisis de los archivos. This final project consists in the design, development and implementation of a computer application whose function is the identification of different image, audio and video files and the interpretation and presentation of their metadata. The software developed, EXTRACTORDATOS_LBS, will recognize the type of the file under study through the analysis of the identification bytes contained on the file’s header. Based on information registered in this header, the application will interpret the metadata content associated to file, displaying the most interesting ones for their analysis. Prior to the software implementation, a theoretical analysis of the different formats of media files is undertaken. After this identification, the application EXTRACTORDATOS_LBS is developed. This software analyzes and displays the most interesting parameters contained in multimedia file’s header. The development of the application is illustrated with flow charts associated to the architecture of the software. Furthermore, some graphic examples of use of the program are included, as well as the user’s manual. The electronic version of this document attaches the executable file that permits file analysis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El interés cada vez mayor por las redes de sensores inalámbricos pueden ser entendido simplemente pensando en lo que esencialmente son: un gran número de pequeños nodos sensores autoalimentados que recogen información o detectan eventos especiales y se comunican de manera inalámbrica, con el objetivo final de entregar sus datos procesados a una estación base. Los nodos sensores están densamente desplegados dentro del área de interés, se pueden desplegar al azar y tienen capacidad de cooperación. Por lo general, estos dispositivos son pequeños y de bajo costo, de modo que pueden ser producidos y desplegados en gran numero aunque sus recursos en términos de energía, memoria, velocidad de cálculo y ancho de banda están enormemente limitados. Detección, tratamiento y comunicación son tres elementos clave cuya combinación en un pequeño dispositivo permite lograr un gran número de aplicaciones. Las redes de sensores proporcionan oportunidades sin fin, pero al mismo tiempo plantean retos formidables, tales como lograr el máximo rendimiento de una energía que es escasa y por lo general un recurso no renovable. Sin embargo, los recientes avances en la integración a gran escala, integrado de hardware de computación, comunicaciones, y en general, la convergencia de la informática y las comunicaciones, están haciendo de esta tecnología emergente una realidad. Del mismo modo, los avances en la nanotecnología están empezando a hacer que todo gire entorno a las redes de pequeños sensores y actuadores distribuidos. Hay diferentes tipos de sensores tales como sensores de presión, acelerómetros, cámaras, sensores térmicos o un simple micrófono. Supervisan las condiciones presentes en diferentes lugares tales como la temperatura, humedad, el movimiento, la luminosidad, presión, composición del suelo, los niveles de ruido, la presencia o ausencia de ciertos tipos de objetos, los niveles de tensión mecánica sobre objetos adheridos y las características momentáneas tales como la velocidad , la dirección y el tamaño de un objeto, etc. Se comprobara el estado de las Redes Inalámbricas de Sensores y se revisaran los protocolos más famosos. Así mismo, se examinara la identificación por radiofrecuencia (RFID) ya que se está convirtiendo en algo actual y su presencia importante. La RFID tiene un papel crucial que desempeñar en el futuro en el mundo de los negocios y los individuos por igual. El impacto mundial que ha tenido la identificación sin cables está ejerciendo fuertes presiones en la tecnología RFID, los servicios de investigación y desarrollo, desarrollo de normas, el cumplimiento de la seguridad y la privacidad y muchos más. Su potencial económico se ha demostrado en algunos países mientras que otros están simplemente en etapas de planificación o en etapas piloto, pero aun tiene que afianzarse o desarrollarse a través de la modernización de los modelos de negocio y aplicaciones para poder tener un mayor impacto en la sociedad. Las posibles aplicaciones de redes de sensores son de interés para la mayoría de campos. La monitorización ambiental, la guerra, la educación infantil, la vigilancia, la micro-cirugía y la agricultura son solo unos pocos ejemplos de los muchísimos campos en los que tienen cabida las redes mencionadas anteriormente. Estados Unidos de América es probablemente el país que más ha investigado en esta área por lo que veremos muchas soluciones propuestas provenientes de ese país. Universidades como Berkeley, UCLA (Universidad de California, Los Ángeles) Harvard y empresas como Intel lideran dichas investigaciones. Pero no solo EE.UU. usa e investiga las redes de sensores inalámbricos. La Universidad de Southampton, por ejemplo, está desarrollando una tecnología para monitorear el comportamiento de los glaciares mediante redes de sensores que contribuyen a la investigación fundamental en glaciología y de las redes de sensores inalámbricos. Así mismo, Coalesenses GmbH (Alemania) y Zurich ETH están trabajando en diversas aplicaciones para redes de sensores inalámbricos en numerosas áreas. Una solución española será la elegida para ser examinada más a fondo por ser innovadora, adaptable y polivalente. Este estudio del sensor se ha centrado principalmente en aplicaciones de tráfico, pero no se puede olvidar la lista de más de 50 aplicaciones diferentes que ha sido publicada por la firma creadora de este sensor específico. En la actualidad hay muchas tecnologías de vigilancia de vehículos, incluidos los sensores de bucle, cámaras de video, sensores de imagen, sensores infrarrojos, radares de microondas, GPS, etc. El rendimiento es aceptable, pero no suficiente, debido a su limitada cobertura y caros costos de implementación y mantenimiento, especialmente este ultimo. Tienen defectos tales como: línea de visión, baja exactitud, dependen mucho del ambiente y del clima, no se puede realizar trabajos de mantenimiento sin interrumpir las mediciones, la noche puede condicionar muchos de ellos, tienen altos costos de instalación y mantenimiento, etc. Por consiguiente, en las aplicaciones reales de circulación, los datos recibidos son insuficientes o malos en términos de tiempo real debido al escaso número de detectores y su costo. Con el aumento de vehículos en las redes viales urbanas las tecnologías de detección de vehículos se enfrentan a nuevas exigencias. Las redes de sensores inalámbricos son actualmente una de las tecnologías más avanzadas y una revolución en la detección de información remota y en las aplicaciones de recogida. Las perspectivas de aplicación en el sistema inteligente de transporte son muy amplias. Con este fin se ha desarrollado un programa de localización de objetivos y recuento utilizando una red de sensores binarios. Esto permite que el sensor necesite mucha menos energía durante la transmisión de información y que los dispositivos sean más independientes con el fin de tener un mejor control de tráfico. La aplicación se centra en la eficacia de la colaboración de los sensores en el seguimiento más que en los protocolos de comunicación utilizados por los nodos sensores. Las operaciones de salida y retorno en las vacaciones son un buen ejemplo de por qué es necesario llevar la cuenta de los coches en las carreteras. Para ello se ha desarrollado una simulación en Matlab con el objetivo localizar objetivos y contarlos con una red de sensores binarios. Dicho programa se podría implementar en el sensor que Libelium, la empresa creadora del sensor que se examinara concienzudamente, ha desarrollado. Esto permitiría que el aparato necesitase mucha menos energía durante la transmisión de información y los dispositivos sean más independientes. Los prometedores resultados obtenidos indican que los sensores de proximidad binarios pueden formar la base de una arquitectura robusta para la vigilancia de áreas amplias y para el seguimiento de objetivos. Cuando el movimiento de dichos objetivos es suficientemente suave, no tiene cambios bruscos de trayectoria, el algoritmo ClusterTrack proporciona un rendimiento excelente en términos de identificación y seguimiento de trayectorias los objetos designados como blancos. Este algoritmo podría, por supuesto, ser utilizado para numerosas aplicaciones y se podría seguir esta línea de trabajo para futuras investigaciones. No es sorprendente que las redes de sensores de binarios de proximidad hayan atraído mucha atención últimamente ya que, a pesar de la información mínima de un sensor de proximidad binario proporciona, las redes de este tipo pueden realizar un seguimiento de todo tipo de objetivos con la precisión suficiente. Abstract The increasing interest in wireless sensor networks can be promptly understood simply by thinking about what they essentially are: a large number of small sensing self-powered nodes which gather information or detect special events and communicate in a wireless fashion, with the end goal of handing their processed data to a base station. The sensor nodes are densely deployed inside the phenomenon, they deploy random and have cooperative capabilities. Usually these devices are small and inexpensive, so that they can be produced and deployed in large numbers, and so their resources in terms of energy, memory, computational speed and bandwidth are severely constrained. Sensing, processing and communication are three key elements whose combination in one tiny device gives rise to a vast number of applications. Sensor networks provide endless opportunities, but at the same time pose formidable challenges, such as the fact that energy is a scarce and usually non-renewable resource. However, recent advances in low power Very Large Scale Integration, embedded computing, communication hardware, and in general, the convergence of computing and communications, are making this emerging technology a reality. Likewise, advances in nanotechnology and Micro Electro-Mechanical Systems are pushing toward networks of tiny distributed sensors and actuators. There are different sensors such as pressure, accelerometer, camera, thermal, and microphone. They monitor conditions at different locations, such as temperature, humidity, vehicular movement, lightning condition, pressure, soil makeup, noise levels, the presence or absence of certain kinds of objects, mechanical stress levels on attached objects, the current characteristics such as speed, direction and size of an object, etc. The state of Wireless Sensor Networks will be checked and the most famous protocols reviewed. As Radio Frequency Identification (RFID) is becoming extremely present and important nowadays, it will be examined as well. RFID has a crucial role to play in business and for individuals alike going forward. The impact of ‘wireless’ identification is exerting strong pressures in RFID technology and services research and development, standards development, security compliance and privacy, and many more. The economic value is proven in some countries while others are just on the verge of planning or in pilot stages, but the wider spread of usage has yet to take hold or unfold through the modernisation of business models and applications. Possible applications of sensor networks are of interest to the most diverse fields. Environmental monitoring, warfare, child education, surveillance, micro-surgery, and agriculture are only a few examples. Some real hardware applications in the United States of America will be checked as it is probably the country that has investigated most in this area. Universities like Berkeley, UCLA (University of California, Los Angeles) Harvard and enterprises such as Intel are leading those investigations. But not just USA has been using and investigating wireless sensor networks. University of Southampton e.g. is to develop technology to monitor glacier behaviour using sensor networks contributing to fundamental research in glaciology and wireless sensor networks. Coalesenses GmbH (Germany) and ETH Zurich are working in applying wireless sensor networks in many different areas too. A Spanish solution will be the one examined more thoroughly for being innovative, adaptable and multipurpose. This study of the sensor has been focused mainly to traffic applications but it cannot be forgotten the more than 50 different application compilation that has been published by this specific sensor’s firm. Currently there are many vehicle surveillance technologies including loop sensors, video cameras, image sensors, infrared sensors, microwave radar, GPS, etc. The performance is acceptable but not sufficient because of their limited coverage and expensive costs of implementation and maintenance, specially the last one. They have defects such as: line-ofsight, low exactness, depending on environment and weather, cannot perform no-stop work whether daytime or night, high costs for installation and maintenance, etc. Consequently, in actual traffic applications the received data is insufficient or bad in terms of real-time owed to detector quantity and cost. With the increase of vehicle in urban road networks, the vehicle detection technologies are confronted with new requirements. Wireless sensor network is the state of the art technology and a revolution in remote information sensing and collection applications. It has broad prospect of application in intelligent transportation system. An application for target tracking and counting using a network of binary sensors has been developed. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices in order to have a better traffic control. The application is focused on the efficacy of collaborative tracking rather than on the communication protocols used by the sensor nodes. Holiday crowds are a good case in which it is necessary to keep count of the cars on the roads. To this end a Matlab simulation has been produced for target tracking and counting using a network of binary sensors that e.g. could be implemented in Libelium’s solution. Libelium is the enterprise that has developed the sensor that will be deeply examined. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices. The promising results obtained indicate that binary proximity sensors can form the basis for a robust architecture for wide area surveillance and tracking. When the target paths are smooth enough ClusterTrack particle filter algorithm gives excellent performance in terms of identifying and tracking different target trajectories. This algorithm could, of course, be used for different applications and that could be done in future researches. It is not surprising that binary proximity sensor networks have attracted a lot of attention lately. Despite the minimal information a binary proximity sensor provides, networks of these sensing modalities can track all kinds of different targets classes accurate enough.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Le Corbusier le hubiera gustado que le recordaran también como pintor. Igual que su compatriota E. L. Boullée, devoto como él de las formas más puras de la geometría, hubiera escrito gustoso, bajo el título de cualquiera de sus libros de Arquitectura, aquella frase: “Yo también soy pintor”. Para él, como para el ilustrado, la Arquitectura comparte una dimensión artística con la Pintura (y con la Escultura, la Música, la Poesía...etc.) que se pone de manifiesto en el proceso creativo y que está encaminada a emocionar al espectador que participa y se involucra en la obra. Arquitectura y Pintura se convierten de este modo en caminos diferentes para llegar a los mismos objetivos. Esta Tesis trata sobre el proceso de creación en la arquitectura de Le Corbusier y de cómo en él se producen continuas incursiones en el mundo de la pintura cubista. Asumiendo que es un tema sobre el que ya se ha escrito mucho ( las bibliografías de Le Corbusier y de Picasso son sin duda las más numerosas entre los artistas de sus respectivos campos) creemos que es posible ofrecer una nueva visión sobre los mecanismos que, tanto el arquitecto como el pintor, utilizaban en su trabajo. Lo que buscamos es desvelar un modo de creación, común entre ambas disciplinas, basado en el análisis de ciertos componentes artísticos capaces de ser ensamblados en composiciones sintéticas siempre nuevas, que inviten al espectador a participar del hecho creativo en una continua actividad cognoscitiva. El proyecto cubista, tanto para Le Corbusier como para Picasso, se alcanza al final de un largo camino como resultado de un profundo estudio de la realidad (en la Arquitectura, social, cultural y económica, y en la Pintura la realidad cotidiana), en el que el motivo, ya sea objeto, espacio ó luz, intenta ser “conocido” en su totalidad a través del filtro personal del artista. Es por lo tanto, algo a lo que se llega, y cuyo resultado, a priori, es desconocido. En cualquier caso, forma parte de una investigación, de un proceso continuo que intencionadamente supera la circunstancia concreta de cada ocasión. Es la coincidencia en los procesos de proyecto lo que unificará arquitecturas en principio tan dispares como la Capilla de Ronchamp, el Tribunal de Justicia de Chandigarh, o el Hospital de Venecia, y son esos procesos los que aquí, a través de varias obras concretas vamos a intentar desvelar. Es cierto que el proyecto presentado al concurso del Palacio de los Soviets de Moscú es un ejercicio brillante de Constructivismo, pero este resultado no se anunciaba al principio. Si analizamos el proceso de proyecto encontramos que inicialmente la propuesta no era muy diferente a la del Centorsoyuz, o incluso a la de la Cité de Refuge o a la del Pavillon Suisse de París. La solución final sólo se alcanzaría después de mover muchísimas veces, las piezas preseleccionadas en el solar. Cuando entendemos el Convento de la Tourette como una versión actualizada del monasterio dominico tradicional estamos haciendo una lectura parcial y engañosa de la idea de proyecto del arquitecto. En los croquis previos del archivo de la Fondation Le Corbusier encontramos otra vez las mismas ideas que en la vieja Cité de Refuge, ahora actualizadas y adaptadas al nuevo fin. Con la Asamblea de Chandigarh las similitudes son obvias e incluso aparece el mismo cubo al que se superpone una pirámide como techo, avanzando hacia el espacio central pero aquí aparece un gran hiperboloide en un interior cerrado. Este hiperboloide fue en el inicio del proyecto un cubo, y después un cilindro. Sólo al final encontró su forma óptima en un volumen de geometría reglada que en su idoneidad podría también valer para otros edificios, por ejemplo para una Iglesia. La comparación que se ha hecho de este volumen con las torres de refrigeración de Ahmedabad es puramente anecdótica pues, como veremos, esta forma se alcanza desde la lógica proyectual que sigue el pensamiento plástico de Le Corbusier, en este caso, en la adaptación del espacio cilíndrico a la luz, pero no como inspiración en las preexistencias. En todas sus obras los mecanismos que se despliegan son, en muchas ocasiones pictóricos (fragmentación analítica del objeto y del espacio, ensamblaje multidimensional, tramas subyacentes de soporte, escenografía intencionada ...etc.) y el programa en cada caso, como el motivo de los cubistas, no es más que una ocasión más para investigar una nueva forma de hacer y de entender, la Arquitectura. Cualquier proyecto del pintor-arquitecto cubista es en realidad un trabajo continuo desarrollado a lo largo de toda su vida, en el que se utilizan, una y otra vez, las mismas palabras de su vocabulario particular y personal. aunque con diferente protagonismo en cada ocasión. Se trata de alcanzar, desde ellas mismas, una perfección que las valide universalmente. Los mismos objetos, los mismos mecanismos, las mismas constantes manipulaciones del espacio y de la luz, se desplegarán, como ingredientes previos con los que trabajar, sobre el tablero de dibujo coincidiendo con el inicio de cada proyecto, para desde aquí hacer que el motivo que se trata de construir emerja, aunque a veces sea de manera incierta e inesperada, como resultado alcanzado al final. Con muchas dudas, a partir de la primera hipótesis planteada, se confirma, se añade o se elimina cada elemento según van apareciendo en el tiempo los condicionantes del solar, del programa o incluso a veces de obsesiones propias del arquitecto. El trabajo que presentamos utiliza un método inductivo que va desde los ejemplos hasta los conceptos. Empezaremos por investigar el proceso de proyecto en una obra concreta y con los mecanismos que en él se utilizan plantearemos una síntesis que los generalice y nos permitan extenderlos al entendimiento de la totalidad de su obra. Se trata en realidad de un método que en sí mismo es cubista: desde la fragmentación del objeto-proyecto procedemos a su análisis desde diversos puntos de vista, para alcanzar después su recomposición en una nueva estructura sintética. Cada mecanismo se analiza de forma independiente siguiendo un cierto orden que correspondería, supuestamente, al trabajo del arquitecto: manipulación del objeto, método compositivo, entendimiento del soporte (lienzo o espacio) y de su geometría implícita, relación con el observador, concepto y materialidad del espacio y de la luz ..etc. recurriendo a la teoría sólo en la medida en que necesitemos de ella para aclarar el exacto sentido con el que son utilizados. En nuestra incursión en el mundo de la pintura, hemos decidido acotar el Cubismo a lo que fue en realidad su periodo heroico y original, que discurrió entre 1907 y 1914, periodo en el que desarrollado casi exclusivamente por los que habían sido sus creadores, Picasso y Braque. Solo en alguna ocasión entraremos en la pintura del “tercer cubista”, Juan Gris para entender el tránsito de los mecanismos de los primeros hasta la pintura purista, pero no es nuestra intención desviar las cuestiones planteadas de un ámbito puramente arquitectónico Resulta difícil hablar del cubismo de Pablo Picasso sin hacerlo comparativamente con el de Georges Braque (para algunos especialistas es éste incluso el auténtico creador de la Vanguardia), siendo necesario enfrentar los mecanismos de ambos pintores para obtener un exacto entendimiento de lo que supuso la Vanguardia. Por eso nos parece interesante estudiar la obra de Le Corbusier en paralelo con la de otro arquitecto de tal manera que los conceptos aparezcan como polaridades entre las que situar los posibles estados intermedios. En este sentido hemos recurrido a James Stirling. Su deuda es clara con Le Corbusier, y sobre todo con el Cubismo, y como vamos a ver, los mecanismos que utiliza en su obra, siendo similares, difieren significativamente. La Tesis adquiere un sentido comparativo y aparecen así atractivas comparaciones Picasso-Le Corbusier, Braque-Stirling que se suman a las ya establecidas Picasso-Braque y Le Corbusier-Stirling. Desde ellas podemos entender mejor lo que supone trabajar con mecanismos cubistas en Arquitectura. Por último, en relación a los dibujos creados expresamente para esta Tesis, hemos de indicar que las manipulaciones que se han hecho de los originales les convierten en elementos analíticos añadidos que aclaran determinadas ideas expresadas en los croquis de sus autores. Algunos están basados en croquis del archivo de la Fondation Le Corbusier (se indican con el número del plano) y otros se han hecho nuevos para explicar gráficamente determinadas ideas. Se completa la parte gráfica con las fotografías de las obras pictóricas, los planos originales e imágenes de los edificios construidos, extraídos de los documentos de la bibliografía citada al final. Nos disponemos pues, a indagar en las obras del Cubismo, en una búsqueda de los mecanismos con los que hacía su arquitectura Le Corbusier.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La implantación de las tecnologías Internet ha permitido la extensión del uso de estrategias e-manufacturing y el desarrollo de herramientas para la recopilación, transformación y sincronización de datos de fabricación vía web. En este ámbito, un área de potencial desarrollo es la extensión del virtual manufacturing a los procesos de Performance Management (PM), área crítica para la toma de decisiones y ejecución de acciones de mejora en fabricación. Este trabajo doctoral propone un Arquitectura de Información para el desarrollo de herramientas virtuales en el ámbito PM. Su aplicación permite asegurar la interoperabilidad necesaria en los procesos de tratamiento de información de toma de decisión. Está formado por tres sub-sistemas: un modelo conceptual, un modelo de objetos y un marco Web compuesto de una plataforma de información y una arquitectura de servicios Web (WS). El modelo conceptual y el modelo de objetos se basa en el desarrollo de toda la información que se necesita para definir y obtener los diferentes indicadores de medida que requieren los procesos PM. La plataforma de información hace uso de las tecnologías XML y B2MML para estructurar un nuevo conjunto de esquemas de mensajes de intercambio de medición de rendimiento (PMXML). Esta plataforma de información se complementa con una arquitectura de servicios web que hace uso de estos esquemas para integrar los procesos de codificación, decodificación, traducción y evaluación de los performance key indicators (KPI). Estos servicios realizan todas las transacciones que permiten transformar los datos origen en información inteligente usable en los procesos de toma de decisión. Un caso práctico de intercambio de datos en procesos de medición del área de mantenimiento de equipos es mostrado para verificar la utilidad de la arquitectura. ABSTRAC The implementation of Internet technologies has led to e-Manufacturing technologies becoming more widely used and to the development of tools for compiling, transforming and synchronizing manufacturing data through the Web. In this context, a potential area for development is the extension of virtual manufacturing to Performance Measurement (PM) processes, a critical area for decision-making and implementing improvement actions in manufacturing. This thesis proposes a Information Architecture to integrate decision support systems in e-manufacturing. Specifically, the proposed architecture offers a homogeneous PM information exchange model that can be applied trough decision support in emanufacturing environment. Its application improves the necessary interoperability in decision-making data processing tasks. It comprises three sub-systems: a data model, a object model and Web Framework which is composed by a PM information platform and PM-Web services architecture. . The data model and the object model are based on developing all the information required to define and acquire the different indicators required by PM processes. The PM information platform uses XML and B2MML technologies to structure a new set of performance measurement exchange message schemas (PM-XML). This PM information platform is complemented by a PM-Web Services architecture that uses these schemas to integrate the coding, decoding, translation and assessment processes of the key performance indicators (KPIs). These services perform all the transactions that enable the source data to be transformed into smart data that can be used in the decision-making processes. A practical example of data exchange for measurement processes in the area of equipment maintenance is shown to demonstrate the utility of the architecture.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen: El camino por el que discurre la arquitectura actual, está condicionado por varios factores, entre otros: la sobre exposición económica, una marcada ambigüedad teórica y el cambio de paradigma que ha supuesto la revolución digital. En este caldo de cultivo, resulta imposible encontrar una única dirección a la que dirigirse sino más bien un amplio abanico de apuestas que de distinta forma, tratan de capear este ambiente de incertidumbre. Abstract: The current course of Architecture is conditioned by factors such as economical overexposure, deep theoretical ambiguity, or the shift of paradigm derived from the digital revolution, amongst others. In such an environment, it is no longer possible to find a single direction to follow. Instead, we find a wide range of initiatives to try to deal with this feeling of uncertainty in different ways.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El Color en el Siglo XIX: Utilización de Fondos de Colores Oscuros en los Revestimientos de Paramentos Interiores en la Arquitectura del Siglo XIX De los elementos del pasado el color es el que más rápidamente cambia y se deteriora, por lo que no podemos saber las condiciones originales de color e iluminación en los interiores que han llegado hasta nosotros. Frecuentemente nos enfrentamos a los problemas que plantean los espacios del pasado, proyectando nuestros propios criterios sobre color y luz, que no tienen que coincidir necesariamente con los criterios de épocas anteriores. En las hermosas láminas del libro de Cesar Daly ?Décorations intérieures: peintes? de 1877, observamos que los colores que decoran las paredes son sorprendentemente oscuros. La oscuridad de estos muros es más sorprendente si pensamos en la débil luz de llama que iluminaba las salas en esa época, muy inferior a los niveles de luz que nos proporciona la luz eléctrica hoy en día. No obstante, esta débil iluminación sobre paredes de tonos oscuros puede tener alguna ventaja. Las paredes y las líneas de la habitación se difuminan en las sombras, mientras los objetos brillantes que decoran la habitación, como los cuadros, los barnices de los muebles y de los instrumentos musicales, y sobre todo los trajes y los rostros, reflejan la tenue luz, destacando sobre el fondo oscuro de las paredes, convirtiéndose en el centro de una escenografía. Es lo que Lewis Mumford en su Libro ?Técnica y civilización?, llama la ?ventaja estética? del mundo oscuro de la Revolución Industrial, dominado por el uso del carbón, que contamina el ambiente, transforma el color de los edificios y produce nieblas que atenúan la luz. En este mundo, según este autor, se acrecienta la sensibilidad por la luz, y se valora como un bien preciado la luz tenue que brilla entre la niebla que disuelve los objetos, lo que podemos observar en cuadros como el de ?Lluvia, vapor y velocidad? de Turner, o ?Impressión: soleil levant? de Monet. La importancia de los fondos de color oscuro se hace evidente al comprobar cómo los diseñadores de vanguardia del siglo XX para superar el mundo caduco del XIX deciden pintar de blanco las superficies, lo que se convierte en el signo de la modernidad.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The twentieth century brought a new sensibility characterized by the discredit of cartesian rationality and the weakening of universal truths, related with aesthetic values as order, proportion and harmony. In the middle of the century, theorists such as Theodor Adorno, Rudolf Arnheim and Anton Ehrenzweig warned about the transformation developed by the artistic field. Contemporary aesthetics seemed to have a new goal: to deny the idea of art as an organized, finished and coherent structure. The order had lost its privileged position. Disorder, probability, arbitrariness, accidentality, randomness, chaos, fragmentation, indeterminacy... Gradually new terms were coined by aesthetic criticism to explain what had been happening since the beginning of the century. The first essays on the matter sought to provide new interpretative models based on, among other arguments, the phenomenology of perception, the recent discoveries of quantum mechanics, the deeper layers of the psyche or the information theories. Overall, were worthy attempts to give theoretical content to a situation as obvious as devoid of founding charter. Finally, in 1962, Umberto Eco brought together all this efforts by proposing a single theoretical frame in his book Opera Aperta. According to his point of view, all of the aesthetic production of twentieth century had a characteristic in common: its capacity to express multiplicity. For this reason, he considered that the nature of contemporary art was, above all, ambiguous. The aim of this research is to clarify the consequences of the incorporation of ambiguity in architectural theoretical discourse. We should start making an accurate analysis of this concept. However, this task is quite difficult because ambiguity does not allow itself to be clearly defined. This concept has the disadvantage that its signifier is as imprecise as its signified. In addition, the negative connotations that ambiguity still has outside the aesthetic field, stigmatizes this term and makes its use problematic. Another problem of ambiguity is that the contemporary subject is able to locate it in all situations. This means that in addition to distinguish ambiguity in contemporary productions, so does in works belonging to remote ages and styles. For that reason, it could be said that everything is ambiguous. And that’s correct, because somehow ambiguity is present in any creation of the imperfect human being. However, as Eco, Arnheim and Ehrenzweig pointed out, there are two major differences between current and past contexts. One affects the subject and the other the object. First, it’s the contemporary subject, and no other, who has acquired the ability to value and assimilate ambiguity. Secondly, ambiguity was an unexpected aesthetic result in former periods, while in contemporary object it has been codified and is deliberately present. In any case, as Eco did, we consider appropriate the use of the term ambiguity to refer to the contemporary aesthetic field. Any other term with more specific meaning would only show partial and limited aspects of a situation quite complex and difficult to diagnose. Opposed to what normally might be expected, in this case ambiguity is the term that fits better due to its particular lack of specificity. In fact, this lack of specificity is what allows to assign a dynamic condition to the idea of ambiguity that in other terms would hardly be operative. Thus, instead of trying to define the idea of ambiguity, we will analyze how it has evolved and its consequences in architectural discipline. Instead of trying to define what it is, we will examine what its presence has supposed in each moment. We will deal with ambiguity as a constant presence that has always been latent in architectural production but whose nature has been modified over time. Eco, in the mid-twentieth century, discerned between classical ambiguity and contemporary ambiguity. Currently, half a century later, the challenge is to discern whether the idea of ambiguity has remained unchanged or have suffered a new transformation. What this research will demonstrate is that it’s possible to detect a new transformation that has much to do with the cultural and aesthetic context of last decades: the transition from modernism to postmodernism. This assumption leads us to establish two different levels of contemporary ambiguity: each one related to one these periods. The first level of ambiguity is widely well-known since many years. Its main characteristics are a codified multiplicity, an interpretative freedom and an active subject who gives conclusion to an object that is incomplete or indefinite. This level of ambiguity is related to the idea of indeterminacy, concept successfully introduced into contemporary aesthetic language. The second level of ambiguity has been almost unnoticed for architectural criticism, although it has been identified and studied in other theoretical disciplines. Much of the work of Fredric Jameson and François Lyotard shows reasonable evidences that the aesthetic production of postmodernism has transcended modern ambiguity to reach a new level in which, despite of the existence of multiplicity, the interpretative freedom and the active subject have been questioned, and at last denied. In this period ambiguity seems to have reached a new level in which it’s no longer possible to obtain a conclusive and complete interpretation of the object because it has became an unreadable device. The postmodern production offers a kind of inaccessible multiplicity and its nature is deeply contradictory. This hypothetical transformation of the idea of ambiguity has an outstanding analogy with that shown in the poetic analysis made by William Empson, published in 1936 in his Seven Types of Ambiguity. Empson established different levels of ambiguity and classified them according to their poetic effect. This layout had an ascendant logic towards incoherence. In seventh level, where ambiguity is higher, he located the contradiction between irreconcilable opposites. It could be said that contradiction, once it undermines the coherence of the object, was the better way that contemporary aesthetics found to confirm the Hegelian judgment, according to which art would ultimately reject its capacity to express truth. Much of the transformation of architecture throughout last century is related to the active involvement of ambiguity in its theoretical discourse. In modern architecture ambiguity is present afterwards, in its critical review made by theoreticians like Colin Rowe, Manfredo Tafuri and Bruno Zevi. The publication of several studies about Mannerism in the forties and fifties rescued certain virtues of an historical style that had been undervalued due to its deviation from Renacentist canon. Rowe, Tafuri and Zevi, among others, pointed out the similarities between Mannerism and certain qualities of modern architecture, both devoted to break previous dogmas. The recovery of Mannerism allowed joining ambiguity and modernity for first time in the same sentence. In postmodernism, on the other hand, ambiguity is present ex-professo, developing a prominent role in the theoretical discourse of this period. The distance between its analytical identification and its operational use quickly disappeared because of structuralism, an analytical methodology with the aspiration of becoming a modus operandi. Under its influence, architecture began to be identified and studied as a language. Thus, postmodern theoretical project discerned between the components of architectural language and developed them separately. Consequently, there is not only one, but three projects related to postmodern contradiction: semantic project, syntactic project and pragmatic project. Leading these projects are those prominent architects whose work manifested an especial interest in exploring and developing the potential of the use of contradiction in architecture. Thus, Robert Venturi, Peter Eisenman and Rem Koolhaas were who established the main features through which architecture developed the dialectics of ambiguity, in its last and extreme level, as a theoretical project in each component of architectural language. Robert Venturi developed a new interpretation of architecture based on its semantic component, Peter Eisenman did the same with its syntactic component, and also did Rem Koolhaas with its pragmatic component. With this approach this research aims to establish a new reflection on the architectural transformation from modernity to postmodernity. Also, it can serve to light certain aspects still unaware that have shaped the architectural heritage of past decades, consequence of a fruitful relationship between architecture and ambiguity and its provocative consummation in a contradictio in terminis. Esta investigación centra su atención fundamentalmente sobre las repercusiones de la incorporación de la ambigüedad en forma de contradicción en el discurso arquitectónico postmoderno, a través de cada uno de sus tres proyectos teóricos. Está estructurada, por tanto, en torno a un capítulo principal titulado Dialéctica de la ambigüedad como proyecto teórico postmoderno, que se desglosa en tres, de títulos: Proyecto semántico. Robert Venturi; Proyecto sintáctico. Peter Eisenman; y Proyecto pragmático. Rem Koolhaas. El capítulo central se complementa con otros dos situados al inicio. El primero, titulado Dialéctica de la ambigüedad contemporánea. Una aproximación realiza un análisis cronológico de la evolución que ha experimentado la idea de la ambigüedad en la teoría estética del siglo XX, sin entrar aún en cuestiones arquitectónicas. El segundo, titulado Dialéctica de la ambigüedad como crítica del proyecto moderno se ocupa de examinar la paulatina incorporación de la ambigüedad en la revisión crítica de la modernidad, que sería de vital importancia para posibilitar su posterior introducción operativa en la postmodernidad. Un último capítulo, situado al final del texto, propone una serie de Proyecciones que, a tenor de lo analizado en los capítulos anteriores, tratan de establecer una relectura del contexto arquitectónico actual y su evolución posible, considerando, en todo momento, que la reflexión en torno a la ambigüedad todavía hoy permite vislumbrar nuevos horizontes discursivos. Cada doble página de la Tesis sintetiza la estructura tripartita del capítulo central y, a grandes rasgos, la principal herramienta metodológica utilizada en la investigación. De este modo, la triple vertiente semántica, sintáctica y pragmática con que se ha identificado al proyecto teórico postmoderno se reproduce aquí en una distribución específica de imágenes, notas a pie de página y cuerpo principal del texto. En la columna de la izquierda están colocadas las imágenes que acompañan al texto principal. Su distribución atiende a criterios estéticos y compositivos, cualificando, en la medida de lo posible, su condición semántica. A continuación, a su derecha, están colocadas las notas a pie de página. Su disposición es en columna y cada nota está colocada a la misma altura que su correspondiente llamada en el texto principal. Su distribución reglada, su valor como notación y su posible equiparación con una estructura profunda aluden a su condición sintáctica. Finalmente, el cuerpo principal del texto ocupa por completo la mitad derecha de cada doble página. Concebido como un relato continuo, sin apenas interrupciones, su papel como responsable de satisfacer las demandas discursivas que plantea una investigación doctoral está en correspondencia con su condición pragmática.