907 resultados para Diámetro a la altura de pecho
Resumo:
El problema que afrontó este trabajo de investigación fue determinar, si existe relación entre las medias de los diferentes test de aptitud física y el nivel de actividad corporal de los alumnos del nivel secundario. Los test realizados fueron los siguientes: Test de leger, test de abdominales 30 seg, test de Sit And Reach (SR), peso, altura y preguntas relacionadas con la practica corporal que realizan. Se trabajó con adolescentes de entre 13 a 15 años, todos de escuelas técnicas públicas de la Ciudad Autónoma de Buenos Aires, durante el tercer trimestre del ciclo lectivo 2014. En base a los resultados dados, las variables investigadas como objeto de estudio, develan que el tipo de práctica corporal que realicen los alumnos influye en el nivel de aptitud física
Resumo:
El rock nacional es desde hace varias décadas objeto de investigación de la sociología de la cultura. En efecto, éste se ha constituido en un espacio privilegiado para explorar las prácticas y representaciones de grupos etarios y clases sociales. A esta altura, podríamos decir que ya existe una historia y una serie de conceptos más o menos consagrados por ese corpus de la bibliografía que ha estudiado el rock nacional guiado por el interés de conocer los procesos de transformación de la cultura y la sociedad. El 30 de diciembre del 2004, en la ciudad de Buenos Aires, se produjo un acontecimiento que muchos especialistas consideran un punto de inflexión en la historia de una de las vertientes del rock local: el incendio en el boliche República de Cromañón mientras una banda de rock barrial realizaba un recital. Esa noche se produjo la muerte de ciento noventa y cuatro personas. A raíz de lo sucedido, se abrieron varios debates. Algunos en torno a la pirotecnia utilizada en los recitales de éste tipo de rock y a las prácticas de los jóvenes dentro de éstos espacios; otros en relación a la negligencia del Estado; a la irresponsabilidad del dueño del boliche; a las responsabilidades políticas, entre otros. Sin embargo, nuestro interés no es tallar en esa discusión desde la opinión más o menos experta, sino explorar cómo se relaciona ese acontecimiento con las prácticas y representaciones de determinados agentes sociales que ayudan a producir esa vertiente del rock denominada rock chabón. Con datos recogidos en entrevistas en profundidad dirigidas a un universo pequeño pero variado de actores del campo rock, intentamos explorar los primeros indicios que nos muestran que efectivamente algunos cambios parecen estar produciéndose, aunque como veremos a lo largo de la tesina, esas modificaciones no son elaboradas y categorizadas de la misma manera por los distintos sujetos que investigamos. Es en la variedad de los procesos reflexivos de los actores frente a la conmoción de un acontecimiento como el de "Cromañón", donde intentamos buscar esos indicios, antes que en la opinión fundada o no de especialistas, críticos o artistas consagrados
Resumo:
La Orientación y la Diversidad, para la generalidad de los países Europeos y América del Norte, se relaciona con la atención a los niños(as) y jóvenes con necesidades especiales que asisten a una institución educativa y para quienes se elaboran programas educativos dirigidos a lograr una mejor adaptación al sistema social prevaleciente. En la mayoría de los casos se considera que la problemática de las necesidades especiales es imputable a factores genéticos o personales que sólo responden a factores internos a los individuos que las presentan obviando los factores externos, que en algunos casos pueden resultar más determinantes y decisivos a la hora de la manifestación conductual. En este trabajo se aboga porque los profesionales de la orientación, tanto en la práctica privada o pública de los países europeos, hagan consideraciones más específicas al momento de atender a niños (as), jóvenes y adultos(as), en su condición de inmigrantes, provenientes de América Latina. En un sentido amplio se propone hacer Orientación en la Diversidad más que Orientación para la Diversidad bajo la concepción de una Orientación para Todos que implica la eliminación de la expresión "necesidades especiales", cuya connotación en nuestros países no resulta la más apropiada, y que incluye la idea de una Orientación Étnica. Quizás la mejor manera de abordaje de estas concepciones es promoviendo un proceso de Orientación desde la Escuela y no sólo en la Escuela.
Resumo:
El presente Proyecto Fin de Carrera forma parte de un Estudio más amplio llevado a cabo por la Unidad de Anatomía, Fisiología y Genética de la E.T.S.I. de Montes y la Unidad Docente de Dasometría, Ordenación de Montes y Aprovechamientos Forestales del Departamento de Economía y Gestión Forestal de la E.U.I.T. Forestal ambos pertenecientes a la Universidad Politécnica de Madrid. El objetivo general de dicho estudio es analizar el estado actual del rebollar en las “Matas de Valsaín”, desde la caracterización de la masa y la gestión a nivel de monte hasta el efecto de la cepa en el crecimiento del árbol individual. Los objetivos concretos del presente Proyecto de Fin de Carrera son los siguientes: 1. Análisis de la evolución histórica de la Ordenación a través del Proyecto de Ordenación y las dos revisiones elaboradas hasta la fecha para conocer el estado de las masas y sus tratamientos pasados. 2. Caracterización Estructural de los rebollares de acuerdo con la clave tipológica utilizadas para los rebollares de la Comunidad de Madrid (Serrada et al., 1993) a partir de los inventarios de la 1ª Revisión, de 1993 y la 2ª Revisión, de 2003. 3. Análisis de la influencia de la clonalidad en el crecimiento en altura media y en el crecimiento en sección del árbol individual y determinación del efecto de la competencia entre pies de la misma cepa y entre cepas en dicho crecimiento.
Resumo:
El objetivo del presente trabajo es estudiar el comportamiento frente a la corrosión de barras de acero de armar embebidas en probetas de mortero, en las que se ha sustituido parcialmente el árido y el cemento por escorias blancas de horno cuchara (LFS) y se ha añadido en el momento del amasado distintos porcentajes de ión cloruro, en peso de cemento. Se han fabricado probetas prismáticas de 6x8x2 cm3, en las que se han embebido 3 barras de acero de diámetro 6 mm, con el fin de comparar el potencial de corrosión y la velocidad de corrosión, en las probetas patrón y en las probetas con escorias. Los resultados alcanzados permiten afirmar que el comportamiento frente a la corrosión inducida por iones cloruro en barras de acero embebidas en probetas patrón y en probetas fabricadas parcialmente con escorias blancas de horno cuchara son semejantes, tanto en las velocidades de corrosión alcanzadas como en el umbral de cloruros que produce la despasivación del acero.
Resumo:
El objetivo del presente trabajo es estudiar la sintomatología que produce la corrosión de barras de acero de armar embebidas en probetas de mortero, en las que se han incorporado escorias blancas de horno cuchara (LFS) sustituyendo parte del árido y del cemento y añadiéndose en el momento del amasado, distintos porcentajes de ión cloruro en peso de cemento. Se han fabricado probetas prismáticas de 6x8x2cm3, en las que se han embebido 3 barras de acero de diámetro 6 mm, en las cuales se ha estudiado el comportamiento a corrosión en probetas con presencia de cloruros durante 180 días. Posteriormente se ha corroído aceleradamente la barra central de las probetas con porcentajes de ión cloruro del 1,2 y 2%, conectándolas a una fuente de corriente para hacer pasar un intensidad constante de 1,3mA, equivalente a una corrosión10?A/mm2. Una vez observados los efectos que la corrosión produce en las barras de acero de armar mediante medidas de velocidad de corrosión, técnicas gravimétricas y observación de la sintomatología, se puede afirmar que el comportamiento es similar en las probetas patrón y en las probetas con escorias para porcentajes de 1,2 y 2% de ión cloruro en peso de cemento.
Resumo:
Artículo técnico en revista especializada
Resumo:
La simulación de accidentes de rotura pequeña en el fondo de la vasija se aparta del convencional análisis de LOCA de rama fría, el más limitante en los análisis deterministas La rotura de una de las penetraciones de instrumentación de la vasija ha sido desestimada históricamente en los análisis de licencia y en los Análisis Probabilistas de Seguridad y por ello, hay una falta evidente de literatura para dicho análisis. En el año 2003 durante una inspección, se detectó una considerable corrosión en el fondo de la vasija de South Texas Project Unit I NPP. La evolución en el tiempo de dicha corrosión habría derivado en una pequeña rotura en el fondo de la vasija si su detección no se hubiera producido a tiempo. La OECD/NEA consideró la importancia de simular dicha secuencia en la instalación experimental ROSA, la cual fue reproducida posteriormente por grupos de investigación internacionales con varios códigos de planta. En este caso el código utilizado para la simulación de las secuencias experimentales es TRACE. Tanto en el experimento como en la simulación se observaron las dificultades de reinundar la vasija al tener la rotura en el fondo de la misma, haciendo clave la gestión del accidente por parte del operador. Dadas las condiciones excesivamente conservadoras del test experimental, como el fallo de los dos trenes de inyección de alta presión durante todo el transitorio, en las aplicaciones de los experimentos con modelo de Almaraz NPP, se ha optado por reproducir dicho accidente con condiciones más realistas, verificando el impacto en los resultados de la disponibilidad de los trenes de inyección de alta presión o los tiempos de las acciones manuales del operador, como factores más limitantes y estableciendo el diámetro de rotura en 1”
Resumo:
El objetivo principal de este trabajo es el diseño de un silo experimental concebido para el ensayo de explosiones de polvo venteadas. Este equipo permitirá avanzar en el conocimiento de todas las variables que intervienen en el fenómeno de la explosión y del venteo; y también avanzar en el diseño de dispositivos de protección más eficaces. Gracias a su diseño modular se pretende disponer de una herramienta abierta a multitud de posibilidades de ensayo, pudiendo variar factores con gran influencia en el desarrollo de la explosión, como el área de venteo, el volumen del silo y su relación altura/diámetro (L/D).
Resumo:
Se ha caracterizado la infiltración de un suelo colocado en una columna de suelo de metacrilato, de base hexagonal de diagonal 1 m y 0,6 m de alto, con una densidad aparente de 1,5 g/cm3. El procedimiento utilizado ha sido la fibra óptica y el método denominado “Active Heating pulse method with Fiber Optic temperature sensing” AHFO method, que consiste en emitir un pulso óptico con láser y medir en el tiempo la señal reflejada, de baja intensidad, en diferentes puntos de la fibra óptica. Del espectro de luz reflejada solamente un rango de frecuencias específico, determinado por análisis de frecuencia, se correlaciona con la temperatura. La precisión en la medida es de ± 0,1ºC en una distancia de ± 12,5 cm. En el interior de la columna se colocó el cable de fibra óptica formando tres hélices concéntricas separadas 20 cm , 40 cm y 60 cm del centro. Asimismo, se cubrió la superficie del suelo con una altura media de agua que osciló entre 1,5 a 2,5 cm a lo largo de los 140 min que duró el proceso de calentamiento del cable. El incremento de temperatura antes y después del calentamiento se utilizó para determinar la infiltración instantánea a partir de la expresión de Perzlmaeir et al (2004) y de los números adimensional de Nusselt y Prandtl. Considerando los errores inherentes al procedimiento de cálculo, los resultados muestran que el AHFO method es una herramienta útil en el estudio de la variabilidad espacial de la infiltración en el suelo que permite, además, determinar su valor. Asimismo, muestra su potencial para incluir dichas estimaciones en la calibración de modelos relacionados con la gestión de recursos hídricos.
Resumo:
La mayoría de las estructuras de hormigón pretensadas construidas en los últimos 50 años han demostrado una excelente durabilidad cuando su construcción se realiza atendiendo las recomendaciones de un buen diseño así como una buena ejecución y puesta en obra de la estructura. Este hecho se debe en gran parte al temor que despierta el fenómeno de la corrosión bajo tensión típico de las armaduras de acero de alta resistencia. Menos atención se ha prestado a la susceptibilidad a la corrosión bajo tensión de los anclajes de postensado, posiblemente debido a que se han reportado pocos casos de fallos catastróficos. El concepto de Tolerancia al Daño y la Mecánica de la Fractura en estructuras de Ingeniería Civil ha empezado a incorporarse recientemente en algunas normas de diseño y cálculo de estructuras metálicas, sin embargo, aún está lejos de ser asimilado y empleado habitualmente por los ingenieros en sus cálculos cuando la ocasión lo requiere. Este desconocimiento de los aspectos relacionados con la Tolerancia al Daño genera importantes gastos de mantenimiento y reparación. En este trabajo se ha estudiado la aplicabilidad de los conceptos de la Mecánica de la Fractura a los componentes de los sistemas de postensado empleados en ingeniería civil, empleándolo para analizar la susceptibilidad de las armaduras activas frente a la corrosión bajo tensiones y a la pérdida de capacidad portante de las cabezas de anclajes de postensado debido a la presencia de defectos. Con este objeto se han combinado tanto técnicas experimentales como numéricas. Los defectos superficiales en los alambres de pretensado no se presentan de manera aislada si no que existe una cierta continuidad en la dirección axial así como un elevado número de defectos. Por este motivo se ha optado por un enfoque estadístico, que es más apropiado que el determinístico. El empleo de modelos estadísticos basados en la teoría de valores extremos ha permitido caracterizar el estado superficial en alambres de 5,2 mm de diámetro. Por otro lado la susceptibilidad del alambre frente a la corrosión bajo tensión ha sido evaluada mediante la realización de una campaña de ensayos de acuerdo con la actual normativa que ha permitido caracterizar estadísticamente su comportamiento. A la vista de los resultados ha sido posible evaluar como los parámetros que definen el estado superficial del alambre pueden determinar la durabilidad de la armadura atendiendo a su resistencia frente a la corrosión bajo tensión, evaluada mediante los ensayos que especifica la normativa. En el caso de las cabezas de anclaje de tendones de pretensado, los defectos se presentan de manera aislada y tienen su origen en marcas, arañazos o picaduras de corrosión que pueden producirse durante el proceso de fabricación, transporte, manipulación o puesta en obra. Dada la naturaleza de los defectos, el enfoque determinístico es más apropiado que el estadístico. La evaluación de la importancia de un defecto en un elemento estructural requiere la estimación de la solicitación local que genera el defecto, que permite conocer si el defecto es crítico o si puede llegar a serlo, si es que progresa con el tiempo (por fatiga, corrosión, una combinación de ambas, etc.). En este trabajo los defectos han sido idealizados como grietas, de manera que el análisis quedara del lado de la seguridad. La evaluación de la solicitación local del defecto ha sido calculada mediante el empleo de modelos de elementos finitos de la cabeza de anclaje que simulan las condiciones de trabajo reales de la cabeza de anclaje durante su vida útil. A partir de estos modelos numéricos se ha analizado la influencia en la carga de rotura del anclaje de diversos factores como la geometría del anclaje, las condiciones del apoyo, el material del anclaje, el tamaño del defecto su forma y su posición. Los resultados del análisis numérico han sido contrastados satisfactoriamente mediante la realización de una campaña experimental de modelos a escala de cabezas de anclaje de Polimetil-metacrilato en los que artificialmente se han introducido defectos de diversos tamaños y en distintas posiciones. ABSTRACT Most of the prestressed concrete structures built in the last 50 years have demonstrated an excellent durability when they are constructed in accordance with the rules of good design, detailing and execution. This is particularly true with respect to the feared stress corrosion cracking, which is typical of high strength prestressing steel wires. Less attention, however, has been paid to the stress corrosion cracking susceptibility of anchorages for steel tendons for prestressing concrete, probably due to the low number of reported failure cases. Damage tolerance and fracture mechanics concepts in civil engineering structures have recently started to be incorporated in some design and calculation rules for metallic structures, however it is still far from being assimilated and used by civil engineers in their calculations on a regular basis. This limited knowledge of the damage tolerance basis could lead to significant repair and maintenance costs. This work deals with the applicability of fracture mechanics and damage tolerance concepts to the components of prestressed systems, which are used in civil engineering. Such concepts have been applied to assess the susceptibility of the prestressing steel wires to stress corrosion cracking and the reduction of load bearing capability of anchorage devices due to the presence of defects. For this purpose a combination of experimental work and numerical techniques have been performed. Surface defects in prestressing steel wires are not shown alone, though a certain degree of continuity in the axial direction exist. A significant number of such defects is also observed. Hence a statistical approach was used, which is assumed to be more appropriate than the deterministic approach. The use of statistical methods based in extreme value theories has allowed the characterising of the surface condition of 5.2 mm-diameter wires. On the other hand the stress corrosion cracking susceptibility of the wire has been assessed by means of an experimental testing program in line with the current regulations, which has allowed statistical characterisasion of their performances against stress corrosion cracking. In the light of the test results, it has been possible to evaluate how the surface condition parameters could determine the durability of the active metal armour regarding to its resistance against stress corrosion cracking assessed by means of the current testing regulations. In the case of anchorage devices for steel tendons for prestressing concrete, the damage is presented as point defects originating from dents, scratches or corrosion pits that could be produced during the manufacturing proccess, transport, handling, assembly or use. Due to the nature of these defects, in this case the deterministic approach is more appropriate than the statistical approach. The assessment of the relevancy of defect in a structural component requires the computation of the stress intensity factors, which in turn allow the evaluation of whether the size defect is critical or could become critical with the progress of time (due to fatigue, corrosion or a combination of both effects). In this work the damage is idealised as tiny cracks, a conservative hypothesis. The stress intensity factors have been calculated by means of finite element models of the anchorage representing the real working conditions during its service life. These numeric models were used to assess the impact of some factors on the rupture load of the anchorage, such the anchorage geometry, material, support conditions, defect size, shape and its location. The results from the numerical analysis have been succesfully correlated against the results of the experimental testing program of scaled models of the anchorages in poly-methil methacrylate in which artificial damage in several sizes and locations were introduced.
Resumo:
La construcción de túneles en suelos y rocas blandas y/o muy diaclasadas presenta mayores inconvenientes en la estabilidad del frente e incluso es frecuente que ocurran colapsos. [1]. Otro obstáculo con el cual se encuentran en la mayoría de los casos al realizar un túnel es la heterogeneidad del terreno. La mayoría de los estudios que se refieren a la estabilidad del frente proponen mecanismos de rotura que consideran el terreno como un material homogéneo. En el presente trabajo se analiza la influencia de los estratos en base a sus propiedades resistentes, la ubicación del mismo y geometría. Éste análisis se realiza a través de un mecanismo de rotura. Se trata de un mecanismo rotacional de un bloque rígido correspondiente a una solución de contorno superior basado en el mecanismo propuesto por Mollon. El mecanismo se desarrolla en el programa de MatLab. El terreno es divido en dos estratos, uno resistente y uno suelto. La programación permite variar las propiedades del terreno de acuerdo a la cota de los estratos. Esta variación de propiedades permite analizar la influencia de los estratos de acuerdo a la ubicación de los mismos con respecto a la superficie y posición en el frente. A fin de evaluar el mecanismo, los resultados son comparados con aquellos obtenidos con la herramienta FLAC y el mecanismo propuesto por Broere para suelos estratificados. Se puede observar que existe una buena convergencia entre el mecanismo propuesto y el desarrollado en FLAC, sin embargo, no ocurre lo mismo con el mecanismo multicapas propuesto por Broere. A partir de los casos analizados, se elaboraron gráficas en las cuales se presentan diferentes perspectivas de la variación de la presión de acuerdo a la posición de los estratos y sus propiedades. Permiten, además, analizar la relación entre la presión necesaria en el caso de tener un terreno resistente con un espesor igual al diámetro del túnel y la necesaria si el terreno suelto se encuentra a la cota inferior del diámetro del túnel.
Resumo:
La Basílica de la Virgen de los Desamparados, construida entre 1652 y 1667, es el edificio valenciano más importante del siglo XVII (Bérchez 1995). Su elemento más notables es la gran cúpula oval que, en planta, aparece inscrita en un trapezoide. Esta disposición fue muy popular en el Barroco y tiene su origen en los proyectos de Vignola para Sant Andrea in Via Flaminia (1550) y Sant= Anna dei Palafraneri (1572), véase Lotz (1955). En España se construyeron varias cúpulas ovales hacia 1600 (Rodríguez G. de Ceballos 1983); la más grande es la del convento de las Recoletas Bernardas in Alcalá de Henares, 1617-1626, con ejes de 25 x 18 m, y una altura de 11 m (según levantamiento de Schubert 1908). Treinta y tres años tras su terminación, hacia 1700, se construyó una nueva cúpula interior, encajada dentro de la original, para servir de soporte a un enorme fresco del pintor Antonio Palomino en honor de la Virgen de los Desamparados. Esta cúpula es extraordinariamente delgada y presenta algunas disposiciones que la convierten en un caso de excepcional interés en la historia de las cúpulas de fábrica. La estructura y construcción de la Basílica de los Desamparados fue estudiada exhaustivamente en los años 1990 con vistas a elaborar posteriormente un proyecto de restauración. Los trabajos y el proyecto fueron dirigidos por el arquitecto Ignacio Bosch Reig. Algunos estudios fueron publicados en 1999 (Roig y Bosch 1999), y toda la información referente a los estudios y posterior restauración fue compilada y publicada en un libro (Bosch 2006). En este caso se dispone, por tanto, de una enorme cantidad de información sobre la estructura, construcción y forma del edificio. En lo que sigue trataremos sólo la construcción y comportamiento estructural de la doble cúpula de la Basílica.
Resumo:
Se presentan los estudios teóricos y empíricos sobre el peso propio de las estructuras realizados a lo largo de la Historia, en cuatro etapas: de la antigüedad de Galileo, de Galileo a la segunda mitad del S.XIX, hasta la actualidad. Se rehusan las reglas empíricas en diseño de puentes, cubiertas, edificios en altura; Tras la revisión de los estudios teóricos precedentes, con el auxilio del análisis dimensional y análisis clásicos derivados de los escritos de Maxwell, se esclarecen las variables que rigen el problema y sus relaciones; alcance del material, forma (esquema, condiciones de contorno, proporción), grueso o dimensionado, tamaño y acciones (leyes y magnitud). Se demuestran varios teoremas sobre mínimos en consumo de estructuras, y se analizan de forma general tipos de problemas estructurales de comportamiento proporcional y no proporcional.
Resumo:
The twentieth century brought a new sensibility characterized by the discredit of cartesian rationality and the weakening of universal truths, related with aesthetic values as order, proportion and harmony. In the middle of the century, theorists such as Theodor Adorno, Rudolf Arnheim and Anton Ehrenzweig warned about the transformation developed by the artistic field. Contemporary aesthetics seemed to have a new goal: to deny the idea of art as an organized, finished and coherent structure. The order had lost its privileged position. Disorder, probability, arbitrariness, accidentality, randomness, chaos, fragmentation, indeterminacy... Gradually new terms were coined by aesthetic criticism to explain what had been happening since the beginning of the century. The first essays on the matter sought to provide new interpretative models based on, among other arguments, the phenomenology of perception, the recent discoveries of quantum mechanics, the deeper layers of the psyche or the information theories. Overall, were worthy attempts to give theoretical content to a situation as obvious as devoid of founding charter. Finally, in 1962, Umberto Eco brought together all this efforts by proposing a single theoretical frame in his book Opera Aperta. According to his point of view, all of the aesthetic production of twentieth century had a characteristic in common: its capacity to express multiplicity. For this reason, he considered that the nature of contemporary art was, above all, ambiguous. The aim of this research is to clarify the consequences of the incorporation of ambiguity in architectural theoretical discourse. We should start making an accurate analysis of this concept. However, this task is quite difficult because ambiguity does not allow itself to be clearly defined. This concept has the disadvantage that its signifier is as imprecise as its signified. In addition, the negative connotations that ambiguity still has outside the aesthetic field, stigmatizes this term and makes its use problematic. Another problem of ambiguity is that the contemporary subject is able to locate it in all situations. This means that in addition to distinguish ambiguity in contemporary productions, so does in works belonging to remote ages and styles. For that reason, it could be said that everything is ambiguous. And that’s correct, because somehow ambiguity is present in any creation of the imperfect human being. However, as Eco, Arnheim and Ehrenzweig pointed out, there are two major differences between current and past contexts. One affects the subject and the other the object. First, it’s the contemporary subject, and no other, who has acquired the ability to value and assimilate ambiguity. Secondly, ambiguity was an unexpected aesthetic result in former periods, while in contemporary object it has been codified and is deliberately present. In any case, as Eco did, we consider appropriate the use of the term ambiguity to refer to the contemporary aesthetic field. Any other term with more specific meaning would only show partial and limited aspects of a situation quite complex and difficult to diagnose. Opposed to what normally might be expected, in this case ambiguity is the term that fits better due to its particular lack of specificity. In fact, this lack of specificity is what allows to assign a dynamic condition to the idea of ambiguity that in other terms would hardly be operative. Thus, instead of trying to define the idea of ambiguity, we will analyze how it has evolved and its consequences in architectural discipline. Instead of trying to define what it is, we will examine what its presence has supposed in each moment. We will deal with ambiguity as a constant presence that has always been latent in architectural production but whose nature has been modified over time. Eco, in the mid-twentieth century, discerned between classical ambiguity and contemporary ambiguity. Currently, half a century later, the challenge is to discern whether the idea of ambiguity has remained unchanged or have suffered a new transformation. What this research will demonstrate is that it’s possible to detect a new transformation that has much to do with the cultural and aesthetic context of last decades: the transition from modernism to postmodernism. This assumption leads us to establish two different levels of contemporary ambiguity: each one related to one these periods. The first level of ambiguity is widely well-known since many years. Its main characteristics are a codified multiplicity, an interpretative freedom and an active subject who gives conclusion to an object that is incomplete or indefinite. This level of ambiguity is related to the idea of indeterminacy, concept successfully introduced into contemporary aesthetic language. The second level of ambiguity has been almost unnoticed for architectural criticism, although it has been identified and studied in other theoretical disciplines. Much of the work of Fredric Jameson and François Lyotard shows reasonable evidences that the aesthetic production of postmodernism has transcended modern ambiguity to reach a new level in which, despite of the existence of multiplicity, the interpretative freedom and the active subject have been questioned, and at last denied. In this period ambiguity seems to have reached a new level in which it’s no longer possible to obtain a conclusive and complete interpretation of the object because it has became an unreadable device. The postmodern production offers a kind of inaccessible multiplicity and its nature is deeply contradictory. This hypothetical transformation of the idea of ambiguity has an outstanding analogy with that shown in the poetic analysis made by William Empson, published in 1936 in his Seven Types of Ambiguity. Empson established different levels of ambiguity and classified them according to their poetic effect. This layout had an ascendant logic towards incoherence. In seventh level, where ambiguity is higher, he located the contradiction between irreconcilable opposites. It could be said that contradiction, once it undermines the coherence of the object, was the better way that contemporary aesthetics found to confirm the Hegelian judgment, according to which art would ultimately reject its capacity to express truth. Much of the transformation of architecture throughout last century is related to the active involvement of ambiguity in its theoretical discourse. In modern architecture ambiguity is present afterwards, in its critical review made by theoreticians like Colin Rowe, Manfredo Tafuri and Bruno Zevi. The publication of several studies about Mannerism in the forties and fifties rescued certain virtues of an historical style that had been undervalued due to its deviation from Renacentist canon. Rowe, Tafuri and Zevi, among others, pointed out the similarities between Mannerism and certain qualities of modern architecture, both devoted to break previous dogmas. The recovery of Mannerism allowed joining ambiguity and modernity for first time in the same sentence. In postmodernism, on the other hand, ambiguity is present ex-professo, developing a prominent role in the theoretical discourse of this period. The distance between its analytical identification and its operational use quickly disappeared because of structuralism, an analytical methodology with the aspiration of becoming a modus operandi. Under its influence, architecture began to be identified and studied as a language. Thus, postmodern theoretical project discerned between the components of architectural language and developed them separately. Consequently, there is not only one, but three projects related to postmodern contradiction: semantic project, syntactic project and pragmatic project. Leading these projects are those prominent architects whose work manifested an especial interest in exploring and developing the potential of the use of contradiction in architecture. Thus, Robert Venturi, Peter Eisenman and Rem Koolhaas were who established the main features through which architecture developed the dialectics of ambiguity, in its last and extreme level, as a theoretical project in each component of architectural language. Robert Venturi developed a new interpretation of architecture based on its semantic component, Peter Eisenman did the same with its syntactic component, and also did Rem Koolhaas with its pragmatic component. With this approach this research aims to establish a new reflection on the architectural transformation from modernity to postmodernity. Also, it can serve to light certain aspects still unaware that have shaped the architectural heritage of past decades, consequence of a fruitful relationship between architecture and ambiguity and its provocative consummation in a contradictio in terminis. Esta investigación centra su atención fundamentalmente sobre las repercusiones de la incorporación de la ambigüedad en forma de contradicción en el discurso arquitectónico postmoderno, a través de cada uno de sus tres proyectos teóricos. Está estructurada, por tanto, en torno a un capítulo principal titulado Dialéctica de la ambigüedad como proyecto teórico postmoderno, que se desglosa en tres, de títulos: Proyecto semántico. Robert Venturi; Proyecto sintáctico. Peter Eisenman; y Proyecto pragmático. Rem Koolhaas. El capítulo central se complementa con otros dos situados al inicio. El primero, titulado Dialéctica de la ambigüedad contemporánea. Una aproximación realiza un análisis cronológico de la evolución que ha experimentado la idea de la ambigüedad en la teoría estética del siglo XX, sin entrar aún en cuestiones arquitectónicas. El segundo, titulado Dialéctica de la ambigüedad como crítica del proyecto moderno se ocupa de examinar la paulatina incorporación de la ambigüedad en la revisión crítica de la modernidad, que sería de vital importancia para posibilitar su posterior introducción operativa en la postmodernidad. Un último capítulo, situado al final del texto, propone una serie de Proyecciones que, a tenor de lo analizado en los capítulos anteriores, tratan de establecer una relectura del contexto arquitectónico actual y su evolución posible, considerando, en todo momento, que la reflexión en torno a la ambigüedad todavía hoy permite vislumbrar nuevos horizontes discursivos. Cada doble página de la Tesis sintetiza la estructura tripartita del capítulo central y, a grandes rasgos, la principal herramienta metodológica utilizada en la investigación. De este modo, la triple vertiente semántica, sintáctica y pragmática con que se ha identificado al proyecto teórico postmoderno se reproduce aquí en una distribución específica de imágenes, notas a pie de página y cuerpo principal del texto. En la columna de la izquierda están colocadas las imágenes que acompañan al texto principal. Su distribución atiende a criterios estéticos y compositivos, cualificando, en la medida de lo posible, su condición semántica. A continuación, a su derecha, están colocadas las notas a pie de página. Su disposición es en columna y cada nota está colocada a la misma altura que su correspondiente llamada en el texto principal. Su distribución reglada, su valor como notación y su posible equiparación con una estructura profunda aluden a su condición sintáctica. Finalmente, el cuerpo principal del texto ocupa por completo la mitad derecha de cada doble página. Concebido como un relato continuo, sin apenas interrupciones, su papel como responsable de satisfacer las demandas discursivas que plantea una investigación doctoral está en correspondencia con su condición pragmática.