480 resultados para Browniano geométrico
Resumo:
La Tesis decodifica una selección de veinte proyectos representativos de Sejima-SANAA, desde su primer proyecto construido, la Casa Platform I, 1987, hasta el Centro Rolex, 2010, año en que Sejima y Nishizawa –SANAA- reciben el Premio Pritzker. De los veinte proyectos once son de Sejima: Casa Platform I, Casa Platform II, Residencia de Mujeres, Casa N, Pachinco Parlor I, Villa en el Bosque, Comisaría en Chofu, Casa Y, Apartamentos en Gifu, Edificio de equipamientos en la Expo Tokio 96, Pachinko Parlor III; y nueve de SANAA: edificio Multimedia en Oogaki, estudio de viviendas metropolitanas,Park Café en Koga, De Kunstlinie en Almere, Museo de Kanazawa, Pabellón de Toledo, Escuela de Zollverein, Casa Flor y Centro Rolex. La decodificación lee la obra de Sejima-SANAA a la inversa para ‘reconstruir’, en un ejercicio de simulación ficticia, una versión verosímil y coherente de los que podrían haber sido sus procesos proyectuales; podrían, porque los verdaderos son imposibles de dilucidar. Los que se proponen se pretenden exclusivamente verosímiles y plausibles. Con ello se pretende contribuir al entendimiento y comprensión de la arquitectura de Sejima-SANAA y, tangencialmente y en menor medida, a la teoría sobre el ejercicio proyectual arquitectónico. La decodificación se centra en dos aspectos concretos: la forma arquitectónica y el papel proyectual de la estructura portante. Ambas decodificaciones se extienden inevitablemente a otros aspectos relacionados, como, por ejemplo, la naturaleza del espacio arquitectónico. El procedimiento de investigación partió de una descripción objetiva y pormenorizada de los significantes formales y estructurales de cada proyecto desde su propia configuración física y geométrica. Esa descripción ‘objetiva’, llevada al límite, permitió que afloraran estructuras conceptuales y lógicas subyacentes de cada proyecto. Unida a interpretación crítica, –mediante su relación y confrontación con otras arquitecturas y otros modos de hacer conocidos- permitió trazar la reconstitución ficticia que persigue la decodificación. Ese trabajo se materializó en veinte ensayos críticos y se acompañó de un conjunto de otros textos sobre temas sugeridos o reclamados por el proceso de investigación. El conjunto de todos esos textos constituye el material de trabajo de la tesis. A partir de ahí, con una visión de conjunto, la tesis identifica una trayectoria de estrategias formales y una trayectoria de estrategias proyectuales relacionadas con lo portante. Juntas conforman el grueso de la tesis que se expone en los cuatro capítulos centrales. Los precede un capítulo introductorio que expone el recorrido biográfico de K. Sejima y la trayectoria profesional de Sejima-SANAA; y los siguen de unos textos transversales sobre forma, lugar y espacio. La tesis termina con una síntesis de sus conclusiones. Las estrategias formales se exponen en tres capítulos. El primero, ‘Primeras estrategias formales’ agrupa proyectos de la primera etapa de Sejima. El segundo capítulo está dedicado enteramente al proyecto de los apartamentos en Gifu, 1994-98, que según esta tesis, supuso un importante punto de inflexión en la trayectoria de Sejima; tanto el tercer capítulo lleva por nombre ‘Estrategias formales después de Gifu’ y recoge los proyectos que le siguieron. Las ‘Primeras estrategias formales’, varias y balbucientes, se mueven en general en torno a dos modos o procedimientos de composición, bien conocidos: por partes y sistemático. Éste última inicia en la trayectoria de SANAA un aspecto que va a ser relevante de aquí en adelante: entender el proyecto como propuesta genérica en la que, más allá de su realidad específica y tangible, subyace una lógica, en cada proyecto la suya, extrapolable a otros lugares, otras dimensiones, incluso otros programas: cada proyecto podría dar lugar a otros proyectos de la misma familia. La composición sistemática incluye, entre otros, la Casa Platform II, basada en la definición de un elemento constructivo, y la formulación de unas leyes de repetición y de posibles modos de agrupación. Incluye también la Residencia de Mujeres Saishunkan Seiyaku- proyecto que lanzó a Sejima a la fama internacional-, que también sería un sistema, pero distinto: basado en la repetición regular de una serie de elementos a lo largo de una directriz generando un hipotético contenedor infinito del que el proyecto sería tan solo un fragmento. La estrategia formal del edificio de Gifu ahondaría en la voluntad genérica del proyecto, adoptando la lógica de un juego. El proyecto sería una partida del juego, pero no la única posible, podrían jugarse otras. Esta hipótesis del juego está verificada en ‘El Juego de Gifu’ que - tras formular el juego identificando sus elementos (tablero y fichas), reglas y procedimientos- juega una partida: la que habría dado lugar al edificio proyectado por Sejima. Gifu extiende el concepto de ‘repetir’ un elemento constructivo a la de repetir un patrón espacial, lo que conlleva: la desvinculación entre forma y función; y un nuevo concepto de flexibilidad, que deja de referirse al uso flexible del edificio construido para pertenecer al momento proyectual en que se asignan funciones específicas a los patrones espaciales. Esta tesis propone que esa asignación de funciones sería uno de los últimos eslabones del proceso proyectual, algo opuesto a la premisa moderna de “la forma sigue a la función”. Las estrategias formales ‘Después de Gifu’ tienen también lógicas de juego, pero cada estrategia responde a un juego distinto, como dejan entrever sus nombres: ‘Tableros de Juego’, que con distintos grados de madurez estaría presente en varios proyectos; ‘Elementos de Catálogo’ en el Museo de Kanazawa; ‘Forma apriorística’, en la Casa Flor y ‘Repetición de una situación topológica’, en el Centro Rolex. Todas esas estrategias, o juegos, mantienen aspectos comunes relativos a la forma arquitectónica, precisamente los aspectos Gifu: la repetición aplicada al patrón espacial, y lo que conlleva: desvinculación entre forma y función y la nueva acepción de flexibilidad. ‘Tableros de Juego’ consiste en configurar cada sistema de proyecto (estructura, cerramientos, particiones y mobiliario) eligiendo elementos ofrecidos por una geometría de base, en cada proyecto la suya, en general reticular: intersecciones, líneas, módulos. Cada sistema se configura, en principio, sin relación de subordinación con cualquiera de los demás; cuando esa subordinación es ineludible, el juego determina que el sistema portante no puede materializar el orden geométrico de base, lo que se traduce en que no ejerce el papel dominante. Por lo tanto, ‘Tableros de Juego’ transgrede la lógica de la planta libre moderna: la estructura ni refleja ni revela el orden de base y los sistemas no respetan las relaciones de subordinación jerárquica y encadenada que aquella determinaba. Esta estrategia de ‘Tableros de juego’ deriva en soluciones y proyectos formales muy distintos: los proyectos de Oogaki y Park Café, que presentarían ‘Tableros de Juego’ incipientes; De Kunstlinie en Almere y la Escuela de Zollverein, que presentarían una consolidación de esta estrategia; y el Pabellón de Vidrio de Toledo que resultaría de la subversión de la estrategia. Este último proyecto, además, lleva el concepto de repetición más allá del elemento constructivo y del patrón espacial (que en este caso tiene forma de burbuja) parar acabar afectando a la propia experiencia del espectador, que esté donde esté, siempre tiene la sensación de estar en el mismo sitio. Esta tesis denomina a ese espacio repetitivo como ‘espacio mantra’. La estrategia ‘Elementos de Catálogo’ se ilustra con el Museo de Kanazawa. Su lógica parte de la definición de una serie de elementos, muy pocos, y se basa en el ingente número de posibles combinaciones entre sí. Gifu habría anunciado el catalogo de elementos en la caracterización de sus patrones espaciales. La estrategia ‘Forma Apriorística’ se ilustra con la Casa Flor. La decisión sobre el tipo de forma -en este caso la de una ameba- estaría al principio del proceso proyectual, lo que no quiere decir que sea una forma arbitraria: la forma de la ameba lleva implícita la repetición de un patrón espacial (el seudópodo) y una apoteosis del concepto de repetición que, alcanzando la experiencia espacial, da lugar a un espacio repetitivo o mantra. El ‘Espacio Mantra’ es uno de los leitmotivs, que se emplean como argumento en la última estrategia formal que la Tesis decodifica: el Centro Rolex. Con respecto a la estructura portante, la tesis identifica y traza una trayectoria de cinco estrategias proyectuales: preeminencia, ocultación, disolución, desaparición y desvirtuación. --Ocultación, reduce el papel dominante de la estructura. Al principio es una ocultación literal, casi un tapado de los elementos estructurales, como en Gifu; luego se hace más sofisticada, como la ocultación por camuflaje o la paradójica ocultación por multiplicación de Park Café. --La disolución merma la condición dominante de la estructura que en lugar de configurarse como sistema unitario u homogéneo se fragmenta en varios subsistemas. --La desaparición se refiere a estructuras que desaparecen como sistemas propios y autónomos, a proyectos en los que la función portante es desempeñada por otros sistemas como el de las particiones. La desaparición culmina con la Casa Flor, cuyo perímetro ejerce la función portante y además es transparente, está desmaterializado: la estructura se ha hecho invisible, ha desaparecido. --La desvirtuación se refiere a estructuras que sí se presentan como sistemas propios y autónomos, pero dejan de tener un papel preeminente por cuanto no materializan el orden de base: esta estrategia es correlativa a la estrategia formal ‘Tableros de juego’. Las conclusiones de la tesis están en la propia organización de la tesis: la identificación de las estrategias. Aún así, y como epílogos, se exponen seis. Las dos primeras subrayan el hilo conductor del trabajo realizado, que radica en la cualidad genérica de las estrategias proyectuales en Sejima-SANAA. Las cuatro siguientes dilucidan hasta qué punto hay, en sus proyectos, rasgos o significantes formales y/o estructurales que sean a su vez señales características del panorama arquitectónico contemporáneo; y plantean la pregunta estrella: ¿hay algunos que, apuntando más lejos, supongan aportaciones originales? --Como aportaciones originales la tesis destaca: la identificación entre el ideal genérico y proyecto concreto; y la propuesta de un espacio nuevo, híbrido, una suerte de estadio intermedio entre el espacio subdividido y compartimentado de la tradición y el continuo moderno. --Como síntomas de contemporaneidad se destacan: respecto de la forma, la traslación de la especificidad formal de la parte al conjunto; y respecto de la estructura, la tendencia contemporánea a hacer estructuras cada vez más ligeras y livianas, que tienden a lo evanescente. Ésta última, la tendencia al evanescencia estructural, podría tener la condición de aportación original, no en vano la desaparición de la estructura lleva la evanescencia hacia sus últimas consecuencias, y en el caso de estructuras con presencia física, hace que dejen de ser el sistema ordenador orquestador del proceso proyectual. ABSTRACT The Thesis decodes a selection of twenty representative Sejima-SANAA projects, from the first one built, the Platform I House in 1987, to the Rolex Center in 2010, year in which Sejima and Nishizawa –SANAA- received the Pritzker Prize. Eleven projects are from Sejima: Platform I, Platform II, Saishunkan Seiyaku Women´s Dormitory, N- House, Pachinco Parlor I, Villa in the Forest, Policy Box at Chofu Station, Y-House, Gifu Kitigata Apartment, World City Expo ´96 Facilities Building, Pachinko Parlor III; and nine from SANAA: Multimedia Workshop in Ogaki, Metropolitan Housing Studies, Park Café in Koga, De Kunstlinie in Almere, Kanazawa Museum, Glass Pavilion at the Toledo Museum of Art, Zollverein School, Flower House and the Rolex Center. This decoding reads the Sejima-SANAA’s projects inversely aiming ‘to reconstruct', in a fictitious simulation exercise, a likely and coherent version of what her/their projectual processes ‘could’ have been; ‘could’, because the true ones are impossible to explain. The ones proposed here pretend only to be likely and reasonable. By so doing the Thesis tries to contribute to the understanding and comprehension of Sejima-SANAA architecture and, tangentially and to a lesser extent, to the theory of architectural projects exercise. Decoding centers in two specific aspects: architectural form, and projectual role of the load bearing structure. Both decodes inevitably extend to other related aspects such as, for example, the nature of space. The research procedure begun by carrying out an objective and detailed description of the formal and structural signifiers of each project; looking at them from their physical and geometric configuration. Taken to the limit, the ‘objective’ descriptions allowed the conceptual structures and underlying logics of each project to arise. Together with critical interpretations, which related and confronted them with other architectures and well-known projectual working ways, it became possible to outline and trace the intended fictitious reconstruction decodes. The descriptive analytical work materialized in twenty critical essays, and was accompanied by a set of other essays on subjects suggested or demanded by the research process. Together, all those texts were the material basis on which thesis work was built. Looking at the whole and taking it from there, the thesis identifies two related projectual trajectories: a trajectory of formal strategies and a trajectory of strategies having to do with structural systems and components. Both, together, constitute the bulk of the thesis, as presented in the four central chapters. Preceding them there is an introductory chapter outlining the biographical path of Kazuyo Sejima and the professional trajectory of Sejima-SANAA. And following them there is another one containing transversal texts on form, place and space. The thesis ends with a synthesis on conclusions. The formal strategies are displayed in three chapters. The first one, `Early formal strategies' groups the first phase projects by Sejima. The second one, ‘Formal strategies of Gifu’s paradigm’, is entirely dedicated to the Gifu apartments project, 1994-98, which according to this thesis meant an important inflexion point in Sejima’s trajectory; so much so that the third chapter is named `Formal strategies after Gifu' and gathers the selected projects that followed it. The ‘Early formal strategies', diverse and tentative, move in general around two well-known projectual composition methods ‘composition by parts’, and ‘systematic composition’. This last one –systematic composition- begins and leads in SANAA’s trajectory an aspect which will remain relevant from here on: the understanding of the project as if it were an specific instance of a generic proposal in which -below and beyond the project tangible reality- there lays a logic that could be applicable at other places, for other dimensions, even with other programs; from each project, other projects of the same family could rise. The set of projects using this systematic composition method include, among others, the ‘Platform II House, based on the definition of a constructive element and of rules having to do with its replicas and their possible groupings. It also includes the Saishunkan Seiyaku Women Residence -project that launched Sejima to international fame- that could also be seen as a system, but of a different kind: a system based on the regular repetition of a series of elements along a directive line, thus generating a hypothetical infinite container of which the project would be only a fragment. The formal strategy of the Gifu apartments building would push further towards the generic project concept, adopting the logic of a game. The project would be a bout, a round, one play…, but not the only possible one; others could be played. The thesis confirms this game hypothesis -after having formulated `The Game of Gifu' and identified its elements (board, chips, rules and procedures)- playing the one play from which the building as projected by Sejima would have raised. Gifu extends the concept of ‘repeating a constructive element’ to that of ‘repeating a space pattern element’, and to what it implies: the decoupling of form and function, leading to a new concept of flexibility that no longer refers to the flexible use of the constructed building but to the projectual moment at which the specific functions are assigned to the space patterns. This thesis proposes that this allocation of functions would be one of the last steps in projectual process, quite opposite from the modern premise: “form follows function”. The Formal strategies after Gifu do also have a game logic; but, as their names reveal, each strategy responds to a different game: ‘Game Boards’, present with different maturity levels in several projects; ‘Elements from a Catalogue’, in the Kanazawa Museum; ‘Aprioristic Form’, in the Flower House; and ‘Repetition of a topologic situation', in the Rolex Center. All of these strategies, or games, maintain common aspects having to do with architectural form; aspects that were already present, precisely, in Gifu: repetition of space pattern units, uncoupling of form and function, and a new meaning of flexibility. -`Game Boards’ consists on setting up a base geometry -each project his, generally reticular- and give form to each project system (structure, closings, partitions and furniture) by choosing elements -intersections, lines, modules- it offers. Each project system is formed, in principle, with no subordinated relation with any of the others; when subordination is unavoidable, the game rules determine that the load bearing structural system may not be the one to materialize the base geometric order, which means that it does not exert the dominant role. Therefore, ‘Game Boards' transgresses the Modern logic, because the structure neither reflects nor reveals the base order, and because the systems do not respect any of the hierarchic and chained subordination relations that the ‘free plan’ called for. ‘Game Boards' leads to quite different solutions and formal projects: the Oogaki and Park Coffee projects show incipient Game Boards; The Almere Kunstlinie and the Zollverein School present consolidations of this strategy; and the Toledo’s Glass Pavilion results from subverting the strategy. In addition, the Toledo project takes the repetition concept beyond that of using a constructive element and a space pattern element (in this case with a bubble form) to end up affecting the personal experience of the spectator, who, wherever he is, feels to always be in the same place. This thesis denominates that repetitive space as ‘Mantra space '. -‘Elements from a Catalogue’ is shown with the Kanazawa Museum. Its logic starts from the definition of a series of elements, very few, and it is based on the huge number of possible combinations among them. The ‘Elements from a Catalogue’ approach was announced in the Gifu project when characterizing its space pattern elements. -Aprioristic Form' is illustrated by the Flower House. The decision on the type of form -in this case the form of an amoeba- would be the beginning of the projectual process, but it does not mean it is arbitrary form: the amoeba form implies repeating a space pattern (pseudopodia) and an apotheosis of the repetition concept: embracing the space experience, it gives rise to a repetitive or mantra space. ‘Mantra Space’ is one of leitmotivs used as an argument in the last formal strategy Thesis decodes: the Rolex Center. With respect to the ‘Projectual strategies of the load bearing structure’, the thesis finds and traces a trajectory of five projectual strategies: ‘preeminence, concealment, dissolution, disappearance and desvirtuación’. --Preeminence is present in Sejima’s first works in which she resorts to structures which have a dominant preeminent role in the project in so far as they impersonate the greater scale and/or materialize the base geometric order. In later works that preeminence will be inverted, the projects aiming towards its opposite: lighter, slighter, smaller structures. -Concealment reduces the dominant role of the structure. At the outset concealment is literal, almost hiding the structural elements, as in Gifu; soon it will become more sophisticated, such as the concealment by camouflage or the paradoxical concealment by multiplication in the Koga Park Café. -Dissolution diminishes the dominant condition of the structure: instead of its’ being configured as unitary or homogenous system is fragmented in several subsystems. -Disappearance talks about structures that fade away as self referred and independent systems; projects in which the load bearing function is carried out by other systems such as the set of partitions. Disappearance reaches its zenith at the Flower House, whose perimeter functions structurally being, in addition, transparent, immaterial: its structure has become invisible, has disappeared. -Desvirtuación talks about structures that do appear like independent self-systems, but which that do not longer have a preeminent paper, inasmuch as they do not materialize the base order. This strategy correlates with the ‘Game Boards’ formal strategy. The thesis conclusions are show by the organization of the thesis itself: its identification of the different strategies. Even so, as epilogues, the thesis exposes six ‘Conclusions’. The first two emphasize the leading thread of the work done, rooted in the generic quality of the Sejima-SANAA projectual strategies. The following four expound to what extent their projects show features, or formal and/or structural signifiers, which also are or can be read as characteristic signals of the contemporary architectonic panorama, and raise the key question: aiming farther, may some of them be taken as original contributions? -As original contributions the conclusions highlight: the identification between the generic ideal and the concrete project; and the proposal of a new, hybrid space, kind of an intermediate stage between the traditional subdivided compartmented space and the continuous modern. -As symptoms of contemporaneousness: in relation to the form it highlights the transferring of the formal specificity from the part to the whole; and in relation to the structure, it underscore the contemporary tendency towards lighter and growingly slimmer structures, tending to the evanescent. This last one, the tendency towards structural evanescence, could have condition of being an original contribution, not in vain it carries the structural disappearance towards its last consequences; and in the case of structures with physical presence, it makes them to cease being the ordering system orchestrating the projectual process.
Resumo:
Esta tesis estudia el comportamiento de la región exterior de una capa límite turbulenta sin gradientes de presiones. Se ponen a prueba dos teorías relativamente bien establecidas. La teoría de semejanza para la pared supone que en el caso de haber una pared rugosa, el fluido sólo percibe el cambio en la fricción superficial que causa, y otros efectos secundarios quedarán confinados a una zona pegada a la pared. El consenso actual es que dicha teoría es aproximadamente cierta. En el extremo exterior de la capa límite existe una región producida por la interacción entre las estructuras turbulentas y el flujo irrotacional de la corriente libre llamada interfaz turbulenta/no turbulenta. La mayoría de los resultados al respecto sugieren la presencia de fuerzas de cortadura ligeramente más intensa, lo que la hace distinta al resto del flujo turbulento. Las propiedades de esa región probablemente cambien si la velocidad de crecimiento de la capa límite aumenta, algo que puede conseguirse aumentando la fricción en la pared. La rugosidad y la ingestión de masa están entonces relacionadas, y el comportamiento local de la interfaz turbulenta/no turbulenta puede explicar el motivo por el que las capas límite sobre paredes rugosas no se comportan como en el caso de tener paredes lisas precisamente en la zona exterior. Para estudiar las capas límite a números de Reynolds lo suficientemente elevados, se ha desarrollado un nuevo código de alta resolución para la simulación numérica directa de capas límite turbulentas sin gradiente de presión. Dicho código es capaz de simular capas límite en un intervalo de números de Reynolds entre ReT = 100 — 2000 manteniendo una buena escalabilidad hasta los dos millones de hilos en superordenadores de tipo Blue Gene/Q. Se ha guardado especial atención a la generación de condiciones de contorno a la entrada correctas. Los resultados obtenidos están en concordancia con los resultados previos, tanto en el caso de simulaciones como de experimentos. La interfaz turbulenta/no turbulenta de una capa límite se ha analizado usando un valor umbral del módulo de la vorticidad. Dicho umbral se considera un parámetro para analizar cada superficie obtenida de un contorno del módulo de la vorticidad. Se han encontrado dos regímenes distintos en función del umbral escogido con propiedades opuestas, separados por una transición topológica gradual. Las características geométricas de la zona escalan con o99 cuando u^/isdgg es la unidad de vorticidad. Las propiedades del íluido relativas a la posición del contorno de vorticidad han sido analizados para una serie de umbrales utilizando el campo de distancias esféricas, que puede obtenerse con independencia de la complejidad de la superficie de referencia. Las propiedades del fluido a una distancia dada del inerfaz también dependen del umbral de vorticidad, pero tienen características parecidas con independencia del número de Reynolds. La interacción entre la turbulencia y el flujo no turbulento se restringe a una zona muy fina con un espesor del orden de la escala de Kolmogorov local. Hacia el interior del flujo turbulento las propiedades son indistinguibles del resto de la capa límite. Se ha simulado una capa límite sin gradiente de presiones con una fuerza volumétrica cerca de la pared. La el forzado ha sido diseñado para aumentar la fricción en la pared sin introducir ningún efecto geométrico obvio. La simulación consta de dos dominios, un primer dominio más pequeño y a baja resolución que se encarga de generar condiciones de contorno correctas, y un segundo dominio mayor y a alta resolución donde se aplica el forzado. El estudio de los perfiles y los coeficientes de autocorrelación sugieren que los dos casos, el liso y el forzado, no colapsan más allá de la capa logarítmica por la complejidad geométrica de la zona intermitente, y por el hecho que la distancia a la pared no es una longitud característica. Los efectos causados por la geometría de la zona intermitente pueden evitarse utilizando el interfaz como referencia, y la distancia esférica para el análisis de sus propiedades. Las propiedades condicionadas del flujo escalan con 5QQ y u/uT, las dos únicas escalas contenidas en el modelo de semejanza de pared de Townsend, consistente con estos resultados. ABSTRACT This thesis studies the characteristics of the outer region of zero-pressure-gradient turbulent boundary layers at moderate Reynolds numbers. Two relatively established theories are put to test. The wall similarity theory states that with the presence of roughness, turbulent motion is mostly affected by the additional drag caused by the roughness, and that other secondary effects are restricted to a region very close to the wall. The consensus is that this theory is valid, but only as a first approximation. At the edge of the boundary layer there is a thin layer caused by the interaction between the turbulent eddies and the irroational fluid of the free stream, called turbulent/non-turbulent interface. The bulk of results about this layer suggest the presence of some localized shear, with properties that make it distinguishable from the rest of the turbulent flow. The properties of the interface are likely to change if the rate of spread of the turbulent boundary layer is amplified, an effect that is usually achieved by increasing the drag. Roughness and entrainment are therefore linked, and the local features of the turbulent/non-turbulent interface may explain the reason why rough-wall boundary layers deviate from the wall similarity theory precisely far from the wall. To study boundary layers at a higher Reynolds number, a new high-resolution code for the direct numerical simulation of a zero pressure gradient turbulent boundary layers over a flat plate has been developed. This code is able to simulate a wide range of Reynolds numbers from ReT =100 to 2000 while showing a linear weak scaling up to around two million threads in the BG/Q architecture. Special attention has been paid to the generation of proper inflow boundary conditions. The results are in good agreement with existing numerical and experimental data sets. The turbulent/non-turbulent interface of a boundary layer is analyzed by thresholding the vorticity magnitude field. The value of the threshold is considered a parameter in the analysis of the surfaces obtained from isocontours of the vorticity magnitude. Two different regimes for the surface can be distinguished depending on the threshold, with a gradual topological transition across which its geometrical properties change significantly. The width of the transition scales well with oQg when u^/udgg is used as a unit of vorticity. The properties of the flow relative to the position of the vorticity magnitude isocontour are analyzed within the same range of thresholds, using the ball distance field, which can be obtained regardless of the size of the domain and complexity of the interface. The properties of the flow at a given distance to the interface also depend on the threshold, but they are similar regardless of the Reynolds number. The interaction between the turbulent and the non-turbulent flow occurs in a thin layer with a thickness that scales with the Kolmogorov length. Deeper into the turbulent side, the properties are undistinguishable from the rest of the turbulent flow. A zero-pressure-gradient turbulent boundary layer with a volumetric near-wall forcing has been simulated. The forcing has been designed to increase the wall friction without introducing any obvious geometrical effect. The actual simulation is split in two domains, a smaller one in charge of the generation of correct inflow boundary conditions, and a second and larger one where the forcing is applied. The study of the one-point and twopoint statistics suggest that the forced and the smooth cases do not collapse beyond the logarithmic layer may be caused by the geometrical complexity of the intermittent region, and by the fact that the scaling with the wall-normal coordinate is no longer present. The geometrical effects can be avoided using the turbulent/non-turbulent interface as a reference frame, and the minimum distance respect to it. The conditional analysis of the vorticity field with the alternative reference frame recovers the scaling with 5QQ and v¡uT already present in the logarithmic layer, the only two length-scales allowed if Townsend’s wall similarity hypothesis is valid.
Resumo:
El planteamiento tradicional de análisis de la accidentalidad en carretera pasa por la consideración de herramientas paliativas, como son la identificación y gestión de los puntos negros o tramos de concentración de accidentes, o preventivas, como las auditorías e inspecciones de seguridad vial. En esta tesis doctoral se presenta un planteamiento complementario a estas herramientas, desde una perspectiva novedosa: la consideración de los tramos donde no se producen accidentes; son los denominados Tramos Blancos. La tesis persigue demostrar que existen determinados parámetros del diseño de las carreteras y del tráfico que, bajo características generales similares de las vías, tienen influencia en el hecho de que se produzcan o no accidentes, adicionalmente a la exposición al riesgo, como factor principal, y a otros factores. La propia definición de los Tramos Blancos, entendidos como tramos de carreteras de longitud representativa donde no se han producido accidentes con víctimas mortales o heridos graves durante un periodo largo de tiempo, garantiza que esta situación no se produzca como consecuencia de la aleatoriedad de los accidentes, sino que pudiera deberse a una confluencia específica de determinados parámetros de la geometría de la vía y del tráfico total y de vehículos pesados. Para el desarrollo de esta investigación se han considerado la red de autopistas de peaje y las carreteras convencionales de la Red del Estado de España, que supone un total de 17.000 kilómetros, y los datos de accidentes con víctimas mortales y heridos graves en el periodo 2006-2010, ambos incluidos, en estas redes (un total de 10.000 accidentes). La red viaria objeto de análisis supone el 65% de la longitud de la Red de Carreteras del Estado, por la que circula el 33% de su tráfico; en ella se produjeron en el año 2013 el 47% de los accidentes con víctimas y el 60% de las víctimas mortales de la Red de Carreteras del Estado. Durante la investigación se ha desarrollado una base de datos de 250.130 registros y más de 3.5 millones de datos en el caso de las autopistas de peaje de la Red de Carreteras del Estado y de 935.402 registros y más de 14 millones de datos en el caso de la red convencional del Estado analizada. Tanto las autopistas de peaje como las carreteras convencionales han sido clasificadas según sus características de tráfico, de manera que se valoren vías con nivel de exposición al riesgo similar. Para cada tipología de vía, se ha definido como longitud de referencia para que un tramo se considere Tramo Blanco la longitud igual al percentil 95 de las longitudes de tramos sin accidentes con heridos graves o víctimas mortales durante el periodo 2006-2010. En el caso de las autopistas de peaje, en la tipología que ha sido considerada para la definición del modelo, esta longitud de referencia se estableció en 14.5 kilómetros, mientras que en el caso de las carreteras convencionales, se estableció en 7.75 kilómetros. Para cada uno de los tipos de vía considerados se han construido una base de datos en la que se han incluido las variables de existencia o no de Tramo Blanco, así como las variables de tráfico (intensidad media diaria total, intensidad de vehículos pesados y porcentaje de vehículos pesados ), la velocidad media y las variables de geometría (número de carriles, ancho de carril, ancho de arcén derecho e izquierdo, ancho de calzada y plataforma, radio, peralte, pendiente y visibilidad directa e inversa en los casos disponibles); como variables adicionales, se han incluido el número de accidentes con víctimas, los fallecidos y heridos graves, índices de peligrosidad, índices de mortalidad y exposición al riesgo. Los trabajos desarrollados para explicar la presencia de Tramos Blancos en la red de autopistas de peaje han permitido establecer las diferencias entre los valores medios de las variables de tráfico y diseño geométrico en Tramos Blancos respecto a tramos no blancos y comprobar que estas diferencias son significativas. Así mismo, se ha podido calibrar un modelo de regresión logística que explica parcialmente la existencia de Tramos Blancos, para rangos de tráfico inferiores a 10.000 vehículos diarios y para tráficos entre 10.000 y 15.000 vehículos diarios. Para el primer grupo (menos de 10.000 vehículos al día), las variables que han demostrado tener una mayor influencia en la existencia de Tramo Blanco son la velocidad media de circulación, el ancho de carril, el ancho de arcén izquierdo y el porcentaje de vehículos pesados. Para el segundo grupo (entre 10.000 y 15.000 vehículos al día), las variables independientes más influyentes en la existencia de Tramo Blanco han sido la velocidad de circulación, el ancho de calzada y el porcentaje de vehículos pesados. En el caso de las carreteras convencionales, los diferentes análisis realizados no han permitido identificar un modelo que consiga una buena clasificación de los Tramos Blancos. Aun así, se puede afirmar que los valores medios de las variables de intensidad de tráfico, radio, visibilidad, peralte y pendiente presentan diferencias significativas en los Tramos Blancos respecto a los no blancos, que varían en función de la intensidad de tráfico. Los resultados obtenidos deben considerarse como la conclusión de un análisis preliminar, dado que existen otros parámetros, tanto de diseño de la vía como de la circulación, el entorno, el factor humano o el vehículo que podrían tener una influencia en el hecho que se analiza, y no se han considerado por no disponer de esta información. En esta misma línea, el análisis de las circunstancias que rodean al viaje que el usuario de la vía realiza, su tipología y motivación es una fuente de información de interés de la que no se tienen datos y que permitiría mejorar el análisis de accidentalidad en general, y en particular el de esta investigación. Adicionalmente, se reconocen limitaciones en el desarrollo de esta investigación, en las que sería preciso profundizar en el futuro, reconociendo así nuevas líneas de investigación de interés. The traditional approach to road accidents analysis has been based in the use of palliative tools, such as black spot (or road sections) identification and management, or preventive tools, such as road safety audits and inspections. This thesis shows a complementary approach to the existing tools, from a new perspective: the consideration of road sections where no accidents have occurred; these are the so-called White Road Sections. The aim of this thesis is to show that there are certain design parameters and traffic characteristics which, under similar circumstances for roads, have influence in the fact that accidents occur, in addition to the main factor, which is the risk exposure, and others. White Road Sections, defined as road sections of a representative length, where no fatal accidents or accidents involving serious injured have happened during a long period of time, should not be a product of randomness of accidents; on the contrary, they might be the consequence of a confluence of specific parameters of road geometry, traffic volumes and heavy vehicles traffic volumes. For this research, the toll motorway network and single-carriageway network of the Spanish National Road Network have been considered, which is a total of 17.000 kilometers; fatal accidents and those involving serious injured from the period 2006-2010 have been considered (a total number of 10.000 accidents). The road network covered means 65% of the total length of the National Road Network, which allocates 33% of traffic volume; 47% of accidents with victims and 60% of fatalities happened in these road networks during 2013. During the research, a database of 250.130 registers and more than 3.5 million data for toll motorways and 935.042 registers and more than 14 million data for single carriageways of the National Road Network was developed. Both toll motorways and single-carriageways have been classified according to their traffic characteristics, so that the analysis is performed over roads with similar risk exposure. For each road type, a reference length for White Road Section has been defined, as the 95 percentile of all road sections lengths without accidents (with fatalities or serious injured) for 2006-2010. For toll motorways, this reference length concluded to be 14.5 kilometers, while for single-carriageways, it was defined as 7.75 kilometers. A detailed database was developed for each type of road, including the variable “existence of White Road Section”, as well as variables of traffic (average daily traffic volume, heavy vehicles average daily traffic and percentage of heavy vehicles from the total traffic volume), average speed and geometry variables (number of lanes, width of lane, width of shoulders, carriageway width, platform width, radius, superelevation, slope and visibility); additional variables, such as number of accidents with victims, number of fatalities or serious injured, risk and fatality rates and risk exposure, have also been included. Research conducted for the explanation of the presence of White Road Sections in the toll motorway network have shown statistically significant differences in the average values of variables of traffic and geometric design in White Road Sections compared with other road sections. In addition, a binary logistic model for the partial explanation of the presence of White Road Sections was developed, for traffic volumes lower than 10.000 daily vehicles and for those running from 10.000 to 15.000 daily vehicles. For the first group, the most influent variables for the presence of White Road Sections were the average speed, width of lane, width of left shoulder and percentage of heavy vehicles. For the second group, the most influent variables were found to be average speed, carriageway width and percentage of heavy vehicles. For single-carriageways, the different analysis developed did not reach a proper model for the explanation of White Road Sections. However, it can be assumed that the average values of the variables of traffic volume, radius, visibility, superelevation and slope show significant differences in White Road Sections if compared with others, which also vary with traffic volumes. Results obtained should be considered as a conclusion of a preliminary analysis, as there are other parameters, not only design-related, but also regarding traffic, environment, human factor and vehicle which could have an influence in the fact under research, but this information has not been considered in the analysis, as it was not available. In parallel, the analysis of the circumstances around the trip, including its typology and motivation is an interesting source of information, from which data are not available; the availability of this information would be useful for the improvement of accident analysis, in general, and for this research work, in particular. In addition, there are some limitations in the development of the research work; it would be necessary to develop an in-depth analysis in the future, thus assuming new research lines of interest.
Resumo:
Esta investigación indaga sobre la relación entre el método geométrico empleado por Pablo Palazuelo y el proceso del proyecto arquitectónico. La elección de este pintor y escultor madrileño como hilo conductor de esta tesis no es fortuita, puesto que la arquitectura desempeña una influencia esencial sobre su obra. Un influjo que le llega en parte a través de su formación académica, dado que cursó estudios de arquitectura en la School of Arts and Crafts de la ciudad de Oxford (1933-1936). Así mismo diseñó propuestas estrechamente vinculadas a un lugar construido, con el consiguiente condicionante de las trazas del mismo. La hipótesis de trabajo formulada a partir de textos elaborados por autores como Víctor Nieto Alcaide y Juan Daniel Fullaondo sugería una interconexión con la arquitectura orgánica. Como comprobación del grado de profundidad en otros análisis publicados, se han seleccionado los textos que indagan en el proceso que el artista desarrollaba durante la producción de su obra, y se adentran en cuestiones estructurales que trascienden el ámbito formal. Siguiendo esta pauta, además de una acotación temporal, se han escogido los realizados por Santiago Amón, Carme Bonell, Valerio Bozal, Manuel J. Borja-Villel, Francisco Calvo Serraller, Claude Esteban, Julián Gállego, Teresa Grandas, Max Hölzer, George Limbour, Kevin Power y Carlos Rodríguez-Spiteri. A estos autores se suman las fuentes orales consultadas dentro de un entorno intrínsecamente próximo a sus realizaciones, procedentes de Pere Casanovas y Soledad Lorenzo. Además de personas que en diferentes etapas de su vida coincidieron por distintos motivos con sus realizaciones, como son Ramón Ayerza, Mariano Bayón, José Antonio Corrales, Luis Gordillo, Rafael Moneo, José Rodríguez-Spiteri y Antonio Tornero. A partir del acceso obtenido a los escritos, libros, bocetos y abundante obra gráfica y escultórica que atesora la Fundación del pintor, se ha podido elaborar un andamiaje tanto teórico como geométrico que ha servido de base para confrontar estas premisas. Esta empresa se ha estructurado en una narración que, además de los estudios precedentes citados, comienza con los cimientos del pensamiento de Palazuelo. Elaborada a partir de sus escritos, donde defendía un sincretismo que concilia las visiones de las culturas occidental y oriental. En los siguientes apartados, se han analizado las principales obras gráficas y escultóricas del autor haciendo un especial hincapié en el método productivo. Una gestación que se resiste a una mera enumeración cronológica, por lo que la clasificación que se propone en este trabajo trata de ser lo más fiel posible al espíritu expresado por Palazuelo basado en linajes y coherencias, para desvelar las herramientas empleadas y poder compararlas con el proceso del proyectual. Este recorrido se completa con una última sección se reúnen por primera vez las dieciséis obras y los dieciséis proyectos más representativos que ilustran la aproximación más directa que obró Palazuelo entre sus investigaciones geométricas y un locus determinado. Durante casi cuatro años se desarrolló un inventariado y catalogación pormenorizada de la documentación y piezas sobre papel, lienzo y metal realizadas por Palazuelo. Esta indagación saca a la luz un conjunto constituido por casi cuatro mil obras, en su mayoría inéditas, que constituyen el archivo de la citada institución. En definitiva, esta investigación construye un tejido gráfico y geométrico referido a uno de los artistas españoles más importantes del siglo XX, entreverado por su pensamiento teórico y realizaciones en dibujos, maquetas, esculturas y propuestas arquitectónicas. Las cuales permiten establecer los acuerdos y desacuerdos con el proceso de la arquitectura para proponer una nueva aproximación geométrica interdisciplinar. ABSTRACT This research investigates the relationship between the geometric method used by Palazuelo and the architectural design’s process. Choosing this Spanish painter and sculptor as thread of this thesis is not fortuitous, since the architecture has an essential influence on his work. An influx that arrives in part through his academic training, as he was an architecture student at the School of Arts and Crafts of the city of Oxford (1933-1936). Furthermore his proposals designed closely linked to a built place, therefore conditioned by its traces. The working hypothesis formulated from texts written by authors like Victor Nieto Alcaide and Juan Daniel Fullaondo suggested an interconnection with organic architecture. As a check on the degree of depth in other published reviews, articles that explore the process that the artist developed during the production of his work, and penetrate into structural issues beyond formal domain have been selected. Following this pattern, along with a temporal dimension, assays by Santiago Amón, Carme Bonell, Valerio Bozal, Manuel J. Borja-Villel, Francisco Calvo Serraller, Claude Esteban, Julián Gállego, Teresa Grandas, Max Hölzer, George Limbour, Kevin Power and Carlos Rodriguez-Spiteri have been selected. Oral sources within an inherently environment close to his achievements, as Pere Casanovas and Soledad Lorenzo, are also added. In addition to people coincided with his accomplishments, such as Ramón Ayerza, Mariano Bayón, José Antonio Corrales, Luis Gordillo, Rafael Moneo, José Rodríguez-Spiteri and Antonio Tornero. From obtained access to the writings, books, sketches and abundant graphic and sculptural work that holds the Foundation painter, it has been able to develop a theoretical and geometric framework that have served as the basis for confronting these premises. This dissertation has been structured in a narrative that ⎯in addition to the previously mentioned studies⎯, begins with the foundations of Palazuelo thought. A structure built from his writings, where he defended a syncretism that reconciles the views of Western and Eastern cultures. In the following sections, his main graphic and sculptural works have been analyzed with particular emphasis on the productive method. A process that resists mere chronological enumeration, so the classification proposed in this investigation tries to be as faithful as possible to the spirit expressed by Palazuelo, based on bloodlines and coherences, to uncover the tools he used and to compare them with the architectural design process. This tour is completed with a final chapter that gathers the sixteen proposals and sixteen works most representative projects that illustrate the more direct approach that Palazuelo worked between geometric investigations and a given locus. For nearly four years, a detailed inventory and cataloguing of documents and works on paper, canvas and metal made by Palazuelo was developed. This research brings to light a set consisting of nearly four thousand works, mostly unpublished, that constitute the current archive of the aforementioned institution. Ultimately, this research builds a graph and geometric fabric referred to one of the most important Spanish artists of the twentieth century, interspersed by his theoretical thinking and achievements in drawings, models, sculptures and architectural proposals. Which allow establishing agreements and disagreements with the process of architecture to propose a new geometric interdisciplinary approach.
Resumo:
Las pilas de los puentes son elementos habitualmente verticales que, generalmente, se encuentran sometidos a un estado de flexión compuesta. Su altura significativa en muchas ocasiones y la gran resistencia de los materiales constituyentes de estos elementos – hormigón y acero – hace que se encuentren pilas de cierta esbeltez en la que los problemas de inestabilidad asociados al cálculo en segundo orden debido a la no linealidad geométrica deben ser considerados. Además, la mayoría de las pilas de nuestros puentes y viaductos están hechas de hormigón armado por lo que se debe considerar la fisuración del hormigón en las zonas en que esté traccionado. Es decir, el estudio del pandeo de pilas esbeltas de puentes requiere también la consideración de un cálculo en segundo orden mecánico, y no solo geométrico. Por otra parte, una pila de un viaducto no es un elemento que pueda considerarse como aislado; al contrario, su conexión con el tablero hace que aparezca una interacción entre la propia pila y aquél que, en cierta medida, supone una cierta coacción al movimiento de la propia cabeza de pila. Esto hace que el estudio de la inestabilidad de una pila esbelta de un puente no puede ser resuelto con la “teoría del pandeo de la pieza aislada”. Se plantea, entonces, la cuestión de intentar definir un procedimiento que permita abordar el problema complicado del pandeo de pilas esbeltas de puentes pero empleando herramientas de cálculo no tan complejas como las que resuelven “el pandeo global de una estructura multibarra, teniendo en cuenta todas las no linealidades, incluidas las de las coacciones”. Es decir, se trata de encontrar un procedimiento, que resulta ser iterativo, que resuelva el problema planteado de forma aproximada, pero suficientemente ajustada al resultado real, pero empleando programas “convencionales” de cálculo que sean capaces de : - por una parte, en la estructura completa: o calcular en régimen elástico lineal una estructura plana o espacial multibarra compleja; - por otra, en un modelo de una sola barra aislada: o considerar las no linealidades geométricas y mecánicas a nivel tensodeformacional, o considerar la no linealidad producida por la fisuración del hormigón, o considerar una coacción “elástica” en el extremo de la pieza. El objeto de este trabajo es precisamente la definición de ese procedimiento iterativo aproximado, la justificación de su validez, mediante su aplicación a diversos casos paramétricos, y la presentación de sus condicionantes y limitaciones. Además, para conseguir estos objetivos se han elaborado unos ábacos de nueva creación que permiten estimar la reducción de rigidez que supone la fisuración del hormigón en secciones huecas monocajón de hormigón armado. También se han creado unos novedosos diagramas de interacción axil-flector válidos para este tipo de secciones en flexión biaxial. Por último, hay que reseñar que otro de los objetivos de este trabajo – que, además, le da título - era cuantificar el valor de la coacción que existe en la cabeza de una pila debido a que el tablero transmite las cargas de una pila al resto de los integrantes de la subestructura y ésta, por tanto, colabora a reducir los movimientos de la cabeza de pila en cuestión. Es decir, la cabeza de una pila no está exenta lo cual mejora su comportamiento frente al pandeo. El régimen de trabajo de esta coacción es claramente no lineal, ya que la rigidez de las pilas depende de su grado de fisuración. Además, también influye cómo las afecta la no linealidad geométrica que, para la misma carga, aumenta la flexión de segundo orden de cada pila. En este documento se define cuánto vale esta coacción, cómo hay que calcularla y se comprueba su ajuste a los resultados obtenidos en el l modelo no lineal completo. The piers of the bridges are vertical elements where axial loads and bending moments are to be considered. They are often high and also the strength of the materials they are made of (concrete and steel) is also high. This means that slender piers are very common and, so, the instabilities produced by the second order effects due to the geometrical non linear effects are to be considered. In addition to this, the piers are usually made of reinforced concrete and, so, the effects of the cracking of the concrete should also be evaluated. That is, the analysis of the instabilities of te piers of a bridge should consider both the mechanical and the geometrical non linearities. Additionally, the pier of a bridge is not a single element, but just the opposite; the connection of the pier to the deck of the bridge means that the movements of the top of the pier are reduced compared to the situation of having a free end at the top of the pier. The connection between the pier and the deck is the reason why the instability of the pier cannot be analysed using “the buckling of a compressed single element method”. So, the question of defining an approximate method for analysing the buckling of the slender piers of a bridge but using a software less complex than what it is needed for analysing the “ global buckling of a multibeam structure considering all t”, is arisen. Then, the goal should be trying to find a procedure for analysing the said complex problem of the buckling of the slender piers of a bridge using a simplified method. This method could be an iterative (step by step) procedure, being accurate enough, using “normal” software having the following capabilities: - Related to the calculation of the global structure o Ability for calculating a multibesam strucutre using elastic analysis. - Related to the calculation of a single beam strcuture:: o Ability for taking into account the geometrical and mechanical () non linearities o Ability for taking into account the cracking of the concrete. o Ability for using partial stiff constraints (elastic springs) at the end of the elements One of the objectives of this document is just defining this simplified methodology, justifying the accuracy of the proposed procedure by using it on some different bridges and presenting the exclusions and limitations of the propose method. In addition to this, some new charts have been created for calculating the reduction of the stiffness of hollow cross sections made of reinforced concrete. Also, new charts for calculating the reinforcing of hollow cross sections under biaxial bending moments are also included in the document. Finally, it is to be said that another aim of the document – as it is stated on the title on the document – is defining the value of the constraint on the top of the pier because of the connection of the pier to the deck .. and to the other piers. That is, the top of the pier is not a free end of a beam and so the buckling resistance of the pier is significantly improved. This constraint is a non-elastic constraint because the stiffness of each pier depends on the level of cracking. Additionally, the geometrical non linearity is to be considered as there is an amplification of the bending moments due to the increasing of the movements of the top of the pier. This document is defining how this constraints is to be calculated; also the accuracy of the calculations is evaluated comparing the final results with the results of the complete non linear calculations
Resumo:
El documento presentado contiene una aproximación a algunos de los diversos problemas actuales existentes en el campo de la robótica paralela. Primeramente se hace una propuesta para el cálculo de los parámetros estructurales de los robots paralelos, mediante el desarrollo de una metodología que combina las herramientas del estudio de mecanismos con el álgebra lineal; en una segunda sección se propone la solución del problema geométrico directo a partir de la definición de ecuaciones de restricción y su respectiva solución usando métodos numéricos, así como la solución para el problema geométrico inverso; en la tercera parte se aborda el problema dinámico tanto directo como inverso y su solución a partir de una metodología basada en el método de Kane o de trabajos virtuales. Para las propuestas metodológicas expuestas se han desarrollado ejemplos de aplicación tanto teóricos como prácticos (simulaciones y pruebas físicas), donde se demuestra su alcance y desempeño, mediante su utilización en múltiples configuraciones para manipuladores paralelos, entre los que se destacan la plataforma Stewart Gough, y el 3-RRR. Todo con el objetivo de extender su aplicación en futuros trabajos de investigación en el área. ABSTRACT The document presented below provides an approach to some of the many current problems existing in the field of parallel robotics. First is maked a proposal for calculating the structural parameters of the parallel robots, through developing a methodology that combines tools to study mechanisms with the linear algebra; a second section contains a direct geometrical problem solution from the definition of constraint equations and their respective solution using numerical methods, as well as the solution to the inverse geometric problem; in the third part, both, direct and inverse dynamic problem and its solution based on methodology Kane or the method of virtual work are propossed. For each of the exposed methodological proposals they were developed examples of both theoretical and practical application (simulations and physical tests), where its scope and performance is demonstrated by its use in multiple configurations for parallel manipulators, among which stand out the platform Stewart Gough, and 3-RRR. All with the goal of extending its application in future research in the area.
Resumo:
El presente proyecto desarrolla un estudio acústico del recinto: Auditorio Rafael Frühbeck de Burgos, cumpliendo con las indicaciones exigidas por la norma UNE-EN ISO 3382-1: 2010, “Medición de parámetros acústicos en recintos, Parte 1: Salas de Espectáculos”. Se desarrollan dos estudios acústicos sobre el mismo recinto. En el primero de ellos, el recinto está configurado para la realización de eventos tales como conferencias o congresos, donde la inteligibilidad de la palabra es un factor determinante. En el segundo estudio, el recinto se configura para espectáculos musicales como conciertos de orquesta sinfónica o música de cámara. En esta configuración, la palabra ya no es tan determinante como la correcta interpretación y disfrute de la música por parte de la audiencia. Para ambas configuraciones del recinto se ha realizado un procesado estadístico de los datos con el fin de obtener un valor único de cada parámetro acústico estudiado. De esta forma, se comparan los resultados para ambas configuraciones, y se evalúan los valores obtenidos de cada uno de los parámetros acústicos con el fin de conocer si se adecuan a las necesidades acústicas exigidas por el tipo de evento desarrollado. Además, se ha construido un modelo geométrico del recinto por ordenador, para ambas configuraciones acústicas, haciendo uso del software profesional de predicción y simulación acústica EASE. Se realiza un estudio acústico sobre el modelo geométrico mediante simulación, siguiendo las pautas llevadas a cabo durante la medición “in situ”. Los resultados obtenidos por simulación se comparan con los obtenidos de las mediciones “in situ”, para estudiar la validación del modelo geométrico. El parámetro acústico elegido para validar el modelo, en un primer momento, será el tiempo de reverberación. Si se consigue una buena validación del modelo geométrico, este puede ser utilizado para realizar predicciones acústicas mediante simulación, cuando un sistema de refuerzo sonoro sea utilizado dentro del recinto. El sistema de refuerzo sonoro ubicado en el recinto sometido a estudio, no ha sido utilizado en el presente proyecto. ABSTRACT. The present projects carry out an acoustic study of enclosure: Rafael Frühbeck Concert Hall, in Burgos, fulfilling the indications demanded by the standard UNE-EN ISO 3382-1:2010 “Measurement of room acoustic parameters – Part 1: Performance spaces. Two acoustics studies are developed on the same enclosure. In first of them, the enclosure is formed for the accomplishment of events such as conferences or congresses, where speech intelligibility is a determining factor. In the second study, the enclosure forms for musical performances like concerts of symphony orchestra or chamber music. In this acoustic configuration, speech intelligibility is not as determining as the correct interpretation and enjoyment of music in audience areas. For both configurations of the enclosure, a statistical processing of the data has been realised with the purpose of obtaining a unique value of each studied acoustic parameter. In this way, the results for both configurations are compared, and the obtained values of each one of the acoustic parameters are evaluated with the purpose of knowing if they are adapted to the acoustic needs demanded by the type of developed event. In addition, a geometric model of the enclosure has been constructed by computer, for both acoustic configurations; making use of the professional software of prediction and acoustical simulation, EASE. An acoustic study is developed on the geometric model by means of simulation, following the rules carried out during the measurement “in situ”. The results obtained by simulation are compared with the obtained ones from the measurement “in situ”, to study the validation of the geometric model. Initially the acoustic parameter chosen to validate the model is Reverberation Time. If a good validation of the geometric model is reached, it can be used to realize acoustic predictions by simulation, when a sound reinforcement system is used within the enclosure. The sound reinforcement system located in the enclosure under study has not been used in the present project.
Resumo:
El crecimiento demográfico y el proceso de urbanización que ha experimentado el planeta en el último siglo se ha traducido, en contextos de pobreza, en la generación de tugurios y en el aumento de la población viviendo en condiciones de habitabilidad precaria (HaP) fruto de la urbanización informal. Situación que, según las estimaciones de Naciones Unidas continuará teniendo lugar en las próximas décadas, especialmente en las ciudades de las regiones menos desarrolladas. Este ha sido el problema específico que se ha querido atender con el presente trabajo: la búsqueda de un instrumento urbano que incida en la reducción de las tasas de precariedad habitacional urbana futuras, la búsqueda de instrumentos que eviten que ese aumento de la urbanización se traduzca en aumento de población condenada a vivir en tugurios durante décadas. Dicha búsqueda ha tenido lugar en el marco de la teoría de la Habitabilidad Básica (HaB) desarrollada por el ICHaBCátedra UNESCO de Habitabilidad Básica de la UPM. Una HaB que consiste en la satisfacción de las necesidades fundamentales de habitabilidad pero, a su vez, o más importante aún, en una esperanza de mejora y progreso paulatino de esas condiciones elementales entendida como herramienta de desarrollo y lucha contra la pobreza. Como herramienta básica, no se trata de ofrecer las condiciones ideales, sino de brindar un camino razonable, que se considera posible, para que miles de millones de personas que viven en HaP o parecen condenadas a tener que hacerlo, puedan acceder a mejores condiciones de vida en tiempos más cortos. Entre las políticas habitacionales no convencionales puestas en marcha desde Hábitat I en 1976, las de habilitación urbana progresiva, y más en particular, la Ocupación Guiada, resultan ser en contextos de escasez económica, el mejor instrumento para hacer frente a la urbanización informal, un instrumento paradigmático mínimo preferente de implantación ex novo de HaB. Lo es, por la atención prestada en la elección del suelo y la parcelación, las dos etapas cabecera del proceso, así como por los mecanismos implementados para atender la etapa de urbanización en su fase provisional, y por dejar la última etapa, la de la edificación de las viviendas, en manos de la población. El proceso de urbanización que se favorece es parecido al de los tugurios y ocupaciones ilegales en lo referente a las etapas y mecanismos de crecimiento. Sin embargo, la diferencia está en las condiciones en las que se produce, en los niveles de salubridad y de seguridad, y en la proyección de futuro. El Programa de Ocupación Guiada 'Alto Trujillo' (POG), puesto en marcha por la municipalidad de Trujillo (Perú) entre 1995 y 2006 fue concebido para hacer frente a los procesos de urbanización informal que estaban teniendo lugar en la ciudad y ha demostrado ser un mecanismo adecuado para garantizar el acceso regulado al suelo, las infraestructuras, los servicios básicos y la vivienda en condiciones de fuerte restricción económica mediante un cogestión acertada entre municipalidad, población y demás actores del proceso. El POG eligió un suelo no vulnerable y en continuidad con el tejido urbano, con la parcelación estableció el orden geométrico del asentamiento y reservó los espacios públicos destinados a equipamientos, zonas verdes y viario, y fijó las dimensiones de las parcelas, acompañó a la población en el proceso de ocupación guiada de las mismas, así como en el posterior desarrollo progresivo del asentamiento haciendo una fuerte apuesta por lo público, relegando la construcción de las viviendas al esfuerzo de los pobladores. Los POG municipales resultan ser un instrumento replicable siempre que se den cinco condiciones: la existencia de un marco institucional adecuado que contemple la descentralización de competencias, que haya interés y continuidad política en el gobierno local, acceso a suelo urbano disponible y voluntad de co-gestión con la población. El análisis del POG ha permitido elaborar una propuesta de replicabilidad del POG basada en la experiencia de soluciones ya implementadas, que han sido contrastadas empíricamente y analizadas para aprender de sus fortalezas, oportunidades, debilidades y amenazas, así como de sus aciertos y errores. La estrategia de replicabilidad del POG se plantea como alternativa a la urbanización informal con mecanismos mejorados para que las ciudades se desarrollen siguiendo unos parámetros mínimos de HaB y no a través de asentamientos informales que dificulten el progreso futuro de las familias que los habitan y de las mismas ciudades de las que forman parte. Esta propuesta de replicabilidad, que precisa ser adaptada a cada contexto, tenía una clara vocación: intentar ser instrumento en la región del planeta donde, según las estimaciones, en los próximos treinta años el crecimiento demográfico y el proceso de urbanización serán más fuertes: África Subsahariana. Por ello, con el apoyo de expertos mozambiqueños en temas de habitabilidad, se estudió la replicabilidad en Mozambique incorporando las medidas necesarias que darían respuesta a los condicionantes particulares del país. ABSTRACT The demographic growth and the urbanisation process that the planet has experienced in the last century has turned into the generation of slums and in the increase of population living in conditions of precarious habitability (HaP) result of the informal urbanisation, in contexts of poverty. According to the United Nations estimations, this situation will continue taking place in the next decades, especially in the cities of the least developed regions. The present work has wanted to attend this specific problem by the search of an urban instrument that has an impact on the reduction of the urban future precarious housing rates, a search of instruments that prevent that this urbanisation spread become an increase of population doomed to live in slums during decades. The above mentioned search has taken place in the frame of the Basic Habitability theory (HaB) developed by the ICHaB-Cátedra UNESCO of Basic Habitability of the UPM. HaB consists of the satisfaction of the fundamental habitability needs but, in turn, or still more important, it is the hope of improvement and gradual progress of these elementary conditions. The HaB is understood as a tool of development and fight against poverty. As a basic tool, it does not offer the ideal conditions, but it offers a reasonable way, which is considered to be possible, so that thousands of million persons who live in HaP or that seem to be doomed to have to do it, could gain access to better living conditions in shorter times. Between the non conventional housing policies started up from Habitat I in 1976, those of urban progressive fitting out, and more especially, the Guided Occupation, has turned out to be, in contexts of economic shortage, the best instrument to face the informal urbanisation, a preferential and minimum paradigmatic instrument of ex-novo HaB implementation. It is so due to the attention given to the appropriate site selection and the land allotment, both headboard stages of the process, as well as to the mechanisms implemented to attend the urbanisation stage in its provisional phase, and to leave the last stage, the building process, in population hands. The urbanisation process that is favored is similar to that of the slums and squatting in what concerns the stages and mechanisms of growth. Nevertheless, the difference is in the conditions in which it takes place, in the levels of health and safety, and in the future projection. The Program of Guided Occupation 'Alto Trujillo' (PGO), turned on by the Provincial City Hall of Trujillo (Peru) between 1995 and 2006, was conceived to face the processes of informal urbanisation that took place in the city and it has demonstrated to be a mechanism adapted to guarantee the regulated access to soil, infrastructures, basic services and housing in conditions of strong economic restriction by means of a succeeded co-management between municipality, population and other process actors. The PGO chose a non vulnerable soil in continuity with the urban fabric, with the land allotment established the settlement geometric order, reserved the public spaces allocated for urban facilities, green spaces and streets, and fixed the plot dimensions, accompanied the population in the plot guided occupation process, as well as in the later progressive settlement development betting strongly for the public components, relegating the housing construction to the settlers effort. The municipal PGO turn out to be a replicable instrument under five conditions: the existence of an institutional suitable frame that contemplates the decentralization competitions, interest and political continuity in the local government, access to urban available soil and will of co-management with the population. The PGO analysis has allowed to elaborate a replicability proposal of the PGO based on the experience of the already implemented solutions, which have been empirically confirmed and analyzed to learn of its strengths, opportunities, weaknesses and threats, as well as of its successes and mistakes. The replicability strategy of the PGO is considered an alternative to the informal urbanisation with improved mechanisms in order that the cities can develop following a few HaB's minimal parameters, but not through informal settlements that would make difficult the families future progress and that of the cities where they live. This replicability proposal, that needs to be adapted to every context, had a clear vocation: try to be an instrument in the region of the planet where, according to the estimations, in the next thirty years the demographic growth and the urbanisation process will be stronger: Sub-Saharan Africa. Therefore, with the support of Mozambican experts in habitability topics, the replicability was studied in Mozambique incorporating the necessary measures that would give response to the country's determinants.
Resumo:
El origen de esta tesis considera una lectura (quizás) pendiente: definir críticamente a la monumentalidad en el contexto de la arquitectura moderna. La idea de lo monumental durante la modernidad establece parte de la negación enmarcada en un planteamiento más amplio, basado en el rechazo a todo vínculo con la tradición y la historia. Desde el estatismo del monumento como objeto anacrónico, a la instrumentación de la arquitectura como herramienta simbólica, el proceso transformador más importante para la arquitectura durante el siglo XX contaba con algunas señales que nos daban la pauta para imaginar una realidad conformada por matices y desacuerdos fundamentales. La investigación no pretende contar una nueva historia sobre el periodo moderno, aunque irremediablemente se vale de su registro para presentar la discusión. Así, la idea crítica que sostenemos tiene que ver con las posibilidades estructurales y objetivas del discurso arquitectónico. Un discurso que se analiza en función de tres campos diferenciados, designados como: lo escrito, lo proyectado y lo construido en el periodo de estudio. De esta manera, pensamos que se favorecen las posibilidades dimensionales de la crítica y se amplía el sentido narrativo de la linealidad histórica. Para esta trabajo, la monumentalidad constituye una sustancia de estudio que evidencia las contradicciones, inadvertencias y matices necesarios en la articulación de una visión más compleja sobre los acontecimientos. Convencidos de la eficacia de un modelo dialéctico, que define la condición de lo monumental tanto en una valoración positiva (lo propicio, lo útil, lo verdadero, etc.) como negativa (lo falso, lo ostentoso, lo altisonante, etc.); observaremos que las diferencias alrededor del concepto derivan respectivamente en los significados de monumentalidad y monumentalismo. El contraste y la oposición de ideas expuestas a la luz favorece esa pretensión dimensional de la crítica. De los escritos de Sigfried Giedion -y la Nueva Monumentalidad- a Le Corbusier y la construcción de Chandigarh; o de la crítica anti-monumental de Karel Teige, pasando por el proyecto constructivista de Ivan Leonidov; los distintos episodios referidos en el trabajo encuentran sentido y rechazan las probabilidades arbitrarias y confusas de la selección temática. En ese orden, se busca asignar cierto rigor metodológico e incluso geométrico: la estructura propuesta toma el gran "periodo moderno" en dos bloques temporales, primera-modernidad (alrededor de 1910-1935) y tardo-modernidad (aprox. 1935-1960). En la primera parte se analizan una postura -en mayor medida- reactiva a las manifestaciones de esa hipotética condición monumental, mientras que en el segundo caso la postura se transforma y se perfila un nuevo escenario que anticipará ideológicamente parte de la evidente fractura posmoderna. A su vez, los tres registros anunciados previamente se componen de dos capítulos en función del marco temporal descrito; cada capítulo se desarrolla en tres partes que abundan en los aspectos preliminares de la discusión, luego exponen unos puntos centrales y finalmente orientan un posible recuento. El trabajo se complementa con una parte introductoria que fluye sobre definiciones concretas del monumento, el monumentalismo y la monumentalidad; además de que definirá la orientación de la crítica desarrollada. En una última intervención, a manera de conclusión, se reflexiona sobre el salto temporal, ideológico y estético que la posmodernidad representó para el tema de investigación. Abstract The purpose of this thesis is to consider a (perhaps) pendant issue: to define monumentality by means of critical approach within the modern context of architecture. The idea of what monumental is during modernity establishes a fraction of the "modern typical denial" based on the rejection of any link to tradition and history. From the anachronistic idea of static monuments, to the orchestration of architecture as a symbolic tool, the most important process of the revolution of architecture during the 20th Century had a few signs that allowed us to imagine a reality conformed by fundamental nuances and disagreements. The aim of this research is not to tell a new story about the modern period, although inexorable it takes note of the register to present the discussion. Therefore, the idea of what we expose as criticism has to do with structural and objective possibilities in the architectural discourse. A speech analyzed in response to three differentiated domains designated here as: the written, the projected and the built during the selected time. In that way, we believe the dimensional possibilities of criticism are favored and the narrative sense of historical process is expanded. In terms of this investigation monumentality constitutes a matter of study that leads us to contradictions, unnoticed issues and necessary gray areas in the articulation of a complex vision about depicted events. We are convinced in the efficiency of a dialectical analysis model in order to define the monumental condition both as a positive value (propitious, useful, truthful, etc.) and a negative one (untrue, ostentatious, pompous, etc.); the idea is to show the differences around respective meanings deriving in terms of monumentality and monumentalism. Contrasting information and the opposition of ideas exposed in this light helped to develop the assumption of dimensional criticism. From Sigfried Giedeon's writings -and the New Monumentality- to Le Corbusier and the construction of Chandigarh; and from Karel Teige's anti-monumental criticism going through the revision of Ivan Leonidov's constructivist project; the variety of episodes referred to this work find some sense and reject the probabilities about confusion and arbitrary in the selection of themes. In order to assign some methodological precision and even geometrical criterion, the proposed structure divides the "great modern time" into two historical blocks: first-modernity (circa 1910-1935) and late-modernity (around 1935-1960). The first part analyzes a -mainly- reactive stance towards the hypothetical expressions of monumental condition, whereas in the second block the rejection tends to be transformed and to project a new scenario that will foresee the ideological postmodern fracture. At the same time, the three registers are composed by two chapters each one will operate depending on the described time frame. Each chapter is organized in three subsequent parts: at first explaining preliminary ideas for discussion, second presenting central points and finally orienting a partial recount. The research is complemented with an introductory episode describing specific definitions concerning the concepts of monument, monumentalism and monumentality; and mainly orienting the developed critique. In a final intervention, as a way of conclusion, we reflect on ideological and aesthetic qualities that postmodern time shift represented for this investigation.
Resumo:
La presente tesis revisa y analiza algunos aspectos fundamentales relativos al comportamiento de los sensores basados en resonadores piezoeléctricos TSM (Thickness Shear Mode), así como la aplicación de los mismos al estudio y caracterización de dos medios viscoelásticos de gran interés: los fluidos magnetoreológicos y los biofilms microbianos. El funcionamiento de estos sensores está basado en la medida de sus propiedades resonantes, las cuales varían al entrar en contacto con el material que se quiere analizar. Se ha realizado un análisis multifrecuencial, trabajando en varios modos de resonancia del transductor, en algunas aplicaciones incluso de forma simultánea (excitación pulsada). Se han revisado fenómenos como la presencia de microcontactos en la superficie del sensor y la resonancia de capas viscoelásticas de espesor finito, que pueden afectar a los sensores de cuarzo de manera contraria a lo que predice la teoría convencional (Sauerbrey y Kanazawa), pudiéndonos llevar a incrementos positivos de la frecuencia de resonancia. Además, se ha estudiado el efecto de una deposición no uniforme sobre el resonador piezoeléctrico. Para ello se han medido deposiciones de poliuretano, modelándose la respuesta del resonador con estas deposiciones mediante FEM. El modelo numérico permite estudiar el comportamiento del resonador al modificar distintas variables geométricas (espesor, superficie, no uniformidad y zona de deposición) de la capa depositada. Se ha demostrado que para espesores de entre un cuarto y media longitud de onda aproximadamente, una capa viscoelástica no uniforme sobre la superficie del sensor, amplifica el incremento positivo del desplazamiento de la frecuencia de resonancia en relación con una capa uniforme. Se ha analizado también el patrón geométrico de la sensibilidad del sensor, siendo también no uniforme sobre su superficie. Se han aplicado sensores TSM para estudiar los cambios viscoelásticos que se producen en varios fluidos magneto-reológicos (FMR) al aplicarles distintos esfuerzos de cizalla controlados por un reómetro. Se ha podido ver que existe una relación directa entre diversos parámetros reológicos obtenidos con el reómetro (fuerza normal, G’, G’’, velocidad de deformación, esfuerzo de cizalla…) y los parámetros acústicos, caracterizándose los FMR tanto en ausencia de campo magnético, como con campo magnético aplicado a distintas intensidades. Se han estudiado las ventajas que aporta esta técnica de medida sobre la técnica basada en un reómetro comercial, destacando que se consigue caracterizar con mayor detalle algunos aspectos relevantes del fluido como son la deposición de partículas (estabilidad del fluido), el proceso de ruptura de las estructuras formadas en los FMR tanto en presencia como en ausencia de campo magnético y la rigidez de los microcontactos que aparecen entre partículas y superficies. También se han utilizado sensores de cuarzo para monitorear en tiempo real la formación de biofilms de Staphylococcus epidermidis y Eschericia coli sobre los propios resonadores de cristal de cuarzo sin ningún tipo de recubrimiento, realizándose ensayos con cepas que presentan distinta capacidad de producir biofilm. Se mostró que, una vez que se ha producido una primera adhesión homogénea de las bacterias al sustrato, podemos considerar el biofilm como una capa semi-infinita, de la cual el sensor de cuarzo refleja las propiedades viscoelásticas de la región inmediatamente contigua al resonador, no siendo sensible a lo que sucede en estratos superiores del biofilm. Los experimentos han permitido caracterizar el módulo de rigidez complejo de los biofilms a varias frecuencias, mostrándose que el parámetro característico que indica la adhesión de un biofilm tanto en el caso de S. epidermidis como de E. coli, es el incremento de G’ (relacionado con la elasticidad o rigidez de la capa), el cual viene ligado a un incremento de la frecuencia de resonancia del sensor. ABSTRACT This thesis reviews and analyzes some key aspects of the behavior of sensors based on piezoelectric resonators TSM (Thickness Shear Mode) and their applications to the study and characterization in two viscoelastic media of great interest: magnetorheological fluids and microbial biofilms. The operation of these sensors is based on the analysis of their resonant properties that vary in contact with the material to be analyzed. We have made a multi-frequency analysis, working in several modes of resonance of the transducer, in some applications even simultaneously (by impulse excitation). We reviewed some phenomena as the presence of micro-contacts on the sensor surface and the resonance of viscoelastic layers of finite thickness, which can affect quartz sensors contrary to the conventional theory predictions (Sauerbrey and Kanazawa), leading to positive resonant frequency shifts. In addition, we studied the effect of non-uniform deposition on the piezoelectric resonator. Polyurethane stools have been measured, being the resonator response to these depositions modeled by FEM. The numerical model allows studying the behavior of the resonator when different geometric variables (thickness, surface non-uniformity and deposition zone) of the deposited layer are modified. It has been shown that for thicknesses between a quarter and a half of a wavelength approximately, non-uniform deposits on the sensor surface amplify the positive increase of the resonance frequency displacement compared to a uniform layer. The geometric pattern of the sensor sensitivity was also analyzed, being also non-uniform over its surface. TSM sensors have been applied to study the viscoelastic changes occurring in various magneto-rheological fluids (FMR) when subjected to different controlled shear stresses driven by a rheometer. It has been seen that there is a direct relationship between various rheological parameters obtained with the rheometer (normal force, G', G'', stress, shear rate ...) and the acoustic parameters, being the FMR characterized both in the absence of magnetic field, and when the magnetic field was applied at different intensities. We have studied the advantages of this technique over the characterization methods based on commercial rheometers, noting that TSM sensors are more sensitive to some relevant aspects of the fluid as the deposition of particles (fluid stability), the breaking process of the structures formed in the FMR both in the presence and absence of magnetic field, and the rigidity of the micro-contacts appearing between particles and surfaces. TSM sensors have also been used to monitor in real time the formation of biofilms of Staphylococcus epidermidis and Escherichia coli on the quartz crystal resonators themselves without any coating, performing tests with strains having different ability to produce biofilm. It was shown that, once a first homogeneous adhesion of bacteria was produced on the substrate, the biofilm can be considered as a semi-infinite layer and the quartz sensor reflects only the viscoelastic properties of the region immediately adjacent to the resonator, not being sensitive to what is happening in upper layers of the biofilm. The experiments allow the evaluation of the biofilm complex stiffness module at various frequencies, showing that the characteristic parameter that indicates the adhesion of a biofilm for the case of both S. epidermidis and E. coli, is an increased G' (related to the elasticity or stiffness of the layer), which is linked to an increase in the resonance frequency of the sensor.
Resumo:
Los llamados procesos creativos en general, y los del proyectar arquitectónico en particular, mantienen aproximaciones hacia el objeto centradas principalmente en el procedimiento, es decir, en lo estratégico, lo metodológico o/y lo paradigmático. En ellas, además, el potencial de información no suele ser completo ni contemplado o, si lo ha sido, de manera inconciente, o referido de nuevo a lo procedimental. Igualmente, se centra el interés de estas aproximaciones, o en el objeto propuesto o resultado, o en lo procesal, pero sin atender a su constitución, es decir, a la información misma. Por tanto, y como reclama la física, la base constituyente informacional de estas aproximaciones, no ha sido considerada hasta ahora, ni se ha intentado sistematizar. Junto a esta omisión, estos acercamientos no permiten que cada humano configure de manera autónoma, independiente e íntegramente su propio proceso pues, los comentados procedimientos, están apoyados en marcos contextuales, culturales o/y procesales, reflejando así una orientación limitada en espacio-tiempo. Es así que se propone una potencia, o “aquellas cualidades poseídas por las cosas en cuya virtud éstas son totalmente impasibles o inmutables, o no se dejan cambiar fácilmente…”, según la define Aristóteles en “Metafísica”, como la posibilidad de, a la vez, aludir a un abanico informacional completo y apuntar hacia la íntegra elaboración de un proceso personal propio. Desde lo informacional, que a su vez es energético dependiendo de la disciplina científica considerada, se diferencian, en primer lugar, unos atributos o términos mínimos, que son unas potencias que compendian el abanico informacional completo. Es decir, son mínimos máximos. Estos atributos forman la fase cualitativa de la información a la que se llama acompañamiento. En segundo lugar, y apoyado tanto en el funcionamiento cerebral, en el espacio-tiempo cuántico, como en los nuevos experimentos e investigaciones de la biología, la física y la neurociencia en especial, se abren líneas nuevas para acceder a la información, antes contemplada de manera lineal, local y como entidad separada. Por ello, esta segunda aproximación presenta una potencia de intensificación de datos, que permite un aumento de los mismos en el cerebro y, por ello, la posibilidad de evitar el problema del “papel en blanco”. A esta fase se la nombra promoción. En tercer lugar, ambas fases constituyen la generación como propuesta de tesis, siendo la misma un cambio de cualquier tipo en el que alguien es agente de algo, específicamente, cuando un humano es mediador entre sucesos. Fusionando ambas, se añade simultáneamente una con-formación potencial global, que es sinérgicamente más que la suma de las dos anteriores. De esta manera agrupadora, y con objeto de materializar y sistematizar ahora esta generación o potencia, se presenta una puesta en práctica. Para ello, se desarrolla un modelo analítico-geométrico-paramétrico y se expone su aplicación en dicho caso práctico. Además, dicho modelo presenta un funcionamiento autorreferido u holográfico, reflejando tanto a los estudios científicos revisados, como al propio funcionamiento de los atributos o/y de todas las potencias que se presentan en esta investigación. ABSTRACT Generally speaking the so-called creative processes, and particularly those of the architectural design, keep approaches into the object oriented mainly in the process, so to speak, into the strategical, the methodological and/ or into the paradigmatic. In addition, they don’t usually take into account the potential of information neither in a complete manner nor even contemplated or, if considered, worked out unconsciously, or referred back to the procedural. Similarly, the interest of these approaches is focused either in the proposed object or the output, or in the processual, but leaving their constituent out, being it the information itself. Therefore, as physics is claiming nowadays, the constituent core of these approaches have neither been taken into account so far, nor tried to systematize. Along with this omission, these approaches do not allow each human being to set up autonomously, independently and entirely her/ his own process, because the mentioned procedures are supported by contextual, cultural and/ or procedural frameworks, reflecting then a perspective limited in space-time. Thus a potency is proposed, or "those qualities possessed by things under which they are totally impassive or immutable, or are not easily changed...", as defined by Aristotle in "Metaphysics", as the possibility to, and at the same time, alluding to a full informational range and point out to a whole development of an own personal process. From the informational stand, which in turn is energetic depending on the scientific discipline considered, it is distinguished, in the first place, a minimum set of attributes or terms, which are potencies that summarize the full informational range. That is, they are maximum minimums. These attributes build up the qualitative phase of the information being called accompaniment. Secondly, and supported in the brain functioning, in quantum space-time, as in new experiments and research carried out by biology, physics and neuroscience especially, new lines to access information are being opened, being contemplated linearly, locally and as a detached entity before. Thus, this second approach comes up with a potency of data`s intensifying that allows an increase in the brain thereof and, therefore, the possibility of avoiding the problem of "the blank paper". Promotion is how this phase is appointed. In the third place, both phases form the generation as the dissertation proposal, being it a change of any kind in which someone is the agent of something, specifically, when a human being is the mediator in between events. Fusing both of them, a global potential formation-with is added simultaneously, which is synergistically greater than the sum of the previous two. In this grouping way, and now in order to materialize and systemize this generation or potency, an implementation is displayed. To this end, an analytical-geometrical-parametrical model is developed and put into practice as a case study. In addition, this model features a self-referral or holographic functioning, being aligned to both scientific reviewed studies, and the very functioning either of the attributes and/ or all the potencies that are introduced in this research.
Resumo:
En esta investigación se han analizado morteros de cal de cronología romana en el interior de la Península Ibérica. Para ello, se seleccionó una serie de muestras procedentes de diversos yacimientos, y de estructuras de carácter industrial. Estas muestras presentan aditivos cerámicos y conglomerantes de cal, como característica principal. Desde un principio el esfuerzo debía de centrarse en los fragmentos cerámicos presentes en los morteros. Para ello se documentaron varios morteros con aditivos cerámicos, a fin de conocer sus características básicas (componentes, distribución, micro-estratigrafía, granulometría, etc.). Por ello, y una vez tomadas las muestras, ésta fueron tratadas y procesadas para desarrollar una primera fase de estudio por medio de macroscopía. Se obtuvieron buenos resultados en cuanto a la caracterización visual de los morteros, localizando y documentando los fragmentos cerámicos. Durante la observación de dichos aditivos se observó que los fragmentos cerámicos tenían unas coronas o anillos de coloración que recorrían el borde, justo al contacto con la matriz de cal. Fueron seleccionados algunos fragmentos en los que eran más visibles dichos anillos. A fin de conocer la posible relación entre algunos yacimientos cercanos y la presencia de dicho anillo cromáticos se desarrolló una microscopía óptica polarizada, realizando láminas delgadas de las muestras y sobre los fragmentos cerámicos más determinantes, en concreto de una serie de enclaves del valle del Henares. Además de caracterizar microscópicamente los morteros, se observó que los anillos no eran un defecto visual ni una alteración física, producida tal vez por la extracción, la fase del corte o por la cocción de la cerámica. Tras analizar varios ejemplares se pudo apreciar que esos anillos eran habituales en todas las muestras y que se presentaban de diferente manera, es decir, que se observaban en granos cerámicos de diferentes características físicas (cochura, tamaño, situación con respecto del conglomerante, etc.). A fin de conocer los aspectos químicos de dicha alteración se seleccionó un grupo de muestras en las que los resultados macroscópicos habían sido muy claros, y en las que la microscopía óptica polarizada había determinado en los bordes, áreas adecuadas para otros análisis. Se realizó un mapeado o mapping de elementos químicos, a fin de saber qué podía estar sucediendo en esa interfaz entre el fragmento cerámico y la matriz de cal. Gracias a los resultados obtenidos se comprobó que existía una acumulación potencial de calcio tanto en el interior de los granos cerámicos como en el exterior, justo en la zona de contacto con el conglomerante, formando manchas que recorrían longitudinalmente el borde. Estos datos fueron muy útiles para llevar a cabo la siguiente fase de estudio, que permitiría conocer puntualmente qué estaba sucediendo químicamente en esa zona de contacto. Finalmente y con el objetivo de describir química y puntualmente este efecto en las adiciones cerámicas, se volvió a seleccionar una serie de muestras, escogidas esta vez en función de los granos cerámicos que cumpliesen unas variables estadísticas. Se eligieron granos con distintos tipos de cocciones, así como granos con tamaños diversos y granos con aditivo ceniciento en la matriz de cal, pensando que podrían ser las variables más útiles de interpretar de existir algún tipo de cambio químico entre la arcilla cocida y la matriz de cal. Tales variables se adaptaron a un sistema estadístico multi-varial y geométrico, con el objetivo de sintetizar los resultados y visualizar de forma óptima los datos en conjunto, como se ha comentado en varias ocasiones en este trabajo. Una vez seleccionados los granos por variables se procedió a realizar un análisis lineal y espectral semi-cuantitativo de SEM-EDX, con el que se caracterizaba químicamente una sección lineal del grano, desde la matriz de arcilla cocida de la cerámica hasta la matriz de cal –del interior al exterior del grano- pasando por el centro de la banda de reacción. Este análisis permitió determinar que se había producido una serie de cambios químicos porcentuales en los granos de cerámica. Dichos cambios se resumen en un incremento global de los porcentajes de calcio en el interior de las bandas de reacción de la cerámica, desde el borde mismo del anillo hasta el exterior. Así también se observaron picos porcentuales en el interfaz del fragmento cerámico con la matriz de cal, lo que confirmaba los resultados obtenidos por medio del mapping. Globalmente en todas las muestras se apreció un hombro en las gráficas de calcio a su paso por la zona de afección del anillo de reacción. Los restantes porcentajes de magnesio, silicio y aluminio se mantienen normales. En esta tesis se ha confirmado que dicho incremento global de calcio se acentúa en las muestras en donde no hay cenizas en la matriz de cal. Los casos correspondientes a estos granos sufren un incremento mayor que en el resto. La segunda variable que sufre un mayor incremento de calcio es la que corresponde a granos con buena cocción de la arcilla. Por lo tanto, parece que la tercera variable, la que corresponde con el tamaño del fragmento cerámico, no es decisiva. Por lo tanto, teniendo en cuenta la prueba visual de los anillos de reacción, y atendiendo a los resultados químicos, podríamos pensar que ese incremento de calcio en la banda de reacción de los fragmentos cerámicos se debió a una absorción de calcio en el interior de la arcilla cocida en la fase inmediatamente previa al fraguado, incluso durante el apagado de la cal. Es en este punto donde estaría la clave del cambio químico que se produce en esta interfaz, el calcio sílice-aluminato del que algunos autores ya han investigado. Esta absorción de calcio en el interior del grano no vendría sola, sino que generaría una costra de cal en el interfaz exterior de la cerámica, la cual ha sido observada químicamente por mapping y mineralógicamente por medio de microscopía óptica de polarización. La consecuencia de estos resultados es, primero, la mejora de nuestro conocimiento general acerca del factor hidráulico en los morteros. Asimismo se aprecia que la incorporación de materiales orgánicos como cenizas, puede alterar los porcentajes de calcio en el interior de los aditivos cerámicos, por lo que habría que sopesar, en trabajos futuros, si este tipo de material es adecuado o no en las mezclas destinadas a la restauración, así como seguir indagando en las propiedades de los morteros con la incorporación de aditivos orgánicos. Desde el punto de vista de la catalogación de los suelos industriales hidráulicos de época romana, además de mejorar la documentación incorporando micro-estratigrafías y granulometrías, la investigación de este material histórico constructivo mejora en cuanto a que se incorporan ensayos sencillos, que facilitan incluso la peritación de un estado de conservación por medio de una lupa binocular. Arqueológicamente hablando, es muy interesante correlacionar fábricas diferentes de estructuras situadas o bien en un mismo yacimiento, o bien en una misma área regional. Los estudios de caracterización y micro-estratigrafía no sólo aportan datos nuevos de cara a la restauración de morteros, sino que crean la posibilidad de generar patrones constructivos que sirvan de fósiles-guía para datar relativamente a unas estructuras o a otras. En lo referido a los resultados obtenidos en los diferentes complejos arqueológicos se ha observado una diferencia entre los morteros destinados a piletas y cubetas con respecto a los suelos industriales de uso indeterminado. La muestra correspondiente al yacimiento de Las Arenas no dispone de ninguna micro-estratigrafía, como sí por el contrario en las muestras obtenidas en Rotonda de Mejorada, Val de la Viña y La Magdalena. En estos enclaves las estructuras presentan grandes similitudes, con diferentes niveles constructivos empleando morteros de cal con áridos y gravas en las capas interiores, y áridos con adiciones cerámicas en las exteriores. En lo relativo a la granulometría las adiciones cerámicas de las muestras de Val de la Viña y La Magdalena presentan varias coincidencias en cuanto al tamaño de los granos y la distribución. Asimismo, de las muestras tomadas en La Magdalena, existe una gran diferencia entre las muestras MG1, MG2, MG3 y MG4 con respecto a las muestras MG5 y MG6, correspondientes éstas últimas a un mortero con fragmentos cerámicos de gran tamaño. Las estructuras EMG1 y EMG2, correspondientes a una cubeta y una pileta de La Magdalena, guardan similitud en lo referido a la micro-estratigrafía y a la granulometría. Se ha determinado que su función, así como su fabricación, debieron estar vinculadas a un mismo contexto cronocultural. Química y mineralógicamente, las muestras presentan características iguales, con presencia de un conglomerante de cal con áridos y aditivos cerámicos de diferentes cochuras. Destaca la muestra de Las Arenas, con un tamaño de los fragmentos cerámicos muy superior al resto, seguido de la estructura EMG3 de La Magdalena. Las muestras restantes de éste enclave, junto con las muestras recogidas en Val de la Viña y Rotonda de Mejorada presentan condiciones similares. En conclusión, los datos revelan que existían diferentes fábricas destinadas a distintas finalidades, y que las estructuras industriales empleaban aditivos cerámicos para la manipulación de productos con líquidos, de distintas densidades pero que requerían de cierto grado de hidraulicidad. ABSTRACT Lime Roman mortars from the Iberian Peninsula has been analyzed in this reesearch. A group of samples were selected from some sites and all the samples come from industrial structures. All this samples show ceramic additives. From the start, the effort was centered in the pieces of pottery that were found in the mortars. The samples were treated and processed to develop a first phase of the research using macroscopy. With this technique, great results were achieved in the characterization of mortars, the microstratigraphy and the location of the ceramic pieces. While observing these pieces, it was seen that the fragments of pottery had a ring bordering the piece. The pieces with the bigger and more vivid rings were chosen and they were analyzed by a polarized light microscope. The mortars were characterized microscopically and it also showed that the rings were not a physical alteration or a visual defect. After some more tests, the rings were a chemical change associated with the hydraulicity of the mortar. The best samples were selected and mappings of their chemical elements were performed in order to know what could be happening in the interface between the ceramic matrix fragment and lime. With the results obtained it was found that there was a potential; both calcium accumulation within the ceramic grains and outside, just in the area of contact with the binder, forming spots longitudinally along the edge. These data were very useful for carrying out the next phase of study, which would meet promptly what was happening chemically in the area of contact. Another group of samples were taken, and this time focused on ceramic grains that met a statistical variables. Grains were chosen with two types of cooking as well as grains with different sizes and grains with ash additive in the matrix of lime, thinking that might be the most logical to be some sort of chemical change between the baked clay and lime array variables . Such variables were adapted to a multi-varial and geometric statistical system in order to synthesize the results and optimally display the data together, as mentioned several times in this work. After selecting the variables grains proceeded to perform a linear and spectral analysis SEM-EDX. This analysis led to determine that the chemical changes were graduals. These changes are summarized in an increase in the percentages of calcium inside the reaction rim of ceramics, from the edge to the outer ring. So percentage increasing is also observed at the interface of the ceramic matrix fragment with lime, confirming the results obtained by the mapping. Overall in all samples can be seen a shoulder in graphic calcium through the area of the ring reaction condition. The remaining percentages of magnesium, silicon and aluminum are usual. We have promptly confirmed that the increase of calcium is accentuated in samples where there is no ash and lime matrix. Cases for these grains suffer a greater increase than the rest. The second variable suffering more calcium is increased corresponding to good cooking grains with clay. Therefore, it appears that the variable size of the fragment is not critical. Therefore, considering the visual tests to the rings and their response to chemical results, we might think that increasing calcium inside the ceramic fragments was due to an injection of calcium inside clay in the run-up to the setting phase. It is at this point that would be the key to the chemical change that occurs at this interface, silica-calcium aluminate some authors have already investigated. This injection of calcium into the grain does not come alone, but generate a lime crust on the outside interface of ceramics, which we tested for mapping is real in our samples. The consequence of these results is the improvement of our understanding of historical hydraulic factor in building materials, such as mortar. For example, knowing that the incorporation of organic materials such as ash powder, may be detrimental to the injection of calcium inside the ceramic additives. Archaeologically speaking, it's very interesting to correlate different factories or structures located on a single site, or in the same regional area. Characterization studies and microstratigraphy not only provide new information to help restore mortars, but create the possibility of generating constructive patterns that serve as guide fossils to determinate the age of the structures. With regard to the results obtained in different archaeological sites it has seen a difference between mortars of pools or sinks with respect to industrial floors of undetermined use. The sample of the site of Las Arenas does not have any micro-stratigraphy, as if instead in the samples obtained in Rotonda de Mejorada, Val de la Viña and La Magdalena sites. In these settlements the structures are really similar, with different construction levels using lime mortars with aggregates and gravel in the inner layers, and ceramic aggregates as external additions. With regard to the grain size of the ceramic additions Val de la Viña and La Magdalena samples has several coincidences about the size of grains and distribution. Also, samples taken at La Magdalena, there is a difference between the MG1, MG2, MG3 and MG4 samples and the MG5 and MG6 samples, so the last corresponding to a mortar samples with larger ceramic fragments. The EMG1 and EMG2 structures, corresponding to a bucket and a pool of La Magdalena settlement, have similarities with regard to micro-stratigraphy and grain size. It has been determined that the function and manufacturing must be linked with a same chronocultural context.
Resumo:
El objetivo de ésta tesis es estudiar cómo desarrollar una aplicación informática que implemente algoritmos numéricos de evaluación de características hidrodinámicas de modelos geométricos representativos de carenas de buques. Se trata de especificar los requisitos necesarios que debe cumplir un programa para informático orientado a dar solución a un determinado problema hidródinámico, como es simular el comportamiento en balance de un buque sometido a oleaje, de popa o proa. una vez especificada la aplicación se realizará un diseño del programa; se estudiarán alternativas para implementar la aplicación; se explicará el proceso que ha de seguirse para obtener la aplicación en funcionamiento y se contrastarán los resultados obtenidos en la medida que sea posible. Se pretende sistematizar y sintetizar todo el proceso de desarrollo de software, orientado a la simulación del comportamiento hidrodinámico de un buque, en una metodología que se pondrá a disposición de la comunidad académica y científica en la forma que se considere más adecuada. Se trata, por tanto, de proponer una metodología de desarrollo de software para obetener una aplicación que facilite la evaluación de diferentes alternativas de estudio variando parámetros relativos al problema en estudio y que sea capaz de proporcionar resultados para su análisis. Así mismo se incide en cómo ha de conducirse en el proceso para que dicha aplicación pueda crecer, incorporando soluciones existentes no implementadas o nuevas soluciones que aparezcan en este ámbito de conocimiento. Como aplicación concreta de la aplicación se ha elegido implementar los algoritmos necesarios para evaluar la aparición del balance paramétrico en un buque. En el análisis de éste problema se considera de interés la representación geométrica que se hace de la carena del buque. Además de la carena aparecen otros elementos que tienen influencia determinante en éste estudio, como son las situación de mar y las situaciones de carga. Idealmente, el problema sería resuelto si se consiguiera determinar el ángulo de balance que se produce al enfrentar un buque a las diferentes condiciones de mar. Se pretende preparar un programa utilizando el paradigma de la orientación a objetos. Considero que es la más adecuada forma de modularizar el programa para poder utilizar diferentes modelos de una misma carena y así comparar los resultados de la evaluación del balance paramétrico entre sí. En una etapa posterior se podrían comparar los resultados con otros obtenidos empíricamente. Hablo de una nueva metodología porque pretendo indicar cómo se ha de construir una aplicación de software que sea usable y sobre la que se pueda seguir desarrollando. Esto justifica la selección del lenguaje de programación C++. Se seleccionará un núcleo geométrico de software que permita acoplar de forma versátil los distintos componentes de software que van a construir el programa. Este trabajo pretende aplicar el desarrollo de software a un aspecto concreto del área de conocimiento de la hidrodinámica. No se pretende aportar nuevos algoritmos para resolver problemas de hidrodinámica, sino diseñar un conjunto de objetos de software que implementen soluciones existentes a conocidas soluciones numéricas a dichos problemas. Se trata fundamentalmente de un trabajo de software, más que de hidrodinámica. Lo que aporta de novedad es una nueva forma de realizar un programa aplicado a los cálculos hidrodinámicos relativos a la determinación del balance paramétrico, que pueda crecer e incorporar cualquier novedad que pueda surgir más adelante. Esto será posible por la programación modular utilizada y los objetos que representan cada uno de los elementos que intervienen en la determinación del balance paramétrico. La elección de aplicar la metodología a la predicción del balance paramétrico se debe a que este concepto es uno de los elementos que intervienen en la evaluación de criterios de estabilidad de segunda generación que estan en estudio para su futura aplicación en el ámbito de la construcción naval. Es por tanto un estudio que despierta interés por su próxima utilidad. ABSTRACT The aim of this thesis is to study how to develop a computer application implementing numerical algorithms to assess hydrodynamic features of geometrical models of vessels. It is therefore to propose a methodology for software development applied to an hydrodynamic problem, in order to evaluate different study alternatives by varying different parameters related to the problem and to be capable of providing results for analysis. As a concrete application of the program it has been chosen to implement the algorithms necessary for evaluating the appearance of parametric rolling in a vessel. In the analysis of this problem it is considered of interest the geometrical representation of the hull of the ship and other elements which have decisive influence in this phenomena, such as the sea situation and the loading condition. Ideally, the application would determine the roll angle that occurs when a ship is on waves of different characteristics. It aims to prepare a program by using the paradigm of object oriented programming. I think it is the best methodology to modularize the program. My intention is to show how face the global process of developing an application from the initial specification until the final release of the program. The process will keep in mind the spefici objetives of usability and the possibility of growing in the scope of the software. This work intends to apply software development to a particular aspect the area of knowledge of hydrodynamics. It is not intended to provide new algorithms for solving problems of hydrodynamics, but designing a set of software objects that implement existing solutions to these problems. This is essentially a job software rather than hydrodynamic. The novelty of this thesis stands in this work focuses in describing how to apply the whole proccess of software engineering to hydrodinamics problems. The choice of the prediction of parametric balance as the main objetive to be applied to is because this concept is one of the elements involved in the evaluation of the intact stability criteria of second generation. Therefore, I consider this study as relevant usefull for the future application in the field of shipbuilding.
Resumo:
Esta investigación es una incursión en el tránsito de Juan Navarro desde sus “habitaciones y horizontes”, las manifestaciones espontáneas de la mano y el proyectar, a la obra que nos devuelve a la experiencia física y corporal del mundo. Juan Navarro debe a sus manos gran parte de sus inquietudes y capacidades. Sus manos están presentes en su obra como materia –piezas de manos-, como herramienta -el dibujo por la mano- y como desencadenante en los procesos creativos de su obra de arquitectura. Las distintas obras remiten a una preocupación común: la de visualizar el espacio a través de un imaginario personal. Sin embargo, el proceso creativo en cada disciplina se desarrolla teniendo en cuenta la especificidad del medio y la experiencia que provoca en el espectador. La obra, como concreción del proceso creativo, se explica por las continuidades y discontinuidades entre las herramientas, mecanismos y estrategias utilizadas en los distintos medios. La tesis se estructura en dos partes, en la primera se estudia cómo se producen los procesos creativos, sus mecanismos en los distintos medios plásticos y el dibujo como herramienta transversal. Se identifican los conceptos y temas que dan lugar a la obra profundizando en el papel de la mano como presencia orgánica, biológica y responsable de una forma de representación personal. La segunda parte se articula en dos capítulos que, a través del dibujo, muestran la arquitectura como modelo e identifican los mecanismos utilizados en su forma de proyectar y su relación con la obra en distintos proyectos. El texto se estructura como una secuencia de ideas articuladas alrededor de un universo gráfico que nos conduce por múltiples itinerarios desde los que atisbar los procesos creativos de Juan Navarro. Estos caminos son hilos con los que se teje una visión personal de la relación entre las herramientas y mecanismos utilizados por Juan Navarro y su obra. La manera cómo se produce el proceso creativo, los mecanismos y las herramientas que los ponen en marcha constituyen una forma de abordar la obra, que hasta la fecha, se ha tratado aisladamente sin una intención de construir un cuerpo estructurado de conocimiento. En la arquitectura Juan Navarro existe un vacío de conocimiento teórico y gráfico sobre el propio proceso y su forma de proyectar. Se ha persistido en la explicación de la obra, sus referencias, temas abordados, relaciones y trasvases sin ahondar en la especificidad del medio. Estos vacíos establecen la necesidad y justificación de esta tesis doctoral. La investigación comienza descifrando una obra que desde sus inicios trabaja con la dualidad de lo gestual y lo conceptual. Plantea una forma de ordenación del mundo, de la sensación sometida a la medida en la que finalmente la obra se recibe como signo que desencadena sentimientos y te devuelve al mundo. Propone la recuperación de los sentidos a través de una arquitectura como vivencia no reductible al espacio geométrico. Identifica los mecanismos y herramientas que se establecen en este proceso y termina concluyendo que el dibujo es la herramienta doblemente transversal porque atiende de forma desigual a las distintas disciplinas y a los dos extremos en que se presenta la actividad creatividad en el trabajo de Juan Navarro. Estos extremos se corresponden con un conocimiento corporal inconsciente y un trabajo constante guiado por la motivación, la predeterminación y la conceptualización. El dibujo por la mano es el espacio de encuentro entre lo que representa la mano y la posibilidad de expresión proyectual codificada. Se produce en un territorio que se extiende desde lo analógico subyacente –que se nutre de imágenes complejas- y el dominio simbólico construido. Abstract. This research is a foray into Juan Navarro’s transition from his "Rooms and Horizons", -spontaneous demonstrations of the hand-, to the project, -the work that brings us back to experiencing the physical world-. Juan Navarro owes his hands much of his capacities and inquisitiveness. His hands are present in his work as the subject –“Hand Pieces”-, as a tool -through hand-drawing - and as a trigger in the creative processes of his work of architecture. The various works refer to a common theme: the viewing space through a personal imagery. However, the creative process in each discipline develops taking into account the specificity of the medium and the experience that arouses in the observer. The work, as completion of the creative process, is explained by the continuities and discontinuities between the tools, mechanisms and strategies used in the different media. The thesis is structured in two parts, the first studies how the creative processes are iniciated, their mechanisms in the different plastic art media, as well as drawing as a transversal tool. In this section the investigation identifies the concepts and themes that give rise to the art work, exploring the role of the hand as the organic, biological presence responsible for a way of personal representation. The second part is divided into two chapters, which, via the drawing, show the architecture as a model and identify the mechanisms used in the his way of projecting form of the project and its the relationship of hand-drawing to with his work ilustrated with different projects. The text is structured as a sequence of ideas, articulated around a graphic universe that leads us by multiple paths, letting us glimpse into the creative processes of Juan Navarro. These paths are threads that weave a personal vision of the relationship between the tools and mechanisms used by Juan Navarro in his work. The way the creative process takes place, the mechanisms and tools that set it in action, constitutes a way of dealing with the work, that, hithergo, has been treated in isolation without an intention to build a structured body of knowledge. In Navarro Baldeweg’s architecture there is a vacuum of theoretical and graphic knowledge of the process itself and his way of projecting. So far, emphasis has been placed mainly on his work’s explanation, its references, the subjects covered, connections and transfers, without delving into the specificity of each medium. These academic gaps justify the need for this doctoral thesis. The investigation begins deciphering a work that, since its very beginning, deals with the duality of the gesture and the concept. It poses a way of managing the world and the sensations which are submitted until it finally detects the work as a sign that triggers feelings and returns the observer to the real world. It proposes the recovery of the senses through an architecture that is sensed as an experience and not merely reduced to geometric space. It identifies the mechanisms and tools that are set out in this process and concludes that drawing is a core tool working in two directions, because it caters unevenly to the various disciplines and to both ends of the creative activity presented in the work of Juan Navarro. These ends correspond with an unconscious physical knowledge and a continuous work guided by motivation, predetermination and conceptualization. Hand-drawing is the meeting space between what the hand represents, and the possibility of an encoded, projectual expression. Thus, hand-drawing takes place in a territory that covers the underlying analogue - which feeds on complex images - to the symbolic built domain.
Resumo:
El modelo dominante durante la Era Moderna asume la presencia del hombre como sujeto dentro del gran engranaje mecánico del Cosmos. Asimismo, recoge una idea acerca del ser natural dentro de la tradición ontológica iniciada por el eleatismo presocrático que concibe a éste como lo inmutable y estático frente al cambio y al movimiento, los cuales se constituyen como meras apariencias. Durante el periodo anterior a la aparición de los grandes filósofos griegos se produce una transformación en donde, de la inicial cosmología vinculada a un tiempo primordial, se pasará a una visión del Universo como ente indestructible, atemporal, inmutable, perfecto, geométrico y espacial. Si en Demócrito se admite un universo sometido al azar y a la necesidad, en Platón el Universo sólo atiende a la necesidad. Este modelo ontológico se pone en entredicho cuando el hombre ya no es concebido como pieza de un sistema más amplio, sino como centro radical del pensamiento. La condición radical del hombre es entonces su propia vida, siendo éste el concepto troncal del denominado vitalismo cuyo más influyente representante en España es José Ortega y Gasset. El estatismo del ser –del hombre- pierde sentido; en palabras del propio Ortega, “no es un ser sino un estar siendo” lo que caracteriza a la vida humana. La razón cartesiana es ahora la razón vital y su objeto de estudio no es la naturaleza sino el propio devenir, es decir, el tiempo, la historia. Este planteamiento es fundamental para comprender el edificio que es objeto de este estudio, el Museo de Arte Romano de Mérida (1980-1985) de Rafael Moneo. Por ello el concepto de tiempo es utilizado como marco y estructura de la presente tesis, a sabiendas del notorio y muy significativo papel que este edificio desempeñó en la carrera de su autor y en el panorama nacional e internacional de la arquitectura y de la museología. Este proyecto nos permite acercarnos al pensamiento de su autor a través de un edificio que, aun habiendo sido ampliamente reconocido, no cuenta con un estudio suficientemente exhaustivo que recoja la amplitud y riqueza que encierra. Esta tesis no es un compendio de lo que ya se ha investigado sobre Mérida; es una aproximación global e interpretativa cuyo sentido sólo puede concebirse al vislumbrar la estructura completa de la misma en sintonía con el "lógos" vital, histórico y narrativo que el proyecto encierra. Se revisará la concepción histórica según la cual, la configuración espacial de la forma habría tenido primacía respecto a su configuración temporal, al remitir esta última a una condición espacializada y circunstancial. La componente vicaria de la circunstancia será elevada por Ortega a la categoría de esencial, visualizando así una paradoja cuya reformulación nos lleva a la concepción de un tiempo sustancial. El diccionario de la RAE, en su tercera acepción, define la sustancia como “aquello que permanece en algo que cambia”, lo cual nos remite al pensamiento antiguo. Se mostrará que lo que permanece no necesariamente implica una concepción estática y eleática de la forma, que la arquitectura esencial no es unívocamente la arquitectura atemporal del platonismo y que cabe concebir la "firmitas" desde la atención a la "durée" bergsoniana. Al asociar tradicionalmente la sustancia con el referido estatismo, se margina al tiempo y a la duración a lo no sustancial; por ello, se tratará de aproximar los términos de tiempo y sustancia para definir la forma. Ello conllevará al estudio de las notables patologías derivadas de la asunción de un tiempo cronológico en nuestra contemporaneidad frente a las cuales, las intuiciones contenidas en Mérida, se alinearán con la actual actitud revisionista en el ámbito del pensamiento filosófico y científico. En Mérida, la memoria recogerá los aspectos de la conciencia así como los aspectos vinculados a la experiencia íntima y colectiva como soporte para la consecución de un discurso. La dualidad entre intuición e inteligencia será recogida por Moneo con idea de trascender su incomunicabilidad, mediante una operación que consistirá en la reivindicación de una memoria irreductible, cuya morada estaría incardinada en el propio tiempo de la duración y de la vida y no en la espacialidad coextensiva del presente y de la acción funcional sobre la materia. Moneo asumirá el papel de la memoria como condición central de una forma que se encarnará al concebirse como un teatro. En la respuesta a la contradicción entre el hecho físico y el efecto psíquico de la experiencia humana residirá la pertinencia de un tiempo narrativo. Será entonces el lenguaje el encargado de aportar sentido a la obra mediante el recurso fundado en la dramatización de la experiencia, es decir, a través de una conexión entre la conciencia íntima y el carácter social y colectivo intrínseco en la arquitectura. ABSTRACT TIME AS A SUBSTANCE OF FORM. AN APPROACH TO THE ROMAN ART MUSEUM OF MÉRIDA FROM THE VIEWPOINT OF VITALISM. The dominant model during the Modern Era placed man as a subject inside the great mechanism of the cosmos. It is also based in an idea about natural being within the ontological tradition initiated by the pre-Socratic Eleatism that conceives it as something immutable and static in respect with change and movement, which are considered as mere appearances. Prior to the emergence of the great Greek philosophers occurred a transformation where concepts of cosmology linked to a primordial time, changed to a view of the universe as indestructible, timeless, unchanging, perfect, geometric and spatial. If Democritus accepted a universe subjected to randomness and necessity, Plato thought that the universe only worked by necessity. This ontological model is called into question when man is not conceived as a piece of a broader system, but as a radical center of thinking. The radical condition of man then is his own life. This is the core concept of so-called Vitalism, whose most influential representative in Spain was José Ortega y Gasset. The stillness of being – of man - loses its meaning; in the words of Ortega, “it is not being but being in progress” that characterizes human life. The Cartesian reason is now the vital reason and its subject of study is no longer nature but its own evolution, in other words, time and history. This approach is fundamental to understand the building which is the subject of this study, the Museum of Roman Art in Mérida (1980-1985) by Rafael Moneo. The concept of time is used as a framework and structure of this thesis, demonstrating the notorious and very significant role this building has implied in the career of its author and in the national and international panorama of architecture and museology. This project allow us to approach the thought of its author through a building that, even whilst widely recognized, does not yet have a sufficiently comprehensive study covering its breadth and richness. This thesis is not a compendium of what already has been researched on Merida; it is a global and interpretative approach whose meaning can only be conceived as a study of its complete structure in line with the vital, historical and narrative logos the project implies. We will review the historical idea where spatial configuration of the form would have had primacy with respect to temporary configuration, because the latter refers to a spatial and circumstantial condition. The vicarious nature of the circumstance will be elevated by Ortega to the category of essential, thus showing a paradox which reformulation leads us to the conception of a substantial time. The dictionary of the Spanish Royal Academy, in its third meaning, defines substance as "that which remains in something that changes". This is a reference to ancient thought. It will be shown that what remains does not necessarily imply a static and Eleatic conception of form. It will also be shown that the essential architecture is not uniquely the timeless architecture of Platonism and that it is possible to conceive the "firmitas" parallel to the "durée" of Henri Bergson. As a result of this traditional association between substance and stillness, it marginalizes the time and the duration to the non-substantial; for this reason, we will try to approach terms of time and substance to define the shape. This will involve studying significant pathologies resulting from an assumption of chronological time in our contemporary world against which, the insights contained in Merida, will be aligned with the current revisionist attitude in the fields of philosophical and scientific thought. In Merida, memory includes aspects of consciousness as well as aspects linked to the intimate and collective experience as a foundation for the achievement of discourse. The duality between intuition and intelligence is put forward by Moneo with the idea of transcending its lack of communication, by means of a resource consisting of the vindication of an irreducible memory, whose home would be embodied in the time of duration and life and not in the coextensive spatiality of the present and in the functional action on the matter. Moneo demonstrates the role of memory as a central condition of form as a theatre. In response to the contradiction between the physical fact and the psychological effect of human experience lies the relevance of narrative time. Language then assumes the responsibility of giving meaning to the work through the dramatization of experience, i.e., through a connection between the intimate consciousness and the intrinsic social and collective character of architecture.