4 resultados para Wallenstein, Albrecht Wensel Eusebius von, herzog su Friedland, 1583-1634
em Universidad Politécnica de Madrid
Resumo:
Esta comunicación presenta el estudio del uso que hacen Herzog y de Meuron en sus proyectos del concepto de analogía propuesto por Aldo Rossi. La analogía es una operación fundamental de la teoría del proyecto planteada por Rossi, cuyas características se distinguen reiteradamente en algunos de los proyectos más novedosos de Herzog y de Meuron. Estos arquitectos han reconocido abiertamente la influencia de las ideas de Rossi en su concepción de la arquitectura y su utilización de este procedimiento en sus proyectos está vinculada a la repercusión de dichas ideas en su manera de enfrentarse a la evolución y la actualización de la arquitectura. Como muestra se estudia la serie de proyectos en los que se repite el objetivo de subvertir el arquetipo de la casa unifamiliar con cubiertas inclinadas, que abarca un gran arco temporal entre la Casa Azul (1979-1980) y el proyecto para la Fundación Feltrinelli (2008-). A través del análisis de estos proyectos se muestra el uso que estos arquitectos hacen de la analogía y se comprende el papel que tiene este procedimiento en su revisión de lo convencional, proponiendo nuevas percepciones y experiencias, para revitalizar la Arquitectura, manteniendo su compromiso con la especificidad de esta disciplina.
Resumo:
La informática teórica es una disciplina básica ya que la mayoría de los avances en informática se sustentan en un sólido resultado de esa materia. En los últimos a~nos debido tanto al incremento de la potencia de los ordenadores, como a la cercanía del límite físico en la miniaturización de los componentes electrónicos, resurge el interés por modelos formales de computación alternativos a la arquitectura clásica de von Neumann. Muchos de estos modelos se inspiran en la forma en la que la naturaleza resuelve eficientemente problemas muy complejos. La mayoría son computacionalmente completos e intrínsecamente paralelos. Por este motivo se les está llegando a considerar como nuevos paradigmas de computación (computación natural). Se dispone, por tanto, de un abanico de arquitecturas abstractas tan potentes como los computadores convencionales y, a veces, más eficientes: alguna de ellas mejora el rendimiento, al menos temporal, de problemas NPcompletos proporcionando costes no exponenciales. La representación formal de las redes de procesadores evolutivos requiere de construcciones, tanto independientes, como dependientes del contexto, dicho de otro modo, en general una representación formal completa de un NEP implica restricciones, tanto sintácticas, como semánticas, es decir, que muchas representaciones aparentemente (sintácticamente) correctas de casos particulares de estos dispositivos no tendrían sentido porque podrían no cumplir otras restricciones semánticas. La aplicación de evolución gramatical semántica a los NEPs pasa por la elección de un subconjunto de ellos entre los que buscar los que solucionen un problema concreto. En este trabajo se ha realizado un estudio sobre un modelo inspirado en la biología celular denominado redes de procesadores evolutivos [55, 53], esto es, redes cuyos nodos son procesadores muy simples capaces de realizar únicamente un tipo de mutación puntual (inserción, borrado o sustitución de un símbolo). Estos nodos están asociados con un filtro que está definido por alguna condición de contexto aleatorio o de pertenencia. Las redes están formadas a lo sumo de seis nodos y, teniendo los filtros definidos por una pertenencia a lenguajes regulares, son capaces de generar todos los lenguajes enumerables recursivos independientemente del grafo subyacente. Este resultado no es sorprendente ya que semejantes resultados han sido documentados en la literatura. Si se consideran redes con nodos y filtros definidos por contextos aleatorios {que parecen estar más cerca a las implementaciones biológicas{ entonces se pueden generar lenguajes más complejos como los lenguajes no independientes del contexto. Sin embargo, estos mecanismos tan simples son capaces de resolver problemas complejos en tiempo polinomial. Se ha presentado una solución lineal para un problema NP-completo, el problema de los 3-colores. Como primer aporte significativo se ha propuesto una nueva dinámica de las redes de procesadores evolutivos con un comportamiento no determinista y masivamente paralelo [55], y por tanto todo el trabajo de investigación en el área de la redes de procesadores se puede trasladar a las redes masivamente paralelas. Por ejemplo, las redes masivamente paralelas se pueden modificar de acuerdo a determinadas reglas para mover los filtros hacia las conexiones. Cada conexión se ve como un canal bidireccional de manera que los filtros de entrada y salida coinciden. A pesar de esto, estas redes son computacionalmente completas. Se pueden también implementar otro tipo de reglas para extender este modelo computacional. Se reemplazan las mutaciones puntuales asociadas a cada nodo por la operación de splicing. Este nuevo tipo de procesador se denomina procesador splicing. Este modelo computacional de Red de procesadores con splicing ANSP es semejante en cierto modo a los sistemas distribuidos en tubos de ensayo basados en splicing. Además, se ha definido un nuevo modelo [56] {Redes de procesadores evolutivos con filtros en las conexiones{ , en el cual los procesadores tan solo tienen reglas y los filtros se han trasladado a las conexiones. Dicho modelo es equivalente, bajo determinadas circunstancias, a las redes de procesadores evolutivos clásicas. Sin dichas restricciones el modelo propuesto es un superconjunto de los NEPs clásicos. La principal ventaja de mover los filtros a las conexiones radica en la simplicidad de la modelización. Otras aportaciones de este trabajo ha sido el dise~no de un simulador en Java [54, 52] para las redes de procesadores evolutivos propuestas en esta Tesis. Sobre el término "procesador evolutivo" empleado en esta Tesis, el proceso computacional descrito aquí no es exactamente un proceso evolutivo en el sentido Darwiniano. Pero las operaciones de reescritura que se han considerado pueden interpretarse como mutaciones y los procesos de filtrado se podrían ver como procesos de selección. Además, este trabajo no abarca la posible implementación biológica de estas redes, a pesar de ser de gran importancia. A lo largo de esta tesis se ha tomado como definición de la medida de complejidad para los ANSP, una que denotaremos como tama~no (considerando tama~no como el número de nodos del grafo subyacente). Se ha mostrado que cualquier lenguaje enumerable recursivo L puede ser aceptado por un ANSP en el cual el número de procesadores está linealmente acotado por la cardinalidad del alfabeto de la cinta de una máquina de Turing que reconoce dicho lenguaje L. Siguiendo el concepto de ANSP universales introducido por Manea [65], se ha demostrado que un ANSP con una estructura de grafo fija puede aceptar cualquier lenguaje enumerable recursivo. Un ANSP se puede considerar como un ente capaz de resolver problemas, además de tener otra propiedad relevante desde el punto de vista práctico: Se puede definir un ANSP universal como una subred, donde solo una cantidad limitada de parámetros es dependiente del lenguaje. La anterior característica se puede interpretar como un método para resolver cualquier problema NP en tiempo polinomial empleando un ANSP de tama~no constante, concretamente treinta y uno. Esto significa que la solución de cualquier problema NP es uniforme en el sentido de que la red, exceptuando la subred universal, se puede ver como un programa; adaptándolo a la instancia del problema a resolver, se escogerín los filtros y las reglas que no pertenecen a la subred universal. Un problema interesante desde nuestro punto de vista es el que hace referencia a como elegir el tama~no optimo de esta red.---ABSTRACT---This thesis deals with the recent research works in the area of Natural Computing {bio-inspired models{, more precisely Networks of Evolutionary Processors first developed by Victor Mitrana and they are based on P Systems whose father is Georghe Paun. In these models, they are a set of processors connected in an underlying undirected graph, such processors have an object multiset (strings) and a set of rules, named evolution rules, that transform objects inside processors[55, 53],. These objects can be sent/received using graph connections provided they accomplish constraints defined at input and output filters processors have. This symbolic model, non deterministic one (processors are not synchronized) and massive parallel one[55] (all rules can be applied in one computational step) has some important properties regarding solution of NP-problems in lineal time and of course, lineal resources. There are a great number of variants such as hybrid networks, splicing processors, etc. that provide the model a computational power equivalent to Turing machines. The origin of networks of evolutionary processors (NEP for short) is a basic architecture for parallel and distributed symbolic processing, related to the Connection Machine as well as the Logic Flow paradigm, which consists of several processors, each of them being placed in a node of a virtual complete graph, which are able to handle data associated with the respective node. All the nodes send simultaneously their data and the receiving nodes handle also simultaneously all the arriving messages, according to some strategies. In a series of papers one considers that each node may be viewed as a cell having genetic information encoded in DNA sequences which may evolve by local evolutionary events, that is point mutations. Each node is specialized just for one of these evolutionary operations. Furthermore, the data in each node is organized in the form of multisets of words (each word appears in an arbitrarily large number of copies), and all the copies are processed in parallel such that all the possible events that can take place do actually take place. Obviously, the computational process just described is not exactly an evolutionary process in the Darwinian sense. But the rewriting operations we have considered might be interpreted as mutations and the filtering process might be viewed as a selection process. Recombination is missing but it was asserted that evolutionary and functional relationships between genes can be captured by taking only local mutations into consideration. It is clear that filters associated with each node allow a strong control of the computation. Indeed, every node has an input and output filter; two nodes can exchange data if it passes the output filter of the sender and the input filter of the receiver. Moreover, if some data is sent out by some node and not able to enter any node, then it is lost. In this paper we simplify the ANSP model considered in by moving the filters from the nodes to the edges. Each edge is viewed as a two-way channel such that the input and output filters coincide. Clearly, the possibility of controlling the computation in such networks seems to be diminished. For instance, there is no possibility to loose data during the communication steps. In spite of this and of the fact that splicing is not a powerful operation (remember that splicing systems generates only regular languages) we prove here that these devices are computationally complete. As a consequence, we propose characterizations of two complexity classes, namely NP and PSPACE, in terms of accepting networks of restricted splicing processors with filtered connections. We proposed a uniform linear time solution to SAT based on ANSPFCs with linearly bounded resources. This solution should be understood correctly: we do not solve SAT in linear time and space. Since any word and auxiliary word appears in an arbitrarily large number of copies, one can generate in linear time, by parallelism and communication, an exponential number of words each of them having an exponential number of copies. However, this does not seem to be a major drawback since by PCR (Polymerase Chain Reaction) one can generate an exponential number of identical DNA molecules in a linear number of reactions. It is worth mentioning that the ANSPFC constructed above remains unchanged for any instance with the same number of variables. Therefore, the solution is uniform in the sense that the network, excepting the input and output nodes, may be viewed as a program according to the number of variables, we choose the filters, the splicing words and the rules, then we assign all possible values to the variables, and compute the formula.We proved that ANSP are computationally complete. Do the ANSPFC remain still computationally complete? If this is not the case, what other problems can be eficiently solved by these ANSPFCs? Moreover, the complexity class NP is exactly the class of all languages decided by ANSP in polynomial time. Can NP be characterized in a similar way with ANSPFCs?
Resumo:
A comienzos de diciembre de 1996, Javier León, uno de los autores, impartió una conferencia en esta Escuela ante una inesperadamente grande e interesada audiencia de profesores y alumnos de todos los cursos. El tema central de aquella intervención era La construcción de un puente en el siglo XVIII, basado en el trabajo de J.R. Perronet, fundador de la Ecole des Ponts et Chaussées de Paris, precedente inmediato de nuestra Escuela de Caminos y Canales que fundara Agustín de Bediencourt en 1802. Los asistentes manifestaron un gran interés, que comparto, por las cuestiones históricas relacionadas con nuestra profesión, que comprende no sólo puentes, sino puertos, faros, canales y edificios como catedrales o torres. Su estudio debe contemplarse desde ángulos complementarios, es decir, técnicos, académicos y humanísticos, en la medida en que la obligación de mantener las joyas estructurales del pasado enseña mucho acerca del comportamiento de las de hoy. No podrían concebirse las grandes estructuras de estadios y palacios de congresos si no hubieran existido los teatros romanos o las catedrales medievales, ni se entenderían las estructuras metálicas de los siglos XIX y XX sin los precedentes de las estructuras de madera de la antigüedad. Su análisis en profundidad requiere la puesta al día de las técnicas de nuestros antepasados, que debemos conocer, como recuerda este libro que me honro en prologar. Esto comporta compilar, enseñar y practicar. Qué duda cabe que facilita enormemente las cosas (incluso las condiciona) el hecho de poseer una formación humanística que permita entender el momento histórico en que se ejecutaron tales estructuras. Ni siquiera estas cuestiones se circunscriben al ámbito local (regional o español), trascienden a nuestra vieja Europa en un sentimiento compartido de interés y de necesidad. En particular, es reseñable el enorme impulso que han dado algunas escuelas alemanas (Karlsruhe, Stuttgart, Munich, Aquisgrán, Dresde). Desde una sólida formación estructural y humanista, han conseguido estos equipos multidisciplinares poner a punto un conjunto de técnicas analíticas y constructivas que se han traducido en destacables ejemplos conocidos, como, por ejemplo, la reconstrucción y mantenimiento de edificios y estructuras tras la II Guerra Mundial. El conocimiento de los muchos textos disponibles, escritos mayoritariamente en alemán, no puede ser ignorado por los técnicos y, especialmente, por los alumnos de nuestras escuelas, cada vez más ávidos de intercambio con el exterior y, por fin, con mejor nivel de idiomas que la generación que les precede. (Merece una mención muy especial el creciente número de alumnos que, año tras año, eligen la asignatura de Alemán como idioma complementario. También crece el número de alumnos alemanes que, en virtud del programa Erasmus de intercambio, cursan sus últimos años de estudios en nuestra Escuela, con cuyo alto nivel de formación quedan satisfechos.) Por todas esas razones, contemplé con simpatía y creciente entusiasmo la iniciativa de los autores, quienes, sobre un texto en sí mismo interesante, han conseguido articular una sugerente propuesta de estudio ?tanto para el alumno como para el profesional en ejercicio? con un contenido humanista en el que idioma y lenguaje son, además, un hermoso componente práctico. Quisiera finalmente señalar que este libro es el primero de una colección que los autores están invitados a ir desarrollando, y ojala este ejemplo cunda y se siga ?entre profesores y alumnos? en otros campos. Nuestra Escuela, que posee unos fondos bibliográficos de enorme valor, verá encantada cómo éstos se difunden y cómo se configura una disciplina que la praxis, la profesión, exige ya en toda Europa.
Resumo:
La Tesis investiga aquellas obras en las que se ha producido un desplazamiento de la estructura portante hacia el perímetro del edificio para alcanzar su posterior desvanecimiento aplicando ciertos mecanismos arquitectónicos. En el proceso de la investigación se ha detectado cómo la rotundidad e inmediatez de la huella de lo estructural percibida en la arquitectura tradicional, tiende a desvanecerse, su desmaterialización queda patente en ciertas obras de la arquitectura contemporánea. La investigación comienza con la concordancia hallada entre tres edificios contemporáneos cuyo perímetro lo conforma una Envolvente Estructural: la tienda TODS, de Toyo Ito (2003); PRADA, de Herzog&de Meuron (2000) y DIOR, de SANAA (2001). Tres obras de fechas consecutivas, que, aun respondiendo a las mismas condiciones de ubicación, Omotesando (Tokio), uso, volumetría, altura y superficie, su Envolvente se configura de modo muy diverso, produciendo soluciones estructurales diferenciadas y heterogéneas. De estos tres modos de configurarse la envolvente, se desprenden las tres estrategias arquitectónicas empleadas en el desarrollo de la Tesis: figuración, abstracción y desmaterialización. Así pues, la investigación descubre, por una parte, un procedimiento figurativo que pone el acento en valores expresivos empleando códigos de significado como son los objetos de la naturaleza; por otra parte, un procedimiento abstracto, priorizando las reglas de construcción formal del propio objeto; y por último, como continuación de los anteriores, se descubre un procedimiento de desmaterialización planteado desde la delgadez de los muros, los materiales efímeros o una semitransparencia que pretende mayor conexión con el mundo exterior. Con el análisis de estas tres categorías secuenciales desveladas por los edificios citados de Omotesando, se han identificado otras obras clarividentes de Toyo Ito, Herzog&de Meuron y SANAA, por ser representativos de dichas nociones. Así pues, se han seleccionado veinticuatro casos de estudio y se han ordenado formando una colección de obras capaz de llegar a formular por sí misma un enunciado conclusivo sobre los procedimientos arquitectónicos capaces de velar la estructura mecánica. En la actualidad, el planteamiento de la Envolvente Estructural recurre a un nuevo modo de abordar la arquitectura. Esta ya no consiste en el juego sabio, correcto y magnífico, sino que adquiere una nueva dimensión poética desde la ausencia de la esencia resistente. Efectivamente, por un lado, se ha afirmado que ‘sin estructura no hay arquitectura’; y por otro lado, se trata de hacerla desaparecer. Así queda expresado en palabras de SANAA: “Para nosotros la estructura es muy importante, incluso su desaparición lo es”. Por otro lado, la Envolvente Estructural analizada en la Tesis recoge el legado de la historia, lo interpreta y se manifiesta con el lenguaje contemporáneo manteniendo aquella unidad entre las disciplinas de arquitectura e ingeniería comenzada en el siglo XIX. El contorno edilicio, conformado en un único elemento compacto e indiferenciado, resuelve diversas funciones habitualmente asignadas a otros elementos específicos: Encierra en un reducido espesor el cerramiento, la estructura resistente, el ornamento y el acondicionamiento térmico (en algunos casos); configura la forma arquitectónica y envuelve el espacio arquitectónico mostrando una libertad formal (cáscaras esculturales) y un lenguaje de liviandad (muros de espesores reducidos) sin precedentes. La tipología planteada condensa todo aquello que le permite expresar el enunciado más inmaterial de la estructura mecánica. Concluyendo, la Tesis verifica que una parte de la arquitectura contemporánea ya ha pasado del límite denso, corporeizado y mecánico tradicional, a un límite borroso, que se ha erosionado, se ha transmutado hasta su desmaterialización, su desvanecimiento o incluso su desaparición. ABSTRACT This thesis researches those buildings where the bearing structure has been moved towards the perimeter in order to reach its fading by means of architectural strategies. In the research development it has been detected how the clearness and immediacy of the footprint of the structure as noticed in the traditional architecture, tends to vanish, its dematerialization remains patent in certain contemporary architecture works. The research begins with the agreement found in three contemporary buildings whose perimeter is shaped by a structural envelope: TODS shop, by Toyo Ito (2003); PRADA, by Herzog&de Meuron (2000) and DIOR, by SANAA (2001). Three works in consecutive dates, that share the placement conditions, Omotesando (Tokio), use, volume, height and area, but its envelope is shaped in various ways, generating different and heterogeneous structural solutions. From these three ways of the envelope shape are deduced the three architectural strategies studied during the Thesis development: figuration, abstraction and dematerialization. Thus, the research discovers, on one hand, a figurative procedure that highlights the expressive values by using meaning codes such as the nature objects; on the other hand, an abstract procedure, prioritizing the formal construction rules typical of the object; at last, as a continuation of the others, a dematerialization procedure is shown, set out from the wall thinness, the ephemeral materials or the semitransparency that tries to increase the connection with the world around. With the analysis of these three categories in a sequence, shown in the Ometesando buildings, other works from Toyo Ito, Herzog&de Meuron and SANNAA have been identified because of being representative of those concepts. Therefore, twenty four case studies have been selected and have been ordered to set a collection of works that are able to formulate by themselves a conclusive statement about the architectural procedures that are able to veil the mechanical structure. Nowadays, the Structural envelope approach leads to a new way of dealing with architecture. This is not any more a wise game, correct and magnificent, but it acquires a new poetic dimension from the absence of the resistant essence. Indeed, on the one hand, it has been stated that ‘without structure there is no architecture’; and on the other hand, it tries to make it disappear. It is so stated in SANAA words: ‘The structure is very important for us, and even its disappearance” On the other hand, the Structural envelope analysed in this Thesis gathers the legacy of history, interprets it and it is expressed with a contemporary language, by keeping that unity between disciplines of architecture and engineering already started in the XIX century. The building boundary, shaped as a compacted and undifferentiated single element, solves several functions commonly assigned to other specific elements: keeps in a small thickness the envelope, the bearing structure, the ornament and the thermal conditioning (in same cases); it shapes the architectural form and envelopes the architectural space by showing a formal freedom (sculptural shells) and a lightness language (small thickness walls) with no precedents. This typology gathers all what lets to express the most immaterial statement of the mechanical structure. As a conclusion, the Thesis verifies that a part of the contemporary architecture has already gone over the dense limit, shaped and mechanical traditional to a blur limit that has been eroded, it has been changed until its dematerialization, its fading or event its disappearance.