242 resultados para Lumière en architecture


Relevância:

30.00% 30.00%

Publicador:

Resumo:

comunicación de una investigación que pone en relevancia la sustitución del tiempo por el espacio en las diferencias de género.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los recientes avances tecnológicos han encontrado un potencial campo de explotación en la educación asistida por computador. A finales de los años 90 surgió un nuevo campo de investigación denominado Entornos Virtuales Inteligentes para el Entrenamiento y/o Enseñanza (EVIEs), que combinan dos áreas de gran complejidad: Los Entornos Virtuales (EVs) y los Sistemas de Tutoría Inteligente (STIs). De este modo, los beneficios de los entornos 3D (simulación de entornos de alto riesgo o entornos de difícil uso, etc.) pueden combinarse con aquéllos de un STIs (personalización de materias y presentaciones, adaptación de la estrategia de tutoría a las necesidades del estudiante, etc.) para proporcionar soluciones educativas/de entrenamiento con valores añadidos. El Modelo del Estudiante, núcleo de un SIT, representa el conocimiento y características del estudiante, y refleja el proceso de razonamiento del estudiante. Su complejidad es incluso superior cuando los STIs se aplican a EVs porque las nuevas posibilidades de interacción proporcionadas por estos entornos deben considerarse como nuevos elementos de información clave para el modelado del estudiante, incidiendo en todo el proceso educativo: el camino seguido por el estudiante durante su navegación a través de escenarios 3D; el comportamiento no verbal tal como la dirección de la mirada; nuevos tipos de pistas e instrucciones que el módulo de tutoría puede proporcionar al estudiante; nuevos tipos de preguntas que el estudiante puede formular, etc. Por consiguiente, es necesario que la estructura de los STIs, embebida en el EVIE, se enriquezca con estos aspectos, mientras mantiene una estructura clara, estructurada, y bien definida. La mayoría de las aproximaciones al Modelo del Estudiante en STIs y en IVETs no consideran una taxonomía de posibles conocimientos acerca del estudiante suficientemente completa. Además, la mayoría de ellas sólo tienen validez en ciertos dominios o es difícil su adaptación a diferentes STIs. Para vencer estas limitaciones, hemos propuesto, en el marco de esta tesis doctoral, un nuevo mecanismo de Modelado del Estudiante basado en la Ingeniería Ontológica e inspirado en principios pedagógicos, con un modelo de datos sobre el estudiante amplio y flexible que facilita su adaptación y extensión para diferentes STIs y aplicaciones de aprendizaje, además de un método de diagnóstico con capacidades de razonamiento no monótono. El método de diagnóstico es capaz de inferir el estado de los objetivos de aprendizaje contenidos en el SIT y, a partir de él, el estado de los conocimientos del estudiante durante su proceso de aprendizaje. La aproximación almodelado del estudiante propuesta ha sido implementada e integrada en un agente software (el agente de modelado del estudiante) dentro de una plataforma software existente para el desarrollo de EVIEs denominadaMAEVIF. Esta plataforma ha sido diseñada para ser fácilmente configurable para diferentes aplicaciones de aprendizaje. El modelado del estudiante presentado ha sido implementado e instanciado para dos tipos de entornos de aprendizaje: uno para aprendizaje del uso de interfaces gráficas de usuario en una aplicación software y para un Entorno Virtual para entrenamiento procedimental. Además, se ha desarrollado una metodología para guiar en la aplicación del esta aproximación de modelado del estudiante a cada sistema concreto.---ABSTRACT---Recent technological advances have found a potential field of exploitation in computeraided education. At the end of the 90’s a new research field emerged, the so-called Intelligent Virtual Environments for Training and/or Education (IVETs), which combines two areas of great complexity: Virtual Environments (VE) and Intelligent Tutoring Systems (ITS). In this way, the benefits of 3D environments (simulation of high risk or difficult-to-use environments, etc.) may be combined with those of an ITS (content and presentation customization, adaptation of the tutoring strategy to the student requirements, etc.) in order to provide added value educational/training solutions. The StudentModel, core of an ITS, represents the student’s knowledge and characteristics, and reflects the student’s reasoning process. Its complexity is even higher when the ITSs are applied on VEs because the new interaction possibilities offered by these environments must be considered as new key information pieces for student modelling, impacting all the educational process: the path followed by the student during their navigation through 3D scenarios; non-verbal behavior such as gaze direction; new types of hints or instructions that the tutoring module can provide to the student; new question types that the student can ask, etc. Thus, it is necessary for the ITS structure, which is embedded in the IVET, to be enriched by these aspects, while keeping a clear, structured and well defined architecture. Most approaches to SM on ITSs and IVETs don’t consider a complete enough taxonomy of possible knowledge about the student. In addition, most of them have validity only in certain domains or they are hard to be adapted for different ITSs. In order to overcome these limitations, we have proposed, in the framework of this doctoral research project, a newStudentModeling mechanism that is based onOntological Engineering and inspired on pedagogical principles, with a wide and flexible data model about the student that facilitates its adaptation and extension to different ITSs and learning applications, as well as a rich diagnosis method with non-monotonic reasoning capacities. The diagnosis method is able to infer the state of the learning objectives encompassed by the ITS and, fromit, the student’s knowledge state during the student’s process of learning. The proposed student modelling approach has been implemented and integrated in a software agent (the student modeling agent) within an existing software platform for the development of IVETs called MAEVIF. This platform was designed to be easily configurable for different learning applications. The proposed student modeling has been implemented and it has been instantiated for two types of learning environments: one for learning to use the graphical user interface of a software application and a Virtual Environment for procedural training. In addition, a methodology to guide on the application of this student modeling approach to each specific system has been developed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La informática teórica es una disciplina básica ya que la mayoría de los avances en informática se sustentan en un sólido resultado de esa materia. En los últimos a~nos debido tanto al incremento de la potencia de los ordenadores, como a la cercanía del límite físico en la miniaturización de los componentes electrónicos, resurge el interés por modelos formales de computación alternativos a la arquitectura clásica de von Neumann. Muchos de estos modelos se inspiran en la forma en la que la naturaleza resuelve eficientemente problemas muy complejos. La mayoría son computacionalmente completos e intrínsecamente paralelos. Por este motivo se les está llegando a considerar como nuevos paradigmas de computación (computación natural). Se dispone, por tanto, de un abanico de arquitecturas abstractas tan potentes como los computadores convencionales y, a veces, más eficientes: alguna de ellas mejora el rendimiento, al menos temporal, de problemas NPcompletos proporcionando costes no exponenciales. La representación formal de las redes de procesadores evolutivos requiere de construcciones, tanto independientes, como dependientes del contexto, dicho de otro modo, en general una representación formal completa de un NEP implica restricciones, tanto sintácticas, como semánticas, es decir, que muchas representaciones aparentemente (sintácticamente) correctas de casos particulares de estos dispositivos no tendrían sentido porque podrían no cumplir otras restricciones semánticas. La aplicación de evolución gramatical semántica a los NEPs pasa por la elección de un subconjunto de ellos entre los que buscar los que solucionen un problema concreto. En este trabajo se ha realizado un estudio sobre un modelo inspirado en la biología celular denominado redes de procesadores evolutivos [55, 53], esto es, redes cuyos nodos son procesadores muy simples capaces de realizar únicamente un tipo de mutación puntual (inserción, borrado o sustitución de un símbolo). Estos nodos están asociados con un filtro que está definido por alguna condición de contexto aleatorio o de pertenencia. Las redes están formadas a lo sumo de seis nodos y, teniendo los filtros definidos por una pertenencia a lenguajes regulares, son capaces de generar todos los lenguajes enumerables recursivos independientemente del grafo subyacente. Este resultado no es sorprendente ya que semejantes resultados han sido documentados en la literatura. Si se consideran redes con nodos y filtros definidos por contextos aleatorios {que parecen estar más cerca a las implementaciones biológicas{ entonces se pueden generar lenguajes más complejos como los lenguajes no independientes del contexto. Sin embargo, estos mecanismos tan simples son capaces de resolver problemas complejos en tiempo polinomial. Se ha presentado una solución lineal para un problema NP-completo, el problema de los 3-colores. Como primer aporte significativo se ha propuesto una nueva dinámica de las redes de procesadores evolutivos con un comportamiento no determinista y masivamente paralelo [55], y por tanto todo el trabajo de investigación en el área de la redes de procesadores se puede trasladar a las redes masivamente paralelas. Por ejemplo, las redes masivamente paralelas se pueden modificar de acuerdo a determinadas reglas para mover los filtros hacia las conexiones. Cada conexión se ve como un canal bidireccional de manera que los filtros de entrada y salida coinciden. A pesar de esto, estas redes son computacionalmente completas. Se pueden también implementar otro tipo de reglas para extender este modelo computacional. Se reemplazan las mutaciones puntuales asociadas a cada nodo por la operación de splicing. Este nuevo tipo de procesador se denomina procesador splicing. Este modelo computacional de Red de procesadores con splicing ANSP es semejante en cierto modo a los sistemas distribuidos en tubos de ensayo basados en splicing. Además, se ha definido un nuevo modelo [56] {Redes de procesadores evolutivos con filtros en las conexiones{ , en el cual los procesadores tan solo tienen reglas y los filtros se han trasladado a las conexiones. Dicho modelo es equivalente, bajo determinadas circunstancias, a las redes de procesadores evolutivos clásicas. Sin dichas restricciones el modelo propuesto es un superconjunto de los NEPs clásicos. La principal ventaja de mover los filtros a las conexiones radica en la simplicidad de la modelización. Otras aportaciones de este trabajo ha sido el dise~no de un simulador en Java [54, 52] para las redes de procesadores evolutivos propuestas en esta Tesis. Sobre el término "procesador evolutivo" empleado en esta Tesis, el proceso computacional descrito aquí no es exactamente un proceso evolutivo en el sentido Darwiniano. Pero las operaciones de reescritura que se han considerado pueden interpretarse como mutaciones y los procesos de filtrado se podrían ver como procesos de selección. Además, este trabajo no abarca la posible implementación biológica de estas redes, a pesar de ser de gran importancia. A lo largo de esta tesis se ha tomado como definición de la medida de complejidad para los ANSP, una que denotaremos como tama~no (considerando tama~no como el número de nodos del grafo subyacente). Se ha mostrado que cualquier lenguaje enumerable recursivo L puede ser aceptado por un ANSP en el cual el número de procesadores está linealmente acotado por la cardinalidad del alfabeto de la cinta de una máquina de Turing que reconoce dicho lenguaje L. Siguiendo el concepto de ANSP universales introducido por Manea [65], se ha demostrado que un ANSP con una estructura de grafo fija puede aceptar cualquier lenguaje enumerable recursivo. Un ANSP se puede considerar como un ente capaz de resolver problemas, además de tener otra propiedad relevante desde el punto de vista práctico: Se puede definir un ANSP universal como una subred, donde solo una cantidad limitada de parámetros es dependiente del lenguaje. La anterior característica se puede interpretar como un método para resolver cualquier problema NP en tiempo polinomial empleando un ANSP de tama~no constante, concretamente treinta y uno. Esto significa que la solución de cualquier problema NP es uniforme en el sentido de que la red, exceptuando la subred universal, se puede ver como un programa; adaptándolo a la instancia del problema a resolver, se escogerín los filtros y las reglas que no pertenecen a la subred universal. Un problema interesante desde nuestro punto de vista es el que hace referencia a como elegir el tama~no optimo de esta red.---ABSTRACT---This thesis deals with the recent research works in the area of Natural Computing {bio-inspired models{, more precisely Networks of Evolutionary Processors first developed by Victor Mitrana and they are based on P Systems whose father is Georghe Paun. In these models, they are a set of processors connected in an underlying undirected graph, such processors have an object multiset (strings) and a set of rules, named evolution rules, that transform objects inside processors[55, 53],. These objects can be sent/received using graph connections provided they accomplish constraints defined at input and output filters processors have. This symbolic model, non deterministic one (processors are not synchronized) and massive parallel one[55] (all rules can be applied in one computational step) has some important properties regarding solution of NP-problems in lineal time and of course, lineal resources. There are a great number of variants such as hybrid networks, splicing processors, etc. that provide the model a computational power equivalent to Turing machines. The origin of networks of evolutionary processors (NEP for short) is a basic architecture for parallel and distributed symbolic processing, related to the Connection Machine as well as the Logic Flow paradigm, which consists of several processors, each of them being placed in a node of a virtual complete graph, which are able to handle data associated with the respective node. All the nodes send simultaneously their data and the receiving nodes handle also simultaneously all the arriving messages, according to some strategies. In a series of papers one considers that each node may be viewed as a cell having genetic information encoded in DNA sequences which may evolve by local evolutionary events, that is point mutations. Each node is specialized just for one of these evolutionary operations. Furthermore, the data in each node is organized in the form of multisets of words (each word appears in an arbitrarily large number of copies), and all the copies are processed in parallel such that all the possible events that can take place do actually take place. Obviously, the computational process just described is not exactly an evolutionary process in the Darwinian sense. But the rewriting operations we have considered might be interpreted as mutations and the filtering process might be viewed as a selection process. Recombination is missing but it was asserted that evolutionary and functional relationships between genes can be captured by taking only local mutations into consideration. It is clear that filters associated with each node allow a strong control of the computation. Indeed, every node has an input and output filter; two nodes can exchange data if it passes the output filter of the sender and the input filter of the receiver. Moreover, if some data is sent out by some node and not able to enter any node, then it is lost. In this paper we simplify the ANSP model considered in by moving the filters from the nodes to the edges. Each edge is viewed as a two-way channel such that the input and output filters coincide. Clearly, the possibility of controlling the computation in such networks seems to be diminished. For instance, there is no possibility to loose data during the communication steps. In spite of this and of the fact that splicing is not a powerful operation (remember that splicing systems generates only regular languages) we prove here that these devices are computationally complete. As a consequence, we propose characterizations of two complexity classes, namely NP and PSPACE, in terms of accepting networks of restricted splicing processors with filtered connections. We proposed a uniform linear time solution to SAT based on ANSPFCs with linearly bounded resources. This solution should be understood correctly: we do not solve SAT in linear time and space. Since any word and auxiliary word appears in an arbitrarily large number of copies, one can generate in linear time, by parallelism and communication, an exponential number of words each of them having an exponential number of copies. However, this does not seem to be a major drawback since by PCR (Polymerase Chain Reaction) one can generate an exponential number of identical DNA molecules in a linear number of reactions. It is worth mentioning that the ANSPFC constructed above remains unchanged for any instance with the same number of variables. Therefore, the solution is uniform in the sense that the network, excepting the input and output nodes, may be viewed as a program according to the number of variables, we choose the filters, the splicing words and the rules, then we assign all possible values to the variables, and compute the formula.We proved that ANSP are computationally complete. Do the ANSPFC remain still computationally complete? If this is not the case, what other problems can be eficiently solved by these ANSPFCs? Moreover, the complexity class NP is exactly the class of all languages decided by ANSP in polynomial time. Can NP be characterized in a similar way with ANSPFCs?

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El taller de proyectos constituye el núcleo de la enseñanza arquitectónica. Estudiar sus procesos educativos en la actualidad implica la contextualización teórica del acto educativo y la revisión histórica de la evolución de su estructura social. Esta estructura, es heredera de la larga tradición del taller donde los maestros de obra, artesanos, arquitectos y artistas, se ocupaban desde siempre de la enseñanza de la construcción, de la artesanía, del diseño arquitectónico y del arte. Los aprendices se sometían a la autoridad de sus maestros y pasaban horas practicando, produciendo y aprendiendo junto a ellos. Con la aparición de las primeras Academias de arte y posteriormente de arquitectura, se evidenció un progresivo interés de los Estados hacía los productos artísticos y arquitectónicos. La consideración de las artes y de la arquitectura como proyecto estatal, supuso la construcción lenta, pero consolidable, de un proyecto educativo paralelo, coexistiendo simultáneamente con los talleres de los maestros, pero sin posibilidad de integración, hasta mucho más tarde. La “teoría”, que es de lo que se ocupaba la academia, con la “práctica” que es lo que se desarrollaba en el taller, no encontraban fácilmente la manera de encajarse y complementarse mutuamente en un proyecto educativo común. Las concepciones educativas de ambos, afrontaban la enseñanza y el aprendizaje desde puntos de vista también diferentes; mientras la Academia representaba el conocimiento validado y explicitado, en el taller se trabajaba con un conocimiento tácito e implícito. En la práctica artística del taller era donde se producía el aprendizaje mientras que en la Academia es donde se validaba. Esta estructura llegó en muchas ocasiones a situaciones extremas, no siendo casual que las más grandes crisis registradas en la historia de la enseñanza de las artes, coincidieran con un aumento de la distancia entre estas dos “instituciones”, talleres y academias. Por otra parte, parece que cualquier proyecto o concepto innovador, se ha fundado sobre la redistribución de estos equilibrios perdidos. En dicho contexto, en el campo de la educación y especialmente en el siglo XX, surge un debate que se estructura en base a los fines de la educación, contemplando dos posturas bien diferenciadas. Una de ellas sostiene como fin primordial de la educación, el desarrollo de la conciencia y la reciprocidad social del individuo. La otra, fija como fin el desarrollo de su singularidad. La búsqueda del equilibrio entre ambas, parte del interés por fomentar el crecimiento de lo que cada ser humano posee de individual, armonizándolo con la unidad orgánica del grupo social al que pertenece (Read 2010, 33). Sobre esta tensión se han basado muchos de los discursos pedagógicos y especialmente los aquí usados. La estructura social en los talleres de proyectos arquitectónicos, presenta hoy día una máxima integración entre las dos instituciones, el taller y la Academia, tanto a nivel del espacio, donde tiene lugar la enseñanza, como a nivel conceptual y pedagógico. Los talleres de proyectos poseen un formato de enseñanza y aprendizaje que constituye un paradigma (Schön, 2008) no solo dentro, sino también fuera del campo arquitectónico. Bajo este formato se complementa el aprendizaje práctico con el teórico y la producción, con la validación del conocimiento. Aunque tal estructura pedagógica presenta importantes variaciones entre unas escuelas de arquitectura y otras, los principales procesos que tienen lugar, son lo suficientemente similares, como para poder ser examinados desde una perspectiva común. Esta investigación, estudia el taller de proyectos desde un aspecto pedagógico, que contempla tanto los discursos educativos, como la historia de la evolución del taller como constructo social. El análisis se estructura sobre los elementos fundantes del acto didáctico: un sujeto que aprende, un sujeto que enseña, un método, la estrategia o procedimiento a través del que se enseña, un contenido y el propio acto docente (Sánchez Cerezo, 1994, 530). Además, se han añadido otros dos elementos que se consideran fundamentales para llevar a cabo el estudio: el contexto de la enseñanza, tanto el tangible como el intangible y la evaluación de la enseñanza y del aprendizaje. El caso de estudio de la presente investigación se sitúa en la Escuela de Arquitectura de Madrid en la actualidad. Sin embargo, no se pretende generar un retrato exacto de esta institución sino utilizarla como ejemplo principal en el desarrollo de los capítulos del método, contenido, acto docente y contexto, en los que también se introducen ejemplos de otras escuelas de arquitectura que amplían los argumentos presentados que constituyen la contextualización teórica del acto pedagógico en los talleres de proyectos arquitectónicos. ABSTRACT Design studio constitutes the core of architectural education. To study its current educational processes involves a theoretical approach of its educational praxis and an historic revision of how its social structure evolved. This structure is inherited from the long tradition of the workshop in which master masons, craftsmen, architects and artists have always been in charge of teaching construction, crafts, architectural design and art. Apprentices were subjected to the authority of their teachers and spent hours practicing, producing and learning along with them. With the establishment of the first Academies of Art and later of Architecture, the interest of the State in artistic and architectural products started growing. The understanding of arts and architecture as a state project entailed the slow, but robust development of a parallel education project. This project coexisted with the masters’ workshops, without the possibility of integration between two, until much later. It was difficult to find a way to synthesize academic “theory” with workshop “practice”. The workshops’ and the Academy's conception about teaching and learning differed significantly. While the Academy represented a verified and explicit knowledge, the workshop worked with a tacit and implicit knowledge. The workshops produced education through artistic practice, while the the Academy organized and verified knowledge. This dual framework has on occasions reached extremes. It is no accident that the biggest known crises in the history of arts education coincide with an increase in the distance between these two "institutions", the workshops and Academies. Furthermore, it seems that most innovative concepts or projects have been founded on restoring the lost balance between the two. In this context, in the field of education, and especially during the 20th century, a debate that contemplated the purpose of education and resulted in two quite differentiated approaches, emerged,. One position claims as the primary purpose of education the development of social awareness and mutuality in individuals. The other approach sets as a purpose developing each student's uniqueness. The quest for the right balance between these two positions is based on the assumption that the general purpose of education is to foster the growth of what is individual in each human being, at the same time harmonizing the individuality thus educed with the organic unity of the social group to which the individual belongs (Read, 2010, 33). This tension forms the basis for many pedagogical discourses, especially the ones utilized in this dissertation. The social structure of architecture studios today demonstrates a very high level of integration between the two institutions, the workshop and the Academy, both in terms of space —where the teaching takes place— as well as on a conceptual and pedagogical level. Architecture studios today have developed a format for teaching and learning that has established a paradigm (Schön, 2008) , not only in architecture, but also in other fields. Under this paradigm, practical and theoretical learning, as well as production and verification of knowledge, complement each other. And although this pedagogical structure presents important variations among different schools of architecture, the principal processes that take place in the studio are sufficiently similar so as to be examined from a common perspective. This research examines the architecture studio from a pedagogical point of view, that takes into account both the educational discourses, as well as the historical evolution of the workshop as a social structure. The analysis presented here is structured on the fundamentals of the teaching act: an individual learning, an individual teaching, a method, strategy or procedure for teaching and learning, the content and the teaching act itself (Sánchez Cerezo, 1994, 530). Two extra elements that were considered essential for carrying out this study have also been added: the context in which teaching takes place, tangible as well as intangible, and the evaluation of teaching and learning. The Madrid School of Architecture in the present day served as a case study. However the aim is not to generate an accurate portrayal of this school but to use it as the principal example for the development of the chapters of method, content, teaching act and context. In addition to that, examples from other schools of architecture are introduced in order to further the presented arguments that constitute the theoretical contextualization of the pedagogical act in architecture studios.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La Tesis decodifica una selección de veinte proyectos representativos de Sejima-SANAA, desde su primer proyecto construido, la Casa Platform I, 1987, hasta el Centro Rolex, 2010, año en que Sejima y Nishizawa –SANAA- reciben el Premio Pritzker. De los veinte proyectos once son de Sejima: Casa Platform I, Casa Platform II, Residencia de Mujeres, Casa N, Pachinco Parlor I, Villa en el Bosque, Comisaría en Chofu, Casa Y, Apartamentos en Gifu, Edificio de equipamientos en la Expo Tokio 96, Pachinko Parlor III; y nueve de SANAA: edificio Multimedia en Oogaki, estudio de viviendas metropolitanas,Park Café en Koga, De Kunstlinie en Almere, Museo de Kanazawa, Pabellón de Toledo, Escuela de Zollverein, Casa Flor y Centro Rolex. La decodificación lee la obra de Sejima-SANAA a la inversa para ‘reconstruir’, en un ejercicio de simulación ficticia, una versión verosímil y coherente de los que podrían haber sido sus procesos proyectuales; podrían, porque los verdaderos son imposibles de dilucidar. Los que se proponen se pretenden exclusivamente verosímiles y plausibles. Con ello se pretende contribuir al entendimiento y comprensión de la arquitectura de Sejima-SANAA y, tangencialmente y en menor medida, a la teoría sobre el ejercicio proyectual arquitectónico. La decodificación se centra en dos aspectos concretos: la forma arquitectónica y el papel proyectual de la estructura portante. Ambas decodificaciones se extienden inevitablemente a otros aspectos relacionados, como, por ejemplo, la naturaleza del espacio arquitectónico. El procedimiento de investigación partió de una descripción objetiva y pormenorizada de los significantes formales y estructurales de cada proyecto desde su propia configuración física y geométrica. Esa descripción ‘objetiva’, llevada al límite, permitió que afloraran estructuras conceptuales y lógicas subyacentes de cada proyecto. Unida a interpretación crítica, –mediante su relación y confrontación con otras arquitecturas y otros modos de hacer conocidos- permitió trazar la reconstitución ficticia que persigue la decodificación. Ese trabajo se materializó en veinte ensayos críticos y se acompañó de un conjunto de otros textos sobre temas sugeridos o reclamados por el proceso de investigación. El conjunto de todos esos textos constituye el material de trabajo de la tesis. A partir de ahí, con una visión de conjunto, la tesis identifica una trayectoria de estrategias formales y una trayectoria de estrategias proyectuales relacionadas con lo portante. Juntas conforman el grueso de la tesis que se expone en los cuatro capítulos centrales. Los precede un capítulo introductorio que expone el recorrido biográfico de K. Sejima y la trayectoria profesional de Sejima-SANAA; y los siguen de unos textos transversales sobre forma, lugar y espacio. La tesis termina con una síntesis de sus conclusiones. Las estrategias formales se exponen en tres capítulos. El primero, ‘Primeras estrategias formales’ agrupa proyectos de la primera etapa de Sejima. El segundo capítulo está dedicado enteramente al proyecto de los apartamentos en Gifu, 1994-98, que según esta tesis, supuso un importante punto de inflexión en la trayectoria de Sejima; tanto el tercer capítulo lleva por nombre ‘Estrategias formales después de Gifu’ y recoge los proyectos que le siguieron. Las ‘Primeras estrategias formales’, varias y balbucientes, se mueven en general en torno a dos modos o procedimientos de composición, bien conocidos: por partes y sistemático. Éste última inicia en la trayectoria de SANAA un aspecto que va a ser relevante de aquí en adelante: entender el proyecto como propuesta genérica en la que, más allá de su realidad específica y tangible, subyace una lógica, en cada proyecto la suya, extrapolable a otros lugares, otras dimensiones, incluso otros programas: cada proyecto podría dar lugar a otros proyectos de la misma familia. La composición sistemática incluye, entre otros, la Casa Platform II, basada en la definición de un elemento constructivo, y la formulación de unas leyes de repetición y de posibles modos de agrupación. Incluye también la Residencia de Mujeres Saishunkan Seiyaku- proyecto que lanzó a Sejima a la fama internacional-, que también sería un sistema, pero distinto: basado en la repetición regular de una serie de elementos a lo largo de una directriz generando un hipotético contenedor infinito del que el proyecto sería tan solo un fragmento. La estrategia formal del edificio de Gifu ahondaría en la voluntad genérica del proyecto, adoptando la lógica de un juego. El proyecto sería una partida del juego, pero no la única posible, podrían jugarse otras. Esta hipótesis del juego está verificada en ‘El Juego de Gifu’ que - tras formular el juego identificando sus elementos (tablero y fichas), reglas y procedimientos- juega una partida: la que habría dado lugar al edificio proyectado por Sejima. Gifu extiende el concepto de ‘repetir’ un elemento constructivo a la de repetir un patrón espacial, lo que conlleva: la desvinculación entre forma y función; y un nuevo concepto de flexibilidad, que deja de referirse al uso flexible del edificio construido para pertenecer al momento proyectual en que se asignan funciones específicas a los patrones espaciales. Esta tesis propone que esa asignación de funciones sería uno de los últimos eslabones del proceso proyectual, algo opuesto a la premisa moderna de “la forma sigue a la función”. Las estrategias formales ‘Después de Gifu’ tienen también lógicas de juego, pero cada estrategia responde a un juego distinto, como dejan entrever sus nombres: ‘Tableros de Juego’, que con distintos grados de madurez estaría presente en varios proyectos; ‘Elementos de Catálogo’ en el Museo de Kanazawa; ‘Forma apriorística’, en la Casa Flor y ‘Repetición de una situación topológica’, en el Centro Rolex. Todas esas estrategias, o juegos, mantienen aspectos comunes relativos a la forma arquitectónica, precisamente los aspectos Gifu: la repetición aplicada al patrón espacial, y lo que conlleva: desvinculación entre forma y función y la nueva acepción de flexibilidad. ‘Tableros de Juego’ consiste en configurar cada sistema de proyecto (estructura, cerramientos, particiones y mobiliario) eligiendo elementos ofrecidos por una geometría de base, en cada proyecto la suya, en general reticular: intersecciones, líneas, módulos. Cada sistema se configura, en principio, sin relación de subordinación con cualquiera de los demás; cuando esa subordinación es ineludible, el juego determina que el sistema portante no puede materializar el orden geométrico de base, lo que se traduce en que no ejerce el papel dominante. Por lo tanto, ‘Tableros de Juego’ transgrede la lógica de la planta libre moderna: la estructura ni refleja ni revela el orden de base y los sistemas no respetan las relaciones de subordinación jerárquica y encadenada que aquella determinaba. Esta estrategia de ‘Tableros de juego’ deriva en soluciones y proyectos formales muy distintos: los proyectos de Oogaki y Park Café, que presentarían ‘Tableros de Juego’ incipientes; De Kunstlinie en Almere y la Escuela de Zollverein, que presentarían una consolidación de esta estrategia; y el Pabellón de Vidrio de Toledo que resultaría de la subversión de la estrategia. Este último proyecto, además, lleva el concepto de repetición más allá del elemento constructivo y del patrón espacial (que en este caso tiene forma de burbuja) parar acabar afectando a la propia experiencia del espectador, que esté donde esté, siempre tiene la sensación de estar en el mismo sitio. Esta tesis denomina a ese espacio repetitivo como ‘espacio mantra’. La estrategia ‘Elementos de Catálogo’ se ilustra con el Museo de Kanazawa. Su lógica parte de la definición de una serie de elementos, muy pocos, y se basa en el ingente número de posibles combinaciones entre sí. Gifu habría anunciado el catalogo de elementos en la caracterización de sus patrones espaciales. La estrategia ‘Forma Apriorística’ se ilustra con la Casa Flor. La decisión sobre el tipo de forma -en este caso la de una ameba- estaría al principio del proceso proyectual, lo que no quiere decir que sea una forma arbitraria: la forma de la ameba lleva implícita la repetición de un patrón espacial (el seudópodo) y una apoteosis del concepto de repetición que, alcanzando la experiencia espacial, da lugar a un espacio repetitivo o mantra. El ‘Espacio Mantra’ es uno de los leitmotivs, que se emplean como argumento en la última estrategia formal que la Tesis decodifica: el Centro Rolex. Con respecto a la estructura portante, la tesis identifica y traza una trayectoria de cinco estrategias proyectuales: preeminencia, ocultación, disolución, desaparición y desvirtuación. --Ocultación, reduce el papel dominante de la estructura. Al principio es una ocultación literal, casi un tapado de los elementos estructurales, como en Gifu; luego se hace más sofisticada, como la ocultación por camuflaje o la paradójica ocultación por multiplicación de Park Café. --La disolución merma la condición dominante de la estructura que en lugar de configurarse como sistema unitario u homogéneo se fragmenta en varios subsistemas. --La desaparición se refiere a estructuras que desaparecen como sistemas propios y autónomos, a proyectos en los que la función portante es desempeñada por otros sistemas como el de las particiones. La desaparición culmina con la Casa Flor, cuyo perímetro ejerce la función portante y además es transparente, está desmaterializado: la estructura se ha hecho invisible, ha desaparecido. --La desvirtuación se refiere a estructuras que sí se presentan como sistemas propios y autónomos, pero dejan de tener un papel preeminente por cuanto no materializan el orden de base: esta estrategia es correlativa a la estrategia formal ‘Tableros de juego’. Las conclusiones de la tesis están en la propia organización de la tesis: la identificación de las estrategias. Aún así, y como epílogos, se exponen seis. Las dos primeras subrayan el hilo conductor del trabajo realizado, que radica en la cualidad genérica de las estrategias proyectuales en Sejima-SANAA. Las cuatro siguientes dilucidan hasta qué punto hay, en sus proyectos, rasgos o significantes formales y/o estructurales que sean a su vez señales características del panorama arquitectónico contemporáneo; y plantean la pregunta estrella: ¿hay algunos que, apuntando más lejos, supongan aportaciones originales? --Como aportaciones originales la tesis destaca: la identificación entre el ideal genérico y proyecto concreto; y la propuesta de un espacio nuevo, híbrido, una suerte de estadio intermedio entre el espacio subdividido y compartimentado de la tradición y el continuo moderno. --Como síntomas de contemporaneidad se destacan: respecto de la forma, la traslación de la especificidad formal de la parte al conjunto; y respecto de la estructura, la tendencia contemporánea a hacer estructuras cada vez más ligeras y livianas, que tienden a lo evanescente. Ésta última, la tendencia al evanescencia estructural, podría tener la condición de aportación original, no en vano la desaparición de la estructura lleva la evanescencia hacia sus últimas consecuencias, y en el caso de estructuras con presencia física, hace que dejen de ser el sistema ordenador orquestador del proceso proyectual. ABSTRACT The Thesis decodes a selection of twenty representative Sejima-SANAA projects, from the first one built, the Platform I House in 1987, to the Rolex Center in 2010, year in which Sejima and Nishizawa –SANAA- received the Pritzker Prize. Eleven projects are from Sejima: Platform I, Platform II, Saishunkan Seiyaku Women´s Dormitory, N- House, Pachinco Parlor I, Villa in the Forest, Policy Box at Chofu Station, Y-House, Gifu Kitigata Apartment, World City Expo ´96 Facilities Building, Pachinko Parlor III; and nine from SANAA: Multimedia Workshop in Ogaki, Metropolitan Housing Studies, Park Café in Koga, De Kunstlinie in Almere, Kanazawa Museum, Glass Pavilion at the Toledo Museum of Art, Zollverein School, Flower House and the Rolex Center. This decoding reads the Sejima-SANAA’s projects inversely aiming ‘to reconstruct', in a fictitious simulation exercise, a likely and coherent version of what her/their projectual processes ‘could’ have been; ‘could’, because the true ones are impossible to explain. The ones proposed here pretend only to be likely and reasonable. By so doing the Thesis tries to contribute to the understanding and comprehension of Sejima-SANAA architecture and, tangentially and to a lesser extent, to the theory of architectural projects exercise. Decoding centers in two specific aspects: architectural form, and projectual role of the load bearing structure. Both decodes inevitably extend to other related aspects such as, for example, the nature of space. The research procedure begun by carrying out an objective and detailed description of the formal and structural signifiers of each project; looking at them from their physical and geometric configuration. Taken to the limit, the ‘objective’ descriptions allowed the conceptual structures and underlying logics of each project to arise. Together with critical interpretations, which related and confronted them with other architectures and well-known projectual working ways, it became possible to outline and trace the intended fictitious reconstruction decodes. The descriptive analytical work materialized in twenty critical essays, and was accompanied by a set of other essays on subjects suggested or demanded by the research process. Together, all those texts were the material basis on which thesis work was built. Looking at the whole and taking it from there, the thesis identifies two related projectual trajectories: a trajectory of formal strategies and a trajectory of strategies having to do with structural systems and components. Both, together, constitute the bulk of the thesis, as presented in the four central chapters. Preceding them there is an introductory chapter outlining the biographical path of Kazuyo Sejima and the professional trajectory of Sejima-SANAA. And following them there is another one containing transversal texts on form, place and space. The thesis ends with a synthesis on conclusions. The formal strategies are displayed in three chapters. The first one, `Early formal strategies' groups the first phase projects by Sejima. The second one, ‘Formal strategies of Gifu’s paradigm’, is entirely dedicated to the Gifu apartments project, 1994-98, which according to this thesis meant an important inflexion point in Sejima’s trajectory; so much so that the third chapter is named `Formal strategies after Gifu' and gathers the selected projects that followed it. The ‘Early formal strategies', diverse and tentative, move in general around two well-known projectual composition methods ‘composition by parts’, and ‘systematic composition’. This last one –systematic composition- begins and leads in SANAA’s trajectory an aspect which will remain relevant from here on: the understanding of the project as if it were an specific instance of a generic proposal in which -below and beyond the project tangible reality- there lays a logic that could be applicable at other places, for other dimensions, even with other programs; from each project, other projects of the same family could rise. The set of projects using this systematic composition method include, among others, the ‘Platform II House, based on the definition of a constructive element and of rules having to do with its replicas and their possible groupings. It also includes the Saishunkan Seiyaku Women Residence -project that launched Sejima to international fame- that could also be seen as a system, but of a different kind: a system based on the regular repetition of a series of elements along a directive line, thus generating a hypothetical infinite container of which the project would be only a fragment. The formal strategy of the Gifu apartments building would push further towards the generic project concept, adopting the logic of a game. The project would be a bout, a round, one play…, but not the only possible one; others could be played. The thesis confirms this game hypothesis -after having formulated `The Game of Gifu' and identified its elements (board, chips, rules and procedures)- playing the one play from which the building as projected by Sejima would have raised. Gifu extends the concept of ‘repeating a constructive element’ to that of ‘repeating a space pattern element’, and to what it implies: the decoupling of form and function, leading to a new concept of flexibility that no longer refers to the flexible use of the constructed building but to the projectual moment at which the specific functions are assigned to the space patterns. This thesis proposes that this allocation of functions would be one of the last steps in projectual process, quite opposite from the modern premise: “form follows function”. The Formal strategies after Gifu do also have a game logic; but, as their names reveal, each strategy responds to a different game: ‘Game Boards’, present with different maturity levels in several projects; ‘Elements from a Catalogue’, in the Kanazawa Museum; ‘Aprioristic Form’, in the Flower House; and ‘Repetition of a topologic situation', in the Rolex Center. All of these strategies, or games, maintain common aspects having to do with architectural form; aspects that were already present, precisely, in Gifu: repetition of space pattern units, uncoupling of form and function, and a new meaning of flexibility. -`Game Boards’ consists on setting up a base geometry -each project his, generally reticular- and give form to each project system (structure, closings, partitions and furniture) by choosing elements -intersections, lines, modules- it offers. Each project system is formed, in principle, with no subordinated relation with any of the others; when subordination is unavoidable, the game rules determine that the load bearing structural system may not be the one to materialize the base geometric order, which means that it does not exert the dominant role. Therefore, ‘Game Boards' transgresses the Modern logic, because the structure neither reflects nor reveals the base order, and because the systems do not respect any of the hierarchic and chained subordination relations that the ‘free plan’ called for. ‘Game Boards' leads to quite different solutions and formal projects: the Oogaki and Park Coffee projects show incipient Game Boards; The Almere Kunstlinie and the Zollverein School present consolidations of this strategy; and the Toledo’s Glass Pavilion results from subverting the strategy. In addition, the Toledo project takes the repetition concept beyond that of using a constructive element and a space pattern element (in this case with a bubble form) to end up affecting the personal experience of the spectator, who, wherever he is, feels to always be in the same place. This thesis denominates that repetitive space as ‘Mantra space '. -‘Elements from a Catalogue’ is shown with the Kanazawa Museum. Its logic starts from the definition of a series of elements, very few, and it is based on the huge number of possible combinations among them. The ‘Elements from a Catalogue’ approach was announced in the Gifu project when characterizing its space pattern elements. -Aprioristic Form' is illustrated by the Flower House. The decision on the type of form -in this case the form of an amoeba- would be the beginning of the projectual process, but it does not mean it is arbitrary form: the amoeba form implies repeating a space pattern (pseudopodia) and an apotheosis of the repetition concept: embracing the space experience, it gives rise to a repetitive or mantra space. ‘Mantra Space’ is one of leitmotivs used as an argument in the last formal strategy Thesis decodes: the Rolex Center. With respect to the ‘Projectual strategies of the load bearing structure’, the thesis finds and traces a trajectory of five projectual strategies: ‘preeminence, concealment, dissolution, disappearance and desvirtuación’. --Preeminence is present in Sejima’s first works in which she resorts to structures which have a dominant preeminent role in the project in so far as they impersonate the greater scale and/or materialize the base geometric order. In later works that preeminence will be inverted, the projects aiming towards its opposite: lighter, slighter, smaller structures. -Concealment reduces the dominant role of the structure. At the outset concealment is literal, almost hiding the structural elements, as in Gifu; soon it will become more sophisticated, such as the concealment by camouflage or the paradoxical concealment by multiplication in the Koga Park Café. -Dissolution diminishes the dominant condition of the structure: instead of its’ being configured as unitary or homogenous system is fragmented in several subsystems. -Disappearance talks about structures that fade away as self referred and independent systems; projects in which the load bearing function is carried out by other systems such as the set of partitions. Disappearance reaches its zenith at the Flower House, whose perimeter functions structurally being, in addition, transparent, immaterial: its structure has become invisible, has disappeared. -Desvirtuación talks about structures that do appear like independent self-systems, but which that do not longer have a preeminent paper, inasmuch as they do not materialize the base order. This strategy correlates with the ‘Game Boards’ formal strategy. The thesis conclusions are show by the organization of the thesis itself: its identification of the different strategies. Even so, as epilogues, the thesis exposes six ‘Conclusions’. The first two emphasize the leading thread of the work done, rooted in the generic quality of the Sejima-SANAA projectual strategies. The following four expound to what extent their projects show features, or formal and/or structural signifiers, which also are or can be read as characteristic signals of the contemporary architectonic panorama, and raise the key question: aiming farther, may some of them be taken as original contributions? -As original contributions the conclusions highlight: the identification between the generic ideal and the concrete project; and the proposal of a new, hybrid space, kind of an intermediate stage between the traditional subdivided compartmented space and the continuous modern. -As symptoms of contemporaneousness: in relation to the form it highlights the transferring of the formal specificity from the part to the whole; and in relation to the structure, it underscore the contemporary tendency towards lighter and growingly slimmer structures, tending to the evanescent. This last one, the tendency towards structural evanescence, could have condition of being an original contribution, not in vain it carries the structural disappearance towards its last consequences; and in the case of structures with physical presence, it makes them to cease being the ordering system orchestrating the projectual process.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Con el auge del Cloud Computing, las aplicaciones de proceso de datos han sufrido un incremento de demanda, y por ello ha cobrado importancia lograr m�ás eficiencia en los Centros de Proceso de datos. El objetivo de este trabajo es la obtenci�ón de herramientas que permitan analizar la viabilidad y rentabilidad de diseñar Centros de Datos especializados para procesamiento de datos, con una arquitectura, sistemas de refrigeraci�ón, etc. adaptados. Algunas aplicaciones de procesamiento de datos se benefician de las arquitecturas software, mientras que en otras puede ser m�ás eficiente un procesamiento con arquitectura hardware. Debido a que ya hay software con muy buenos resultados en el procesamiento de grafos, como el sistema XPregel, en este proyecto se realizará una arquitectura hardware en VHDL, implementando el algoritmo PageRank de Google de forma escalable. Se ha escogido este algoritmo ya que podr��á ser m�ás eficiente en arquitectura hardware, debido a sus características concretas que se indicaráan m�ás adelante. PageRank sirve para ordenar las p�áginas por su relevancia en la web, utilizando para ello la teorí��a de grafos, siendo cada página web un vértice de un grafo; y los enlaces entre páginas, las aristas del citado grafo. En este proyecto, primero se realizará un an�álisis del estado de la técnica. Se supone que la implementaci�ón en XPregel, un sistema de procesamiento de grafos, es una de las m�ás eficientes. Por ello se estudiará esta �ultima implementaci�ón. Sin embargo, debido a que Xpregel procesa, en general, algoritmos que trabajan con grafos; no tiene en cuenta ciertas caracterí��sticas del algoritmo PageRank, por lo que la implementaci�on no es �optima. Esto es debido a que en PageRank, almacenar todos los datos que manda un mismo v�értice es un gasto innecesario de memoria ya que todos los mensajes que manda un vértice son iguales entre sí e iguales a su PageRank. Se realizará el diseño en VHDL teniendo en cuenta esta caracter��ística del citado algoritmo,evitando almacenar varias veces los mensajes que son iguales. Se ha elegido implementar PageRank en VHDL porque actualmente las arquitecturas de los sistemas operativos no escalan adecuadamente. Se busca evaluar si con otra arquitectura se obtienen mejores resultados. Se realizará un diseño partiendo de cero, utilizando la memoria ROM de IPcore de Xillinx (Software de desarrollo en VHDL), generada autom�áticamente. Se considera hacer cuatro tipos de módulos para que as�� el procesamiento se pueda hacer en paralelo. Se simplificar�á la estructura de XPregel con el fin de intentar aprovechar la particularidad de PageRank mencionada, que hace que XPregel no le saque el m�aximo partido. Despu�és se escribirá el c�ódigo, realizando una estructura escalable, ya que en la computación intervienen millones de páginas web. A continuación, se sintetizar�á y se probará el código en una FPGA. El �ultimo paso será una evaluaci�ón de la implementaci�ón, y de posibles mejoras en cuanto al consumo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

One of the objectives of the European Higher Education Area is the promotion of collaborative and informal learning through the implementation of educational practices. 3D virtual environments become an ideal space for such activities. On the other hand, the problem of financing in Spanish universities has led to the search for new ways to optimize available resources. The Technical University of Madrid requires the use of laboratories which due to their dangerousness, duration or control of the developed processes are difficult to perform in real life. For this reason, we have developed several 3D laboratories in virtual environment. The laboratories are built on open source platform OpenSim. In this paper it is exposed the use of the OpenSim platform for these new teaching experiences and the new design of the software architecture. This architecture requires the adaptation of the platform to the needs of the users and the different laboratories of our University. We will explain the structure of the implemented architecture and the process of creating and configuring it. The proposed architecture is decentralized, each laboratory is housed in different an educational center. The architecture adds several services, among others, the creation and management of users automated, communication between external services and platforms in different program languages. Therefore, we achieve improving the user experience and rising the functionalities of laboratories.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Análisis crítico del libro Learning from Las Vegas, escrito en 1972 por Robert Venturi y Denise Scott Brown con la colaboración de Steven Izenour. Se plantea que el libro representa un cambio de posición significativa desde un punto de vista teórico con respecto al anterior libro de Venturi, Complexity and Contradiction in Architecture

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El Cementerio Este de Malmo (1916-1973) ha sido analizado en el ámbito internacional sólo en contadas ocasiones, aunque en este lugar el arquitecto sueco Sigurd Lewerentz (1885-1975) realizó un proyecto experimental a gran escala, rechazando los trazados de cementerios pintorescos que se habían popularizado en Europa en aquella época y proponiendo una disposición más ortogonal, vinculada con el lugar de distintas maneras. Después de que Lewerentz ganase el concurso, el proyecto se desarrolló durante casi sesenta años. El Cementerio Este de Malmo ofrece una lente única a través de la cual se puede examinar la forma en la que se establecieron relaciones entre el proyecto de arquitectura y diversos aspectos del paisaje: con el entorno urbano y diversas circunstancias del entorno social mediante la vegetación como límite, con la topografía a través de la escala y los materiales de construcción, con la tradición organizando plantas, secciones y construcción, con el ámbito internacional a través de los paramentos constructivos, con las técnicas constructivas habituales en Suecia por medio de materiales cotidianos y con los alrededores a través del planteamiento de los detalles. La hipótesis de trabajo plantea que el concepto de límite en la obra de Lewerentz y en el Cementerio Este de Malmo en particular tiene un carácter dual, produciendo simultáneamente separaciones y relaciones con distintos aspectos del lugar y del tiempo. Esta investigación documenta y examina la construcción del Cementerio Este de Malmo apoyándose en planos y escritos originales de distintos archivos, datos recogidos en el proyecto así como en otros cementerios de la época y en análisis previos ya publicados. Proporcionando un estudio detallado de la evolución del enfoque de Lewerentz respecto a la relación entre arquitectura y paisaje, se define un marco en el que la obra de este arquitecto puede entenderse de una manera más completa. Lewerentz mantuvo una postura crítica con algunos modelos de su época, al tiempo que planteó vínculos con aspectos de la vida cotidiana de las personas. Este conjunto de referencias redefine, un conjunto de circunstancias vinculadas con el proyecto, que redefinen el lugar de forma abstracta. En esta doble cualidad del límite se da lugar a un espacio de intersección, entendido como un lugar de convergencia de personas. En estas relaciones, el usuario siempre es el centro, ya sea para crear un pórtico para resguardar, una avenida de árboles para crear un espacio más tranquilo o una ventana simplificada. Esta tesis contribuye a la investigación en el ámbito de la integración del proyecto de arquitectura en el lugar, describiendo una metodología de proyectar, en la que los elementos que sirven para separar espacios, también se emplean para vincularlos a un conjunto seleccionado de referencias a distintas escalas, lugares y tiempos. Este doble proceso que implica la construcción de los límites permite favorecer la proximidad a algunos aspectos del entorno y al mismo tiempo rechazar otros, permitiendo una perspectiva crítica y pudiendo proponer situaciones alternativas. ABSTRACT Malmó Eastern Cemetery (1916-1973) has received little international attention, despite the fact that Swedish architect Sigurd Lewerentz (1885-1975) led a large-scale experimental project, rejecting picturesque cemetery plans, popular in Europe at that time, and developing a more orthogonal layout, which was linked to the site in different ways. After Lewerentz won first prize in the competition to develop Malmó Eastern Cemetery, the project unfolded over a period of nearly sixty years. Malmó Eastern Cemetery project offers a unique lens through which to examine how different relationships were established between the architectural project and various features of the landscape: with the urban environment and various social circumstances using greenery as a boundary; with topography using the scale of construction and materials; with tradition by designing plans, sections and construction; with the international architectural arena by building walls; with common construction methods in Sweden using ordinary materials and with the surroundings by using detail. The hypothesis of this thesis explores the dual nature of the notion of limit in Lewerentz's work, and in Malmó Eastern Cemetery in particular, through the simultaneous creation of separations and connections with various aspects of place and time. This research documents and examines the construction of Malmó Eastern Cemetery by examining original drawings and writings from various archives, field exploration into the project and other cemeteries of the time, and the existing literature. By providing a detailed study of Lewerentz's evolving approach to the relationship between architecture and landscape, this thesis defines a framework in which Lewerentz's work may be understood in a more comprehensive way. Lewerentz was critical of some of the models of his time, although he established different connections with aspects of people's everyday lives. This set of connections defines a particular setting or set of circumstances for the project, which are more of an abstract notion. Within this double role of limits, a space of intersection is generated, which can be understood as a place of convergence for people. In this set of connections, the user is always at the centre of the design. For example, Lewerentz designed a portico that would provide shelter, an avenue of trees to produce a tranquil space of commemoration or a simplified window. This thesis contributes to research in the field of integration of an architectural project in a site, by describing a methodology of design, in which the elements used to subdivide spaces are also used to connect a set of selected references for different scales, locations and times. The dual process involved in building limits encourages proximity to some aspects of the environment, while rejecting others, thereby allowing for a critical perspective and the proposal of alternative situations.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En la actualidad gran parte de las industrias utilizan o desarrollan plataformas, las cuales integran un número cada vez más elevado de sistemas complejos. El mantenimiento centralizado permite optimizar el mantenimiento de estas plataformas, por medio de la integración de un sistema encargado de gestionar el mantenimiento de todos los sistemas de la plataforma. Este Trabajo Fin de Máster (TFM) desarrolla el concepto de mantenimiento centralizado para sistemas complejos, aplicable a plataformas formadas por sistemas modulares. Está basado en la creciente demanda de las diferentes industrias en las que se utilizan este tipo de plataformas, como por ejemplo la industria aeronáutica, del ferrocarril y del automóvil. Para ello este TFM analiza el Estado del Arte de los sistemas de mantenimiento centralizados en diferentes industrias, además desarrolla los diferentes tipos de arquitecturas de sistemas, las técnicas de mantenimiento aplicables, así como los sistemas y técnicas de mantenimiento basados en funciones de monitorización y auto diagnóstico denominadas Built-In-Test Equipment (BITE). Adicionalmente, este TFM incluye el desarrollo e implementación de un modelo de un Entorno de Mantenimiento Centralizado en LabVIEW. Este entorno está formado por el modelo de un Sistema Patrón, así como el modelo del Sistema de Mantenimiento Centralizado y la interfaces entre ellos. El modelo del Sistema de Mantenimiento Centralizado integra diferentes funciones para el diagnóstico y aislamiento de los fallos. Así mismo, incluye una función para el análisis estadístico de los datos de fallos almacenados por el propio sistema, con el objetivo de proporcionar capacidades de mantenimiento predictivo a los sistemas del entorno. Para la implementación del modelo del Entorno de Mantenimiento Centralizado se han utilizado recursos de comunicaciones vía TCP/IP, modelización y almacenamiento de datos en ficheros XML y generación automática de informes en HTML. ABSTRACT. Currently several industries are developing or are making use of multi system platforms. These platforms are composed by many complex systems. The centralized maintenance allows the maintenance optimization, integrating a maintenance management system. This system is in charge of managing the maintenance dialog with the different and multiple platforms. This Master Final Project (TFM) develops the centralized maintenance concept for platforms integrated by modular and complex systems. This TFM is based on the demand of the industry that uses or develops multi system platforms, as aeronautic, railway, and automotive industries. In this way, this TFM covers and analyzes several aspects of the centralized maintenance systems like the State of the Art, for several industries. Besides this work develops different systems architecture types, maintenance techniques, and techniques and systems based on Built-in-test Equipment functions. Additionally, this TFM includes a LabVIEW Centralized System Environment model. This model is composed by a Standard System, the Centralized Maintenance System and the corresponding interfaces. Several diagnostic and fault isolation functions are integrated on the Centralized Maintenance Systems, as well a statistic analysis function, that provides with predictive maintenance capacity, based on the failure data stored by the system. Among others, the following resources have been used for the Centralized System Environment model development: TCP/IP communications, XML file data modelization and storing, and also automatic HTML reports generation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La calificación automática de tareas de programación es un tema importante dentro del campo de la innovación educativa que se enfoca en mejorar las habilidades de programación de los estudiantes y en optimizar el tiempo que el profesorado dedica a ello. Uno de los principales problemas vigentes está relacionado con la diversidad de criterios para calificar las tareas de programación. El presente trabajo propone e implementa una arquitectura, basada en el concepto de orquestación de servicios, para soportar varios procesos de calificación automática de tareas de programación. Esto es obtenido a través de las características de modularidad, extensibilidad y flexibilidad que la arquitectura provee al proceso de calificación. La arquitectura define como pieza clave un elemento llamado Grading-submodule, el mismo que provee un servicio de evaluación del código fuente considerando un criterio de calificación. La implementación se ha llevado a cabo sobre la herramienta Virtual Programming Lab; y los resultados demuestran la factibilidad de realización, y la utilidad tanto para el profesorado como para los estudiantes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta investigación se ocupa de comprobar la viabilidad de un término, un concepto que se detecta como posible instrumento para nombrar algunas operaciones en arquitectura. Ese concepto es Lo Neutro. Frente al sistema de dualidades con el que enunciamos lo real, lo Neutro se sitúa, no tanto en el punto medio, como en el punto opuesto a ambos términos. No es la conjunción de contrarios, sino aquello que desvía la propia pregunta que obliga a elegir. Próximo a los conceptos de indefinición, indiferencia e inacción, lo Neutro se revela como un mecanismo fundamental de disolución. Reconociendo en la lengua varios sentidos para el término, con cada capítulo, la tesis va construyendo una definición ampliada de lo Neutro hasta configurar un conjunto de significados aplicables a la arquitectura. El primero de ellos es el que se deriva del concepto de indiferencia funcional. Tras un análisis del contexto teórico sobre el que se asienta la dialéctica bi-direccional forma-función, su consolidación en los primeros años del siglo XX y también su puesta en crisis mediante la introducción de nociones multi-relacionales como ‘entorno’ y ‘sistema’, la investigación propone tres modelos de estudio: la Planta Tipo, la Planta Única y la Planta de Equivalencias. En cada uno de estos casos, aunque el tema fundamental es la neutralidad programática, se reconoce también la presencia de los mecanismos geométricos y operaciones conceptuales que lo Neutro utiliza para generar respectivamente condiciones de ‘soporte’, de ‘marco’ o de ‘campo’. Estas tres condiciones espaciales apuntan a un entendimiento de lo Neutro que asocia su fórmula de doble negación (ni lo uno, ni lo otro) con el estado más incipiente de la materia, aquel en el que todavía no es pero que contiene ya todos los elementos de posibilidad de ser: lo Neutro como potencia. Aquello que la lógica nos impide afirmar, que una cosa es y no-es al mismo tiempo, nos lo concede la categoría aristotélica de la potencia. Por ello, en la última parte de la tesis se desarrollan de forma más autónoma aquellos temas vinculados con estos tres tipos de espacio que se basan en la renuncia, abordando la cuestión de la potencialidad desde la negación. Partiendo de dos condiciones superficiales básicas, la del muro vertical y la del suelo horizontal, se analizan algunos discursos basados en una restricción radical a estos dos elementos. Así, el muro ciego encuentra su precedente artístico en el lienzo en blanco y la tabula rasa se pone en relación con el concepto de ‘terrain vague’. Por último, la posibilidad de toda potencia de no actualizarse lleva a explorar el no-hacer como renuncia voluntaria y su capacidad de transformarse en acto de resistencia. ABSTRACT The concern of this research is to test the feasibility of a term, a concept that has been detected as a potential tool to name some architectural operations. That concept is the Neutral. In front of the dualities system with which we enounce the real, the Neutral places itself, not so much in the midpoint as in the opposite point of both terms. It is not the conjunction of the contraries, but that which deflects the question itself that compels us to make a choice. Recognizing the multiple interpretations of the term in the common language, with each chapter, the thesis builds an expanded definition of the Neutral to configure a set of meanings applicable to architecture. The first of them is the one that derives from the concept of functional indifference. After an analysis of the theoretical context in which the two-way dialectic between form and function lies, its consolidation in the early twentieth century and its call into crisis by the introduction of multi-relational concepts such as 'environment' and 'system', the research suggests three study models: the Typical Plan, the Single Plan and the Equivalents Plan. In each of these cases, although the fundamental issue is programmatic neutrality, it also recognizes the presence of geometric mechanisms and conceptual operations that the Neutral uses to generate respectively 'support', 'frame' or 'field' conditions. These three spatial conditions point to an understanding of the Neutral which associates its double negation formula (neither one nor the other) with the most incipient state of matter, that in which it not yet is, but already contains every element of the possibility of being: the neutral as potentiality. That which logic does not allow us to affirm, that one thing is and is-not at the same time, it is granted by the Aristotelian category of potentiality. Therefore, in the last part of the thesis, the topics relating these three types of space which are based on renouncement are more autonomously developed, addressing the issue of potentiality from the standpoint of denial. Starting from two basic surface conditions, the vertical wall and the horizontal floor, some speeches based on a radical restriction on these two elements are analyzed. Thus, the blind wall finds its artistic precedent in the blank canvas and the tabula rasa attitude gets in relation to the concept of ‘terrain vague’. Finally, the possibility of any potency of not being updated leads to explore the not-doing as voluntary resignation and its ability to transform itself into an act of resistance.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta investigación se ocupa de comprobar la viabilidad de un término, un concepto que se detecta como posible instrumento para nombrar algunas operaciones en arquitectura. Ese concepto es Lo Neutro. Frente al sistema de dualidades con el que enunciamos lo real, lo Neutro se sitúa, no tanto en el punto medio, como en el punto opuesto a ambos términos. No es la conjunción de contrarios, sino aquello que desvía la propia pregunta que obliga a elegir. Próximo a los conceptos de indefinición, indiferencia e inacción, lo Neutro se revela como un mecanismo fundamental de disolución. Reconociendo en la lengua varios sentidos para el término, con cada capítulo, la tesis va construyendo una definición ampliada de lo Neutro hasta configurar un conjunto de significados aplicables a la arquitectura. El primero de ellos es el que se deriva del concepto de indiferencia funcional. Tras un análisis del contexto teórico sobre el que se asienta la dialéctica bi-direccional forma-función, su consolidación en los primeros años del siglo XX y también su puesta en crisis mediante la introducción de nociones multi-relacionales como ‘entorno’ y ‘sistema’, la investigación propone tres modelos de estudio: la Planta Tipo, la Planta Única y la Planta de Equivalencias. En cada uno de estos casos, aunque el tema fundamental es la neutralidad programática, se reconoce también la presencia de los mecanismos geométricos y operaciones conceptuales que lo Neutro utiliza para generar respectivamente condiciones de ‘soporte’, de ‘marco’ o de ‘campo’. Estas tres condiciones espaciales apuntan a un entendimiento de lo Neutro que asocia su fórmula de doble negación (ni lo uno, ni lo otro) con el estado más incipiente de la materia, aquel en el que todavía no es pero que contiene ya todos los elementos de posibilidad de ser: lo Neutro como potencia. Aquello que la lógica nos impide afirmar, que una cosa es y no-es al mismo tiempo, nos lo concede la categoría aristotélica de la potencia. Por ello, en la última parte de la tesis se desarrollan de forma más autónoma aquellos temas vinculados con estos tres tipos de espacio que se basan en la renuncia, abordando la cuestión de la potencialidad desde la negación. Partiendo de dos condiciones superficiales básicas, la del muro vertical y la del suelo horizontal, se analizan algunos discursos basados en una restricción radical a estos dos elementos. Así, el muro ciego encuentra su precedente artístico en el lienzo en blanco y la tabula rasa se pone en relación con el concepto de ‘terrain vague’. Por último, la posibilidad de toda potencia de no actualizarse lleva a explorar el no-hacer como renuncia voluntaria y su capacidad de transformarse en acto de resistencia. ABSTRACT The concern of this research is to test the feasibility of a term, a concept that has been detected as a potential tool to name some architectural operations. That concept is the Neutral. In front of the dualities system with which we enounce the real, the Neutral places itself, not so much in the midpoint as in the opposite point of both terms. It is not the conjunction of the contraries, but that which deflects the question itself that compels us to make a choice. Recognizing the multiple interpretations of the term in the common language, with each chapter, the thesis builds an expanded definition of the Neutral to configure a set of meanings applicable to architecture. The first of them is the one that derives from the concept of functional indifference. After an analysis of the theoretical context in which the two-way dialectic between form and function lies, its consolidation in the early twentieth century and its call into crisis by the introduction of multi-relational concepts such as 'environment' and 'system', the research suggests three study models: the Typical Plan, the Single Plan and the Equivalents Plan. In each of these cases, although the fundamental issue is programmatic neutrality, it also recognizes the presence of geometric mechanisms and conceptual operations that the Neutral uses to generate respectively 'support', 'frame' or 'field' conditions. These three spatial conditions point to an understanding of the Neutral which associates its double negation formula (neither one nor the other) with the most incipient state of matter, that in which it not yet is, but already contains every element of the possibility of being: the neutral as potentiality. That which logic does not allow us to affirm, that one thing is and is-not at the same time, it is granted by the Aristotelian category of potentiality. Therefore, in the last part of the thesis, the topics relating these three types of space which are based on renouncement are more autonomously developed, addressing the issue of potentiality from the standpoint of denial. Starting from two basic surface conditions, the vertical wall and the horizontal floor, some speeches based on a radical restriction on these two elements are analyzed. Thus, the blind wall finds its artistic precedent in the blank canvas and the tabula rasa attitude gets in relation to the concept of ‘terrain vague’. Finally, the possibility of any potency of not being updated leads to explore the not-doing as voluntary resignation and its ability to transform itself into an act of resistance.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El tiempo de concentración de una cuenca sigue siendo relativamente desconocido para los ingenieros. El procedimiento habitual en un estudio hidrológico es calcularlo según varias fórmulas escogidas entre las existentes para después emplear el valor medio obtenido. De esta media se derivan los demás resultados hidrológicos, resultados que influirán en el futuro dimensionamiento de las infraestructuras. Este trabajo de investigación comenzó con el deseo de conseguir un método más fiable y objetivo que permitiera obtener el tiempo de concentración. Dada la imposibilidad de poner en práctica ensayos hidrológicos en una cuenca física real, ya que no resulta viable monitorizar perfectamente la precipitación ni los caudales de salida, se planteó llevar a cabo los ensayos de forma simulada, con el empleo de modelos hidráulicos bidimensionales de lluvia directa sobre malla 2D de volúmenes finitos. De entre todos los disponibles, se escogió InfoWorks ICM, por su rapidez y facilidad de uso. En una primera fase se efectuó la validación del modelo hidráulico elegido, contrastando los resultados de varias simulaciones con la formulación analítica existente. Posteriormente, se comprobaron los valores de los tiempos de concentración obtenidos con las expresiones referenciadas en la bibliografía, consiguiéndose resultados muy satisfactorios. Una vez verificado, se ejecutaron 690 simulaciones de cuencas tanto naturales como sintéticas, incorporando variaciones de área, pendiente, rugosidad, intensidad y duración de las precipitaciones, a fin de obtener sus tiempos de concentración y retardo. Esta labor se realizó con ayuda de la aceleración del cálculo vectorial que ofrece la tecnología CUDA (Arquitectura Unificada de Dispositivos de Cálculo). Basándose en el análisis dimensional, se agruparon los resultados del tiempo de concentración en monomios adimensionales. Utilizando regresión lineal múltiple, se obtuvo una nueva formulación para el tiempo de concentración. La nueva expresión se contrastó con las formulaciones clásicas, habiéndose obtenido resultados equivalentes. Con la exposición de esta nueva metodología se pretende ayudar al ingeniero en la realización de estudios hidrológicos. Primero porque proporciona datos de manera sencilla y objetiva que se pueden emplear en modelos globales como HEC-HMS. Y segundo porque en sí misma se ha comprobado como una alternativa realmente válida a la metodología hidrológica habitual. Time of concentration remains still fairly imprecise to engineers. A normal hydrological study goes through several formulae, obtaining concentration time as the median value. Most of the remaining hydrologic results will be derived from this value. Those results will determine how future infrastructures will be designed. This research began with the aim to acquire a more reliable and objective method to estimate concentration times. Given the impossibility of carrying out hydrological tests in a real watershed, due to the difficulties related to accurate monitoring of rainfall and derived outflows, a model-based approach was proposed using bidimensional hydraulic simulations of direct rainfall over a 2D finite-volume mesh. Amongst all of the available software packages, InfoWorks ICM was chosen for its speed and ease of use. As a preliminary phase, the selected hydraulic model was validated, checking the outcomes of several simulations over existing analytical formulae. Next, concentration time values were compared to those resulting from expressions referenced in the technical literature. They proved highly satisfactory. Once the model was properly verified, 690 simulations of both natural and synthetic basins were performed, incorporating variations of area, slope, roughness, intensity and duration of rainfall, in order to obtain their concentration and lag times. This job was carried out in a reasonable time lapse with the aid of the parallel computing platform technology CUDA (Compute Unified Device Architecture). Performing dimensional analysis, concentration time results were isolated in dimensionless monomials. Afterwards, a new formulation for the time of concentration was obtained using multiple linear regression. This new expression was checked against classical formulations, obtaining equivalent results. The publication of this new methodology intends to further assist the engineer while carrying out hydrological studies. It is effective to provide global parameters that will feed global models as HEC-HMS on a simple and objective way. It has also been proven as a solid alternative to usual hydrology methodology.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La importancia de conocer bien el entorno para un proyecto arquitectónico es que podemos adaptarlo a nuestras necesidades fisiológicas de Confort Térmico. Podemos decir entonces que el edificio juega un papel fundamental como técnica de control de nuestro entorno. El edificio nos debería entregar un entorno controlado para que nos sintamos bien térmicamente, considerando además, que la arquitectura por sí misma puede lograr dicho confort la mayor parte de las veces. De no ser así, los usuarios tienden a colocar elementos mecánicos, para generar frío o calor artificialmente. Es fundamental entonces que nuestros edificios, tengan una correcta interacción con los recursos naturales del lugar para lograr dicho confort térmico. Pero lograr el Confort Térmico en todos los edificios de una ciudad como unidad, no logrará que la ciudad entera sea confortable térmicamente, ya que las complejas interacciones hacen que la problemática se deba enfrentar como algo sistémico. Esto quiere decir, que para que una ciudad o un conjunto logren la Confortabilidad Térmica deseada por sus habitantes debiera haber sido planificada conforme a variables urbanas que interactúen con el medio natural en forma eficiente. Con la observación de ciertos conjuntos habitacionales antiguos en el interior del Valle del Elqui, Chile y de sus relaciones entre variables urbanas y naturales, queda de manifiesto ciertas características que conllevan a pensar que existió una planificación ambiental en éstos que llevaron a lograr un conjunto con características bioclimáticas. Las evidencias de la existencia en primer lugar de un patrón urbanístico en dichos conjuntos habitacionales antiguos, hacen pensar que dicho patrón se trataría de un patrón bioclimático rural planificado, lo que hace que exista un gran interés por el estudio de estos conjuntos. Hasta ahora, en Chile, los pocos estudios de Confort Térmico que existen, están orientados a edificaciones aisladas, al Confort térmico interior de la edificación en el ámbito urbano, y en nada a Patrones Bioclimáticos de Conjuntos Habitacionales en una situación de ruralidad como a la referida en esta investigación. Además, los estudios referidos al clima urbano, difieren a los del clima rural, por lo que se necesitan mayores estudios aún para comprender mejor la problemática. Es por esto, que la mayoría de los casos mencionados en este estudio son contextualizados al ámbito urbano por carecer de otros estudios rurales. Es en este sentido que esta investigación cobra real importancia y pretende establecer la relación existente entre las variables morfológicas rurales y los recursos naturales del lugar y que generan un confort térmico ideal para sus habitantes, al mismo tiempo, se analiza la existencia de un Patrón Bioclimático en un poblado denominado Algarrobito ubicado en la cuenca del Valle del Elqui, Chile. Es en este sentido que el propósito principal de este trabajo es determinar la real existencia de un Patrón Bioclimático que relacione la morfología rural y edificada de los antiguos poblados pertenecientes a la cuenca del Valle de Elqui Chile con el microclima del lugar. La metodología empleada se basa en realizar primeramente el estudio del microclima del lugar a través de las Cartas Bioclimáticas. Para ello se obtuvo información de datos climatológicos de las estaciones meteorológicas ubicadas en la cuenca del Valle de Elqui, principalmente las más cercanas al lugar de estudio. Mediante una revisión exhaustiva de la información arquitectónica, así como de una labor de reconocimiento en terreno realizada en el poblado seleccionado y de la aplicación del Climograma local, se identificaron las diferentes zonas bioclimáticas del poblado antiguo y potenciales áreas de estudio en el conjunto. Esta actividad incluyó un estudio preliminar de la energía solar local, vientos, humedad, temperaturas y su interacción con el conjunto, permitiendo una primera aproximación a la problemática del espacio exterior y las viviendas. Esto permitió en base a las condicionantes del lugar, la arquitectura vernácula y los materiales descubrir un Patrón en el antiguo conjunto que permitía entregar confortabilidad térmica a sus habitantes y darse cuenta también, que el nuevo conjunto emplazado en el sector no seguía ese patrón con las disfuncionalidades que ello llevaba. Con esto quedó demostrado en primer lugar la existencia de un Patrón Bioclimático rural, los beneficios del patrón, la importancia de éste como causante de Confortabilidad Térmica del conjunto, y por ende de mejor eficiencia energética, así como también, que el nuevo conjunto no sigue para nada este Patrón, pero que existe también la posibilidad de rectificación y por supuesto, que los nuevos desarrollos residenciales del Valle del Elqui, puedan planificarse en base al patrón bioclimático descubierto. ABSTRACT Knowing the environment of an architectonic proyect is really important for adjusting it to our physiological needs of Thermal Comfort. So we can say that the building plays a key role as a technique of control of our environment. The building should give us a controlled environment to make us feel good thermally, and it usually can reach pleasurable temperatures by itself. If it isn't like that, people cooled or heated the ambience with mechanical elements. So a correct interaction between the buildings and natural resources is important to reach a thermal comfort. But achieving Thermal Comfort in all the buildings of a city as a unit will not achieve the whole city is thermally comfortable, because the complex interactions cause the problem needs to be solved as something systemic. This means that for a city or a set reach the Thermal Comfortability desired by its inhabitants, it should have been planned according to the urban variables that interact with the natural environment efficiently. Observing some old housing complexes in Elqui Valley, Chile, and the relationships between their natural and urban variables, some features lead to think that the environmental planning in these led to achieve a set with bioclimatic features. First, the evidences about the existence of an urban pattern in those old housing complexes, make thinking that the pattern would be a planned urban pattern, which generates interest in its study. In Chile, there have been few studies about Thermal Comfort, oriented to isolated buildings and indoor thermal comfort, but Bioclimatic Urban Patterns haven't been studied at all. In this sense, this investigation acquires a real importance and pretends to establish the relationship between urban variables and natural resources of the place that generates a good thermal comfort for its habitants. At the same time, the existence of a Bioclimatic Urban Pattern in Algarrobito, located in Elqui Valley basin, Chile, is analized. It is in this sense that the main purpose of this work is to determine the real existence of a Bioclimatic Urban Pattern, that links the urban and constructive form of the old villages of it with its microclimate. The methodology used is based on performing first the study of the microclimate of the place through the Bioclimatic Cards. To do this, weather stations, located in Elqui valley, near the place that was studied, were used to obtain information of climatological data. The different bioclimatic zones to the old town and potential areas of study in the set were identified, through an exhaustive review of the architectural information, a field reconnaissance work performed on the selected town and the application of the Local Climograph. This activity included a preliminary study of the local solar energy, the winds, the moisture, the temperatures, and their interaction with the set, allowing a first aproximation to troubles of outer space and housing. This allowed, based on the conditions of the place, vernacular architecture and materials, discovering an urban pattern in the old set, which allowed to give thermal comfort to its inhabitants and realize that the new set of the place did not follow this pattern, with the dysfunctions that it carried. These points demonstrated, in first place, the existence of a Bioclimatic Urban Pattern, the benefits of it, the importance of it as a cause of Thermal Comfortability, and therefore a better efficiency of energy, also that the new set doesn’t follow this Pattern at all, but that the posibility of rectification exists and, of course, that the new residencial development in Elqui Valley can be planned based on bioclimatic pattern discovered.