139 resultados para Flexibilidad
Resumo:
El propósito de este estudio fue la construcción y validación de un instrumento de medición de barreras a la práctica de la actividad física y deportiva por parte de las personas adultas desde la teoría ecológico social y analizar la presencia de las diferentes barreras así como las innovaciones y alternativas de conciliación a las barreras relacionadas con el empleo, el cuidado de hijos e hijas y las tareas del hogar, identificando las posibles diferencias existentes en función del género y del tipo de demanda en la población adulta de la Comunidad de Madrid. Se ha realizado un estudio cuantitativo, descriptivo y transversal en una muestra representativa de la población residente en la Comunidad de Madrid entre 30 y 64 años. El tipo de muestreo fue probabilístico, de tipo polietápico según tamaño demográfico de municipio y género, con un margen de error del ± 5,27% y un intervalo de confianza del 95,5%. El tamaño de la muestra final fue de 360 personas (50,3% mujeres, 49,7% hombres), quienes completaron un cuestionario estructurado mediante entrevista personal cara a cara en su domicilio entre octubre y diciembre de 2011, que incluía una escala de barreras específica, así como sub-cuestionarios de innovaciones y alternativas de conciliación vinculados a los tres ítems relacionados con el empleo, cuidado de hijos e hijas y hogar de la escala de barreras. La escala de barreras fue completada por las personas practicantes de actividad física y deportiva que deseaban realizar otra actividad, es decir, por la Demanda Establecida, así como por las personas no practicantes pero deseosas de hacerlo o Demanda Latente, y las personas no practicantes no interesadas en practicar o Demanda Ausente (n=246). Las personas que alcanzaron elevadas puntuaciones en los tres ítems de la escala de barreras vinculados al empleo, cuidado de hijos e hijas y hogar, completaron sub-cuestionarios específicos de innovaciones y alternativas de conciliación vinculados a estas barreras. Para el estudio métrico de los ítems y la dimesionalidad de la escala de barreras se llevaron a cabo análisis descriptivos de los ítems, análisis correlacionales y análisis factoriales exploratorios (AFE). Como resultado se obtuvo una escala de barreras constituida por 13 ítems que explicaron el 59,1% de la variabilidad total de los datos, agrupados en cuatro dimensiones denominadas: Barreras Interpersonales (2 ítems), Barreras Individuales (4 ítems), Barreras Comunidad-Institucionales (4 ítems) y Barreras Obligaciones-Tiempo (3 ítems). Los datos de la escala de barreras y los sub-cuestionarios de innovaciones y alternativas de conciliación fueron analizados con el SPSS v. 18. Para la comparación de variables cuantitativas y ordinales se utilizaron ANOVAS de dos factores (género por tipo de demanda), el tamaño del efecto para esta prueba se cuantificó mediante eta cuadrado. Los resultados se expresaron como porcentajes para las variables nominales y como medias y desviaciones típicas para las variables ordinales y cuantitativas. El nivel de riesgo se fijó en 0,05. El instrumento presentó una fiabilidad aceptable (α=0,58) en consonancia con el modelo ecológico social presentando dimensiones que explicaron los niveles de influencia de las diferentes esferas. Los resultados obtenidos permitieron avalar tanto la adecuación de las propiedades psicométricas de los ítems, así como la validez y fiabilidad de la escala de barreras para la práctica de actividad física y deportiva. Los distintos análisis realizados han aportado evidencia de la validez de una estructura de cuatro dimensiones acorde a los planteamientos teóricos previos de los modelos ecológicos sociales. En la dimensión barreras Individuales se identificaron diferencias según el tipo de demanda (F2,237=40,28; p<0,001; η2=0,25) y el género (F1,237=8,72; p<0,01; η2=0,84). En la dimensión barreras Interpersonales se identificaron diferencias de género (F1,239 =14,9; p<0,01; η2=0,06) pero no entre demandas (F2,239=2,35; p>0,05; 1-β=0,47). En la dimensión Barreras Obligaciones-Tiempo se identificaron diferencias en función del tipo de demanda (F2,239=3,88; p<0,05; η2=0,03) sin presentar diferencias entre hombres y mujeres (F1,239=1,06; p>0,05; 1-β=0,18). Por último, en la dimensión Comunidad Institucionales, se identificaron diferencias en función del tipo de demanda (F2,240=5,69; p<0,01; η2=0,045) y no hubo diferencias en función del género (F1,240=0,65; p>0,05; 1-β=0,13). Las innovaciones y alternativas de conciliación relacionadas con el empleo más valoradas fueron la de flexibilidad en los horarios de trabajo y adecuación de horarios; las más valoradas relacionadas con la barrera cuidado de hijos fueron que en la instalación deportiva se ofertaran actividades físicas conjuntas, en las en las que pudiesen participar madres e hijos y que la instalación deportiva ofreciera, en el mismo horario, actividades para ellos y sus hijos, y, por último, las más valoradas en relación con las tareas del hogar, una mayor implicación de la pareja seguida por una mayor implicación de los hijos. ABSTRACT The objectives of this study were to build and validate an instrument to measure the barriers of adult people to the practice of sport and physical activities from the perspective of the social-ecological theory, analyse the presence of the different barriers, as well as the innovations and alternatives regarding conciliation with work and the care of children and home as barriers, identifying the possible differences that exist based on gender and the type of demand of the adult population within the Community of Madrid. For this, a quantitative, descriptive and transversal study was carried out on a representative sample of the resident population of the Community of Madrid, ages ranging from 30 to 64 years old. Given that is an infinite or very large population, and working with an interval of confidence of the 95,5%, and assuming in the population variance, the worst case of p equal to q, the margin of sampling error was ± 5,27. The sample consisted of 360 people (50,3% women, 49,7% men), who completed a questionnaire during face-to-face personal interviews between October and December 2011. The questionnaire included a scale of specific barriers, as well as sub-questionnaires on the innovations and alternatives linked to the three items regarding work, the care of children and home of the barriers scale. The barriers scale was completed by people who practice physical and sport activities and wanted to do other activities, i.e. by the Established Demand; by people who do not practice these activities but would like to do so, i.e. Latent Demand; and by people who do not practice these activities and have no desire to do so, i.e. Absent Demand (n=246). The people who peaked on the three items of the barriers scale regarding work, the care of children and home, then completed specific sub-questionnaires on the innovations and alternatives for conciliation related to these barriers. The metric study of the items and the dimensionality of the barriers scale was carried out through descriptive analyses of the items, as well as correlation analyses and exploratory factor analyses (EFA). This resulted in a barriers scale composed of 13 items that explained 59,1% of the total variability of the data, grouped in four dimensions as follows: Interpersonal Barriers (2 items), Individual Barriers (4 items), Community-Institutional Barriers (4 items) and Obligations-Time Barriers (3 items). The data obtained from the barriers scale and sub-questionnaires on the innovations and alternatives for conciliation were analyzed using software SPSS v. 18. Two-way ANOVA (gender by type of demand) was used for the comparison of quantitative and ordinal variables, and the effect size for this test was quantified with eta squared. The results were expressed as percentages for nominal variables, and as means and standard deviations for quantitative and ordinal variables. The level of risk was set at 0,05. The instrument showed an acceptable reliability (α=0,58) in line with the social-ecological model, providing dimensions that explained the influence levels of the different spheres. The results obtained establish both the adaptation of the psychometric properties of the items, and the validity and reliability of the barriers scale for the practice of physical and sport activities. The different analyses have supported the validity of a four-dimensional structure consistent with the previous theoretical approaches on the social-ecological models, while showing adequate statistical indices. The differences identified in the Individual Barriers dimension were based on the type of demand (F2,237=40,28; p<0,001; η2=0,25) and gender (F1,237=8,72; p<0,01; η2=0,84). The differences identified in the Interpersonal Barriers dimension were based on gender (F1,239 =14,9; p<0,01; η2=0,06) but not on demand (F2,239=2,35; p>0,05; 1-β=0,47). The differences identified for the Obligations-Time Barriers dimension were based on the type of demand (F2,239=3,88; p<0,05; η2=0,03) and did not show differences between men and women (F1,239=1,06; p>0,05; 1-β=0,18). Finally, the differences identified for the Community-Institutional Barriers dimension were based on the type of demand (F2,240=5,69; p<0,01; η2=0,045) and provided no differences based on gender (F1,240=0,65; p>,05; 1-β=0,13). The most valued innovations and alternatives for conciliation regarding work were the adaptation and flexibility of working hours and timetables; the most valued related to the care of children were the offer of joint activities for adults and children in sport centres, as well as separate activities within the same timetable; and, finally, the most valued regarding the home was a higher degree of participation and involvement on the part of the spouse or partner, followed by a higher degree of participation and involvement on the part of the children.
Resumo:
Las estructuras que trabajan por forma se caracterizan por la íntima e indisociable relación entre geometría y comportamiento estructural. Por consiguiente, la elección de una apropiada geometría es el paso previo indispensable en el diseño conceptual de dichas estructuras. En esa tarea, la selección de las posibles geometrías antifuniculares para las distribuciones de cargas permanentes más habituales son más bien limitadas y, muchas veces, son criterios no estructurales (adaptabilidad funcional, estética, proceso constructivo, etc.) los que no permiten la utilización de dichas geometrías que garantizarían el máximo aprovechamiento del material. En este contexto, esta tesis estudia la posibilidad de obtener una estructura sin momentos flectores incluso si la geometría no es antifunicular para sus cargas permanentes. En efecto, esta tesis presenta un procedimiento, basado en la estática gráfica, que demuestra cómo un conjunto de cargas adicionales, introducidas a través de un sistema de pretensado exterior con elementos post-tesos, puede eliminar los momentos flectores debidos a cargas permanentes en cualquier geometría plana. Esto se traduce en una estructura antifunicular que proporciona respuestas innovadoras a demandas conjuntas de versatilidad arquitectónica y optimización del material. Dicha metodología gráfica ha sido implementada en un software distribuido libremente (EXOEQUILIBRIUM), donde el análisis estructural y la variación geométrica están incluidos en el mismo entorno interactivo y paramétrico. La utilización de estas herramientas permite más versatilidad en la búsqueda de nuevas formas eficientes, lo cual tiene gran importancia en el diseño conceptual de estructuras, liberando al ingeniero de la limitación del propio cálculo y de la incomprensión del comportamiento estructural, facilitando extraordinariamente el hecho creativo a la luz de una metodología de este estilo. Esta tesis incluye la aplicación de estos procedimientos a estructuras de cualquier geometría y distribución inicial de cargas, así como el estudio de diferentes posibles criterios de diseño para optimizar la posición del sistema de post-tesado. Además, la metodología ha sido empleada en el proyecto de maquetas a escala reducida y en la construcción de un pabellón hecho enteramente de cartón, lo que ha permitido obtener una validación física del procedimiento desarrollado. En definitiva, esta tesis expande de manera relevante el rango de posibles geometrías antifuniculares y abre enormes posibilidades para el diseño de estructuras que combinan eficiencia estructural y flexibilidad arquitectónica.Curved structures are characterized by the critical relationship between their geometry and structural behaviour, and selecting an appropriate shape in the conceptual design of such structures is important for achieving materialefficiency. However, the set of bending-free geometries are limited and, often, non-structural design criteria (e.g., usability, architectural needs, aesthetics) prohibit the selection of purely funicular or antifunicular shapes. In response to this issue, this thesis studies the possibility of achieving an axial-only behaviour even if the geometry departs from the ideally bending-free shape. This dissertation presents a new design approach, based on graphic statics that shows how bending moments in a two-dimensional geometry can be eliminated by adding forces through an external post-tensioning system. This results in bending-free structures that provide innovative answers to combined demands on versatility and material optimization. The graphical procedure has been implemented in a free-downloadable design-driven software (EXOEQUILIBRIUM) where structural performance evaluations and geometric variation are embedded within an interactive and parametric working environment. This provides greater versatility in finding new efficient structural configurations during the first design stages, bridging the gap between architectural shaping and structural analysis. The thesis includes the application of the developed graphical procedure to shapes with random curvature and distribution of loads. Furthermore, the effect of different design criteria on the internal force distribution has been analyzed. Finally, the construction of reduced- and large-scale models provides further physical validation of the method and insights about the structural behaviour of these structures. In summary, this work strongly expands the range of possible forms that exhibit a bending-free behaviour and, de facto, opens up new possibilities for designs that combine high-performing solutions with architectural freedom.
Resumo:
Es, en el encuentro de los edificios con el terreno, donde el suelo como realidad se transforma en cualidad arquitectónica. La presente tesis aborda el estudio del plano del suelo, haciendo una revisión crítica de la arquitectura como mecanismo de pensamiento proyectual. Este análisis se enmarca a partir de los años sesenta, por considerar que es cuando comienza a evidenciarse la ruptura respecto a la herencia del Movimiento Moderno. Es entonces cuando la arquitectura marca un punto de inflexión, y empiezan a surgir diferentes actitudes metodológicas respecto al suelo, totalmente nuevas. Las clásicas acciones de encuentro como posar, elevar o enterrar fueron poco a poco sustituidas por otras más complejas como plegar, inclinar o esponjar. Utilizando como marco de restricción los encuentros o desencuentros del objeto arquitectónico con el terreno, se analiza el suelo como estrategia arquitectónica tratando de demostrar como su manipulación puede ser una eficaz herramienta con la que establecer relaciones específicas con el lugar. La capacidad que presenta el suelo, como elemento arquitectónico, de explorar y modificar las características de cada entorno, hacen de esta superficie una eficiente forma de contextualización. Por tanto, la manipulación del suelo que aquí se plantea, opera transcodificando los elementos específicos de cada lugar y actúa como estrategia arquitectónica que pone en relación al edificio con el contexto, modificando las particularidades formales de dicho plano. Frente a la tendencia que reduce la expresión arquitectónica a una simple apariencia formal autónoma, se plantea la manipulación del plano del suelo como mecanismo de enraizamiento con el lugar, enfatizando para ello la condición terrestre de la arquitectura. El plano del suelo es el que ata al edificio mediante la gravedad a la corteza terrestre. En realidad se trata de realzar el carácter mediador del suelo en la arquitectura, definiendo para ello el establecimiento de elementos comunes entre realidades distintas, potenciando el valor del suelo como herramienta que puede transcodificar el entorno, trasformando su datos en elementos arquitectónicos concretos. En este proceso de traducción de información, el suelo pasa de ser un objeto pasivo a ser uno operativo, convirtiéndose en parte activa de las acciones que sobre él se ejercen. La tesis tiene también como propósito demostrar cómo, la clave de la rápida evolución que el suelo como estrategia arquitectónica ha sufrido en los últimos años, mucho debe a la expansión del suelo en otras artes como en la escultura, y mas concretamente en el landart. Surgen entonces nuevas disciplinas, en las que se propone la comprensión del lugar en los proyectos desarrollando una visión integral del mundo natural, convirtiéndolo en un tejido viviente y conector que pone en relación las actividades que sustenta. También encontramos en Utzon, y sus plataformas geológicas, al precursor de la importancia que más tarde se le daría al plano del suelo en la arquitectura, ya que inicia cierta actitud crítica, que hizo avanzar hacia una arquitectura más expresiva que requería nuevos mecanismos que la relacionasen con el suelo que los soportaba, proponiendo con sus plataformas una transformación infraestructural del suelo. Con su interpretación transcultural de las estructuras espaciales arquetípicas mayas, chinas y japonesas, irá enriqueciendo el panorama arquitectónico, adquiriendo de este modo más valor el contexto que acabará por ser entendido de forma más compleja. Los proyectos de arquitectura en muchas ocasiones se han convertido en territorios propicios de especulación donde construir teoría arquitectónica. Desde este contexto se analizan cuatro estrategias de suelo a través del estudio de cuatro posiciones arquitectónicas muy significativas desde el punto de vista de la manipulación del plano del suelo, que construyen una interesante metodología proyectual con la que operar. Los casos de estudio, propuestos son; la Terminal Pasajeros (1996-2002) en Yokohama del estudio FOA, la Casa de la Música (1999-2005) de OMA en Oporto, el Memorial Judío (1998-2005) de Berlín de Peter Eisenman, y por último el Museo MAXXI (1998-2009) de Zaha Hadid en Roma. Descubrir las reglas, referencias y metodologías que cada uno nos propone, nos permite descubrir cuáles son los principales posicionamientos en relación al proyecto y su relación con el lugar. Las propuestas aquí expuestas abordan una nueva forma de entender el suelo, que hizo avanzar a la arquitectura hacia nuevos modos de encuentro con el terreno. Nos permite también establecer cuáles son las principales aportaciones arquitectónicas del suelo, como estrategia arquitectónica, que han derivado en su reformulación. Dichas contribuciones abren nuevas formas de abordar la arquitectura basadas en el movimiento y en la flexibilidad funcional, o en la superposición de flujos de información y circulación. También plantean nuevas vías desdibujando la figura contra el fondo, y refuerzan la idea del suelo como plataforma infraestructural que ya había sido enunciada por Utzon. Se trata en definitiva de proponer la exploración de la superficie del suelo como el elemento más revelador de las formas emergentes del espacio. ABSTRACT Where the building hits the ground, it is where the latter as reality becomes architectural quality. This thesis presents the study of the ground plane, making a critical review of architecture as a mechanism of projectual thought. This analysis starts from the sixties, because it is when the break begins to be demonstrated with regard to the inheritance of the Modern Movement. It is then when architecture marks a point of inflexion, and different, completely new methodological attitudes to the ground start to emerge. The classic meeting action like place, raise or bury are gradually replaced by more complex operations such as fold, bend or fluff up. Framing it within the meetings or disagreements between architectural object and ground, we analyzed it as architectural strategy trying to show how handling can be an effective tool to establish a specific relationship with the place. The capacity ground has, as an architectural element, to explore and modify the characteristics of each environment, makes this area an efficient tool for contextualization. Therefore, the manipulation of ground that is analyzed here, operates transcoding the specifics of each place and acts as architectural strategy that relates to the building with the context, modifying the structural peculiarities of such plane. Opposite to the reductive tendency of the architectural expression to a simple formal autonomous appearance, the manipulation of the ground plane is considered as a rooting mechanism place that emphasises the earthly condition of architecture. The ground plane is the one that binds the building by gravity to the earth’s crust. In fact, it tries to study the mediating character of the ground in architecture, defining for it to establish commonalities among different realities, enhancing the value of the ground as a tool that can transcode the environment, transforming its data into specific architectural elements. In this process of translating information, the ground goes from being a liability, to become active part of the actions exerted on the object. The thesis also tries to demonstrate how the key of the rapid evolution that the ground likes architectural strategy has gone through recently, much due to its use expansion in other arts such as sculpture. New disciplines arise then, in which one proposes the local understanding in the projects, developing an integral vision of the natural world and turning it into an element linking the activities it supports. We also find in Utzon, and his geological platforms, the precursor of the importance that later would be given to the ground plane in architecture, since it initiates a certain critical attitude, which advances towards a more expressive architecture, with new mechanisms that relate to the ground that it sits in, proposing with its platforms an infrastructural transformation of the ground. With his transcultural interpretation of the spatial archetypal structures, he will enrich the architectural discourse, making the context become understood in more complex ways. Architectural projects in many cases have become territories prone to architectural theory speculation. Within this context, four strategies are analyzed through the study of four very significant architectural positions, from the point of view of handling the ground plane, and the project methodology within which to operate. The case studies analyzed are; Passenger Terminal (1996-2002) in Yokohama from FOA, The House of the music (1999-2005) the OMA in Oporto, The Jew monument (1998-2005) in Berlin the Peter Eisenman, and finally the MAXXI Museum (1998-2009) the Zaha Hadid in Rome. Discovering the rules, references and methodologies that each of those offer, it allows to discover what the main positions are regarding the building and its relationship with the place where it is located. The proposals exposed here try to shed a different light on the ground, which architecture advancing in new ways on how meet it. The crossing of the different studied positions, allows us to establish what the main contributions of ground as architectural strategy are. Such contributions open up new approaches to architecture based on movement and functional flexibility, overlapping information flow and circulation, consider new ways that blur the figure against the background, and reinforce the idea of ground as infrastructural platform, already raised by Utzon. Summarizing, it tries to propose the exploration of the ground plane as the most revealing form of spatial exploration.
Resumo:
Una Red de Procesadores Evolutivos o NEP (por sus siglas en ingles), es un modelo computacional inspirado por el modelo evolutivo de las celulas, específicamente por las reglas de multiplicación de las mismas. Esta inspiración hace que el modelo sea una abstracción sintactica de la manipulation de information de las celulas. En particu¬lar, una NEP define una maquina de cómputo teorica capaz de resolver problemas NP completos de manera eficiente en tóerminos de tiempo. En la praóctica, se espera que las NEP simuladas en móaquinas computacionales convencionales puedan resolver prob¬lemas reales complejos (que requieran ser altamente escalables) a cambio de una alta complejidad espacial. En el modelo NEP, las cóelulas estóan representadas por palabras que codifican sus secuencias de ADN. Informalmente, en cualquier momento de cómputo del sistema, su estado evolutivo se describe como un coleccion de palabras, donde cada una de ellas representa una celula. Estos momentos fijos de evolucion se denominan configuraciones. De manera similar al modelo biologico, las palabras (celulas) mutan y se dividen en base a bio-operaciones sencillas, pero solo aquellas palabras aptas (como ocurre de forma parecida en proceso de selection natural) seran conservadas para la siguiente configuracióon. Una NEP como herramienta de computation, define una arquitectura paralela y distribuida de procesamiento simbolico, en otras palabras, una red de procesadores de lenguajes. Desde el momento en que el modelo fue propuesto a la comunidad científica en el año 2001, múltiples variantes se han desarrollado y sus propiedades respecto a la completitud computacional, eficiencia y universalidad han sido ampliamente estudiadas y demostradas. En la actualidad, por tanto, podemos considerar que el modelo teórico NEP se encuentra en el estadio de la madurez. La motivación principal de este Proyecto de Fin de Grado, es proponer una aproxi-mación práctica que permita dar un salto del modelo teórico NEP a una implantación real que permita su ejecucion en plataformas computacionales de alto rendimiento, con el fin de solucionar problemas complejos que demanda la sociedad actual. Hasta el momento, las herramientas desarrolladas para la simulation del modelo NEP, si bien correctas y con resultados satisfactorios, normalmente estón atadas a su entorno de ejecucion, ya sea el uso de hardware específico o implementaciones particulares de un problema. En este contexto, el propósito fundamental de este trabajo es el desarrollo de Nepfix, una herramienta generica y extensible para la ejecucion de cualquier algo¬ritmo de un modelo NEP (o alguna de sus variantes), ya sea de forma local, como una aplicación tradicional, o distribuida utilizando los servicios de la nube. Nepfix es una aplicacion software desarrollada durante 7 meses y que actualmente se encuentra en su segunda iteration, una vez abandonada la fase de prototipo. Nepfix ha sido disenada como una aplicacion modular escrita en Java 8 y autocontenida, es decir, no requiere de un entorno de ejecucion específico (cualquier maquina virtual de Java es un contenedor vólido). Nepfix contiene dos componentes o móodulos. El primer móodulo corresponde a la ejecución de una NEP y es por lo tanto, el simulador. Para su desarrollo, se ha tenido en cuenta el estado actual del modelo, es decir, las definiciones de los procesadores y filtros mas comunes que conforman la familia del modelo NEP. Adicionalmente, este componente ofrece flexibilidad en la ejecucion, pudiendo ampliar las capacidades del simulador sin modificar Nepfix, usando para ello un lenguaje de scripting. Dentro del desarrollo de este componente, tambióen se ha definido un estóandar de representacióon del modelo NEP basado en el formato JSON y se propone una forma de representation y codificación de las palabras, necesaria para la comunicación entre servidores. Adicional-mente, una característica importante de este componente, es que se puede considerar una aplicacion aislada y por tanto, la estrategia de distribution y ejecución son total-mente independientes. El segundo moódulo, corresponde a la distribucióon de Nepfix en la nube. Este de-sarrollo es el resultado de un proceso de i+D, que tiene una componente científica considerable. Vale la pena resaltar el desarrollo de este modulo no solo por los resul-tados prócticos esperados, sino por el proceso de investigation que se se debe abordar con esta nueva perspectiva para la ejecución de sistemas de computación natural. La principal característica de las aplicaciones que se ejecutan en la nube es que son gestionadas por la plataforma y normalmente se encapsulan en un contenedor. En el caso de Nepfix, este contenedor es una aplicacion Spring que utiliza el protocolo HTTP o AMQP para comunicarse con el resto de instancias. Como valor añadido, Nepfix aborda dos perspectivas de implementation distintas (que han sido desarrolladas en dos iteraciones diferentes) del modelo de distribution y ejecucion, que tienen un impacto muy significativo en las capacidades y restricciones del simulador. En concreto, la primera iteration utiliza un modelo de ejecucion asincrono. En esta perspectiva asincrona, los componentes de la red NEP (procesadores y filtros) son considerados como elementos reactivos a la necesidad de procesar una palabra. Esta implementation es una optimization de una topologia comun en el modelo NEP que permite utilizar herramientas de la nube para lograr un escalado transparente (en lo ref¬erente al balance de carga entre procesadores) pero produce efectos no deseados como indeterminacion en el orden de los resultados o imposibilidad de distribuir eficiente-mente redes fuertemente interconectadas. Por otro lado, la segunda iteration corresponde al modelo de ejecucion sincrono. Los elementos de una red NEP siguen un ciclo inicio-computo-sincronizacion hasta que el problema se ha resuelto. Esta perspectiva sincrona representa fielmente al modelo teórico NEP pero el proceso de sincronizacion es costoso y requiere de infraestructura adicional. En concreto, se requiere un servidor de colas de mensajes RabbitMQ. Sin embargo, en esta perspectiva los beneficios para problemas suficientemente grandes superan a los inconvenientes, ya que la distribuciín es inmediata (no hay restricciones), aunque el proceso de escalado no es trivial. En definitiva, el concepto de Nepfix como marco computacional se puede considerar satisfactorio: la tecnología es viable y los primeros resultados confirman que las carac-terísticas que se buscaban originalmente se han conseguido. Muchos frentes quedan abiertos para futuras investigaciones. En este documento se proponen algunas aproxi-maciones a la solucion de los problemas identificados como la recuperacion de errores y la division dinamica de una NEP en diferentes subdominios. Por otra parte, otros prob-lemas, lejos del alcance de este proyecto, quedan abiertos a un futuro desarrollo como por ejemplo, la estandarización de la representación de las palabras y optimizaciones en la ejecucion del modelo síncrono. Finalmente, algunos resultados preliminares de este Proyecto de Fin de Grado han sido presentados recientemente en formato de artículo científico en la "International Work-Conference on Artificial Neural Networks (IWANN)-2015" y publicados en "Ad-vances in Computational Intelligence" volumen 9094 de "Lecture Notes in Computer Science" de Springer International Publishing. Lo anterior, es una confirmation de que este trabajo mas que un Proyecto de Fin de Grado, es solo el inicio de un trabajo que puede tener mayor repercusion en la comunidad científica. Abstract Network of Evolutionary Processors -NEP is a computational model inspired by the evolution of cell populations, which might model some properties of evolving cell communities at the syntactical level. NEP defines theoretical computing devices able to solve NP complete problems in an efficient manner. In this model, cells are represented by words which encode their DNA sequences. Informally, at any moment of time, the evolutionary system is described by a collection of words, where each word represents one cell. Cells belong to species and their community evolves according to mutations and division which are defined by operations on words. Only those cells are accepted as surviving (correct) ones which are represented by a word in a given set of words, called the genotype space of the species. This feature is analogous with the natural process of evolution. Formally, NEP is based on an architecture for parallel and distributed processing, in other words, a network of language processors. Since the date when NEP was pro¬posed, several extensions and variants have appeared engendering a new set of models named Networks of Bio-inspired Processors (NBP). During this time, several works have proved the computational power of NBP. Specifically, their efficiency, universality, and computational completeness have been thoroughly investigated. Therefore, we can say that the NEP model has reached its maturity. The main motivation for this End of Grade project (EOG project in short) is to propose a practical approximation that allows to close the gap between theoretical NEP model and a practical implementation in high performing computational platforms in order to solve some of high the high complexity problems society requires today. Up until now tools developed to simulate NEPs, while correct and successful, are usu¬ally tightly coupled to the execution environment, using specific software frameworks (Hadoop) or direct hardware usage (GPUs). Within this context the main purpose of this work is the development of Nepfix, a generic and extensible tool that aims to execute algorithms based on NEP model and compatible variants in a local way, similar to a traditional application or in a distributed cloud environment. Nepfix as an application was developed during a 7 month cycle and is undergoing its second iteration once the prototype period was abandoned. Nepfix is designed as a modular self-contained application written in Java 8, that is, no additional external dependencies are required and it does not rely on an specific execution environment, any JVM is a valid container. Nepfix is made of two components or modules. The first module corresponds to the NEP execution and therefore simulation. During the development the current state of the theoretical model was used as a reference including most common filters and processors. Additionally extensibility is provided by the use of Python as a scripting language to run custom logic. Along with the simulation a definition language for NEP has been defined based on JSON as well as a mechanisms to represent words and their possible manipulations. NEP simulator is isolated from distribution and as mentioned before different applications that include it as a dependency are possible, the distribution of NEPs is an example of this. The second module corresponds to executing Nepfix in the cloud. The development carried a heavy R&D process since this front was not explored by other research groups until now. It's important to point out that the development of this module is not focused on results at this point in time, instead we focus on feasibility and discovery of this new perspective to execute natural computing systems and NEPs specifically. The main properties of cloud applications is that they are managed by the platform and are encapsulated in a container. For Nepfix a Spring application becomes the container and the HTTP or AMQP protocols are used for communication with the rest of the instances. Different execution perspectives were studied, namely asynchronous and synchronous models were developed for solving different kind of problems using NEPs. Different limitations and restrictions manifest in both models and are explored in detail in the respective chapters. In conclusion we can consider that Nepfix as a computational framework is suc-cessful: Cloud technology is ready for the challenge and the first results reassure that the properties Nepfix project pursued were met. Many investigation branches are left open for future investigations. In this EOG implementation guidelines are proposed for some of them like error recovery or dynamic NEP splitting. On the other hand other interesting problems that were not in the scope of this project were identified during development like word representation standardization or NEP model optimizations. As a confirmation that the results of this work can be useful to the scientific com-munity a preliminary version of this project was published in The International Work- Conference on Artificial Neural Networks (IWANN) in May 2015. Development has not stopped since that point and while Nepfix in it's current state can not be consid¬ered a final product the most relevant ideas, possible problems and solutions that were produced during the seven months development cycle are worthy to be gathered and presented giving a meaning to this EOG work.
Resumo:
El presente TFG está enmarcado en el contexto de la biología sintética (más concretamente en la automatización de protocolos) y representa una parte de los avances en este sector. Se trata de una plataforma de gestión de laboratorios autónomos. El resultado tecnológico servirá para ayudar al operador a coordinar las máquinas disponibles en un laboratorio a la hora de ejecutar un experimento basado en un protocolo de biología sintética. En la actualidad los experimentos biológicos tienen una tasa de éxito muy baja en laboratorios convencionales debido a la cantidad de factores externos que intervienen durante el protocolo. Además estos experimentos son caros y requieren de un operador pendiente de la ejecución en cada fase del protocolo. La automatización de laboratorios puede suponer un aumento de la tasa de éxito, además de una reducción de costes y de riesgos para los trabajadores en el entorno del laboratorio. En la presente propuesta se pretende que se dividan las distintas entidades de un laboratorio en unidades funcionales que serán los elementos a ser coordinados por la herramienta resultado del TFG. Para aportar flexibilidad a la herramienta se utilizará una arquitectura orientada a servicios (SOA). Cada unidad funcional desplegará un servicio web proporcionando su funcionalidad al resto del laboratorio. SOA es esencial para la comunicación entre máquinas ya que permite la abstracción del tipo de máquina que se trate y como esté implementada su funcionalidad. La principal dificultad del TFG consiste en lidiar con las dificultades de integración y coordinación de las distintas unidades funcionales para poder gestionar adecuadamente el ciclo de vida de un experimento. Para ello se ha realizado un análisis de herramientas disponibles de software libre. Finalmente se ha escogido la plataforma Apache Camel como marco sobre el que crear la herramienta específica planteada en el TFG. Apache Camel juega un papel importantísimo en este proyecto, ya que establece las capas de conexión a los distintos servicios y encamina los mensajes oportunos a cada servicio basándose en el contenido del fichero de entrada. Para la preparación del prototipo se han desarrollado una serie de servicios web que permitirán realizar pruebas y demostraciones de concepto de la herramienta en sí. Además se ha desarrollado una versión preliminar de la aplicación web que utilizará el operador del laboratorio para gestionar las peticiones, decidiendo que protocolo se ejecuta a continuación y siguiendo el flujo de tareas del experimento.---ABSTRACT---The current TFG is bound by synthetic biology context (more specifically in the protocol automation) and represents an element of progression in this sector. It consists of a management platform for automated laboratories. The technological result will help the operator to coordinate the available machines in a lab, this way an experiment based on a synthetic biological protocol, could be executed. Nowadays, the biological experiments have a low success rate in conventional laboratories, due to the amount of external factors that intrude during the protocol. On top of it, these experiments are usually expensive and require of an operator monitoring at every phase of the protocol. The laboratories’ automation might mean an increase in the success rate, and also a reduction of costs and risks for the lab workers. The current approach is hoped to divide the different entities in a laboratory in functional units. Those will be the elements to be coordinated by the tool that results from this TFG. In order to provide flexibility to the system, a service-oriented architecture will be used (SOA). Every functional unit will deploy a web service, publishing its functionality to the rest of the lab. SOA is essential to facilitate the communication between machines, due to the fact that it provides an abstraction on the type of the machine and how its functionality is implemented. The main difficulty of this TFG consists on grappling with the integration and coordination problems, being able to manage successfully the lifecycle of an experiment. For that, a benchmark has been made on the available open source tools. Finally Apache Camel has been chosen as a framework over which the tool defined in the TFG will be created. Apache Camel plays a fundamental role in this project, given that it establishes the connection layers to the different services and routes the suitable messages to each service, based on the received file’s content. For the prototype development a number of services that will allow it to perform demonstrations and concept tests have been deployed. Furthermore a preliminary version of the webapp has been developed. It will allow the laboratory operator managing petitions, to decide what protocol goes next as it executes the flow of the experiment’s tasks.
Resumo:
Esta tesis doctoral se especializa en el estudio desde el interior de casas de maestros españoles proyectadas y construidas para ellos y sus familias. Casas proyectadas y construidas para ellos mismos por arquitectos “maestros” de la arquitectura española del siglo XX, que acabaron sus estudios de arquitectura después de la guerra civil y que se habían formado en la Escuela de Madrid. Las cinco casas escogidas están situadas en la provincia de Madrid, en la hoy definida como Comunidad de Madrid. Las cinco casas son para el arquitecto y su familia. También las cinco casas son de tipología unifamiliar aislada. Todas ellas tuvieron el carácter de vivienda estable, no de fin de semana, no de refugios experimentales. El método de análisis se estructura en dos grandes bloques, lo que hemos denominado “Enfocando” y “Desde dentro”. Enfocando: Se analizan las obras precedentes de similares características y se realiza un estudio de aproximación al lugar cuyo punto final es la entrada de la casa Desde dentro: Se Inicia el estudio de la vivienda en un recorrido que atiende a los parámetros de relaciones con el exterior, materiales de acabado, mobiliario, condiciones de flexibilidad y crecimiento y relaciones vivienda-estudio. Siempre con el espacio interior como protagonista del estudio Abstract The dissertation focuses on the interior space of "master`s houses" which were conceived and built for the architect and his family. The five houses selected were built in the XX Century .The five houses are located in Madrid. The five houses are detached houses, the five houses are "residences", not experimental houses, or weekend houses. The method has two parts. Focusing and Inside Focusing: This part studies previous works, with similar characteristics. Moreover this part looks at the path from the street to the main door, through the private exterior. Inside: This part studies the relationship between interior and exterior, finishing materials, furniture, flexibility and relation with the professional spaces. All these elements are studied, always with the interior space as the main character.
Resumo:
La capacidad de ejecutar una buena técnica es un factor importante en deportes de alto componente estético como es la Gimnasia Rítmica. Los saltos específicos de este deporte son elementos que lo caracterizan, debido a la muestra de flexibilidad y belleza estética que aportan a la gimnasta. Pero el qué nos hace tener una técnica de ejecución óptima para lograr la máxima calidad de salto es algo que se puede descubrir mediante el estudio y el análisis de la técnica que nos proporcionan los diferentes métodos de la Biomecánica Deportiva. De este modo, el objetivo del siguiente trabajo es la aplicación en el ámbito del Alto Rendimiento Deportivo de un método de análisis, basado en la Biomecánica Deportiva, con el propósito de valorar el rendimiento en saltos específicos de Gimnasia Rítmica. Para su desarrollo, el estudio se concretó en observar y analizar el Salto Zancada (Split Jump o Grand jetté).
Resumo:
Este proyecto muestra una solución de red para una empresa que presta servicios de Contact Center desde distintas sedes distribuidas geográficamente, utilizando la tecnología de telefonía sobre IP. El objetivo de este proyecto es el de convertirse en una guía de diseño para el despliegue de soluciones de red utilizando los actuales equipos de comunicaciones desarrollados por el fabricante Cisco Systems, Inc., los equipos de seguridad desarrollados por el fabricante Fortinet y los sistemas de telefonía desarrollados por Avaya Inc. y Oracle Corporation, debido a su gran penetración en el mercado y a las aportaciones que cada uno ha realizado en el sector de Contact Center. Para poder proveer interconexión entre las sedes de un Contact Center se procede a la contratación de un acceso a la red MPLS perteneciente a un operador de telecomunicaciones, quien provee conectividad entre las sedes utilizando la tecnología VPN MPLS con dos accesos diversificados entre sí desde cada una de las sedes del Contact Center. El resultado de esta contratación es el aprovechamiento de las ventajas que un operador de telecomunicaciones puede ofrecer a sus clientes, en relación a calidad de servicio, disponibilidad y expansión geográfica. De la misma manera, se definen una serie de criterios o niveles de servicio que aseguran a un Contact Center una comunicación de calidad entre sus sedes, entendiéndose por comunicación de calidad aquella que sea capaz de transmitirse con unos valores mínimos de pérdida de paquetes así como retraso en la transmisión, y una velocidad acorde a la demanda de los servicios de voz y datos. Como parte de la solución, se diseña una conexión redundante a Internet que proporciona acceso a todas las sedes del Contact Center. La solución de conectividad local en cada una de las sedes de un Contact Center se ha diseñado de manera general acorde al volumen de puestos de usuarios y escalabilidad que pueda tener cada una de las sedes. De esta manera se muestran varias opciones asociadas al equipamiento actual que ofrece el fabricante Cisco Systems, Inc.. Como parte de la solución se han definido los criterios de calidad para la elección de los Centros de Datos (Data Center). Un Contact Center tiene conexiones hacia o desde las empresas cliente a las que da servicio y provee de acceso a la red a sus tele-trabajadores. Este requerimiento junto con el acceso y servicios publicados en Internet necesita una infraestructura de seguridad. Este hecho da lugar al diseño de una solución que unifica todas las conexiones bajo una única infraestructura, dividiendo de manera lógica o virtual cada uno de los servicios. De la misma manera, se ha definido la utilización de protocolos como 802.1X para evitar accesos no autorizados a la red del Contact Center. La solución de voz elegida es heterogénea y capaz de soportar los protocolos de señalización más conocidos (SIP y H.323). De esta manera se busca tener la máxima flexibilidad para establecer enlaces de voz sobre IP (Trunk IP) con proveedores y clientes. Esto se logra gracias a la utilización de SBCs y a una infraestructura interna de voz basada en el fabricante Avaya Inc. Los sistemas de VoIP en un Contact Center son los elementos clave para poder realizar la prestación del servicio; por esta razón se elige una solución redundada bajo un entorno virtual. Esta solución permite desplegar el sistema de VoIP desde cualquiera de los Data Center del Contact Center. La solución llevada a cabo en este proyecto está principalmente basada en mi experiencia laboral adquirida durante los últimos siete años en el departamento de comunicaciones de una empresa de Contact Center. He tenido en cuenta los principales requerimientos que exigen hoy en día la mayor parte de empresas que desean contratar un servicio de Contact Center. Este proyecto está dividido en cuatro capítulos. El primer capítulo es una introducción donde se explican los principales escenarios de negocio y áreas técnicas necesarias para la prestación de servicios de Contact Center. El segundo capítulo describe de manera resumida, las principales tecnologías y protocolos que serán utilizados para llevar a cabo el diseño de la solución técnica de creación de una red de comunicaciones para una empresa de Contact Center. En el tercer capítulo se expone la solución técnica necesaria para permitir que una empresa de Contact Center preste sus servicios desde distintas ubicaciones distribuidas geográficamente, utilizando dos Data Centers donde se centralizan las aplicaciones de voz y datos. Finalmente, en el cuarto capítulo se presentan las conclusiones obtenidas tras la elaboración de la presente memoria, así como una propuesta de trabajos futuros, que permitirían junto con el proyecto actual, realizar una solución técnica completa incluyendo otras áreas tecnológicas necesarias en una empresa de Contact Center. Todas las ilustraciones y tablas de este proyecto son de elaboración propia a partir de mi experiencia profesional y de la información obtenida en diversos formatos de la bibliografía consultada, excepto en los casos en los que la fuente es mencionada. ABSTRACT This project shows a network solution for a company that provides Contact Center services from different locations geographically distributed, using the Telephone over Internet Protocol (ToIP) technology. The goal of this project is to become a design guide for performing network solutions using current communications equipment developed by the manufacturer Cisco Systems, Inc., firewalls developed by the manufacturer Fortinet and telephone systems developed by Avaya Inc. and Oracle Corporation, due to their great market reputation and their contributions that each one has made in the field of Contact Center. In order to provide interconnection between its different sites, the Contact Center needs to hire the services of a telecommunications’ operator, who will use the VPN MPLS technology, with two diversified access from each Contact Center’s site. The result of this hiring is the advantage of the benefits that a telecommunications operator can offer to its customers, regarding quality of service, availability and geographical expansion. Likewise, Service Level Agreement (SLA) has to be defined to ensure the Contact Center quality communication between their sites. A quality communication is understood as a communication that is capable of being transmitted with minimum values of packet loss and transmission delays, and a speed according to the demand for its voice and data services. As part of the solution, a redundant Internet connection has to be designed to provide access to every Contact Center’s site. The local connectivity solution in each of the Contact Center’s sites has to be designed according to its volume of users and scalability that each one may have. Thereby, the manufacturer Cisco Systems, Inc. offers several options associated with the current equipment. As part of the solution, quality criteria are being defined for the choice of the Data Centers. A Contact Center has connections to/from the client companies that provide network access to teleworkers. This requires along the access and services published on the Internet, needs a security infrastructure. Therefore is been created a solution design that unifies all connections under a single infrastructure, dividing each services in a virtual way. Likewise, is been defined the use of protocols, such as 802.1X, to prevent unauthorized access to the Contact Center’s network. The voice solution chosen is heterogeneous and capable of supporting best-known signaling protocols (SIP and H.323) in order to have maximum flexibility to establish links of Voice over IP (IP Trunk) with suppliers and clients. This can be achieved through the use of SBC and an internal voice infrastructure based on Avaya Inc. The VoIP systems in a Contact Center are the key elements to be able to provide the service; for this reason a redundant solution under virtual environment is been chosen. This solution allows any of the Data Centers to deploy the VoIP system. The solution carried out in this project is mainly based on my own experience acquired during the past seven years in the communications department of a Contact Center company. I have taken into account the main requirements that most companies request nowadays when they hire a Contact Center service. This project is divided into four chapters. The first chapter is an introduction that explains the main business scenarios and technical areas required to provide Contact Center services. The second chapter describes briefly the key technologies and protocols that will be used to carry out the design of the technical solution for the creation of a communications network in a Contact Center company. The third chapter shows a technical solution required that allows a Contact Center company to provide services from across geographically distributed locations, using two Data Centers where data and voice applications are centralized. Lastly, the fourth chapter includes the conclusions gained after making this project, as well as a future projects proposal, which would allow along the current project, to perform a whole technical solution including other necessary technologic areas in a Contact Center company All illustrations and tables of this project have been made by myself from my professional experience and the information obtained in various formats of the bibliography, except in the cases where the source is indicated.
Resumo:
Hasta hace poco tiempo, la escalada estaba muy vinculada al montañismo y no se concebía la posibilidad de desarrollar métodos y formas de entrenamiento más allá de la propia actividad. Es la aparición de la escalada deportiva lo que permite una visión más relacionada con el deporte, visión que se afianza con la aparición de las competiciones a finales de los años ochenta. A partir de entonces se puede hablar de entrenamiento para escalada. Este entrenamiento se basa en el desarrollo de las capacidades físicas a nivel específico para la mejora del rendimiento. Un escalador debe entrenar en gran porcentaje la fuerza, la resistencia y la flexibilidad sobre el rocódromo para que la ganancia en estas capacidades sea de la forma más específica posible y transferible al gesto competitivo. Otras formas de entrenar, como el aeróbico general o la musculación se ven como trabajo complementario. Según el tipo de escalada deberán desarrollarse distintos tipos de fuerza y de resistencia, aunque todos los tipos deben trabajarse en el proceso de entrenamiento. En la competición de dificultad, las vías energéticas predominantes son las anaeróbica láctica (tolerancia al lactato) y la aeróbica (potencia). El proceso de entrenamiento debe tender al desarrollo de estas, como al desarrollo de la fuerza específica.
Resumo:
La gasificación de lodos de depuración consiste en la conversión termoquímica del lodo por oxidación parcial a alta temperatura mediante un agente gasificante, que generalmente es aire, oxígeno o vapor de agua. Se trata de una tecnología de gran interés, ya que consigue reducir la masa de estos residuos y permite el aprovechamiento de los gases formados, tanto en la generación de energía térmica y/o eléctrica como en la síntesis de productos químicos orgánicos y combustibles líquidos. Debido a la complejidad de este proceso, es útil el uso de modelos que faciliten su estudio de forma fiable y a bajo coste. El presente Proyecto Fin de Carrera se centra en el diseño de un modelo adimensional de equilibrio en estado estacionario basado en la minimización de la energía libre de Gibbs. Para ello, se ha empleado el software de simulación de procesos Aspen Plus, que posee una amplia base de datos de propiedades físicas y permite gran flexibilidad en el manejo de sólidos. Para la elaboración del modelo se han asumido las hipótesis de mezcla perfecta dentro del reactor y operación isoterma. El gasificador se ha considerado de lecho fluidizado burbujeante, al permitir un buen control de la temperatura y una alta transferencia de materia y energía entre el sólido y el agente gasificante. El modelo desarrollado consta de cuatro etapas. La primera reproduce el proceso de pirólisis o descomposición térmica de los componentes del lodo en ausencia de agente gasificante. En la segunda etapa se simula que todo el nitrógeno y el azufre contenidos en el lodo se transforman en amoniaco y ácido sulfhídrico, respectivamente. En la tercera etapa se produce la gasificación en dos reactores. El primer gasificador alcanza el equilibrio químico mediante la minimización de la energía libre de Gibbs del sistema. En el segundo reactor se establece un equilibrio restringido por medio de la especificación de una aproximación de temperatura para cada reacción. Este método permite validar los resultados del modelo con datos reales. En la última etapa se separa el residuo carbonoso o char (compuesto por carbono y cenizas) del gas de salida, formado por N2, H2, CO, CO2, CH4 (supuesto como único hidrocarburo presente), NH3, H2S y H2O. Este gas debe ser depurado mediante equipos de limpieza aguas abajo. Los resultados de la simulación del modelo han sido validados frente a los valores obtenidos en ensayos previos llevados a cabo en la planta de gasificación a escala de laboratorio ubicada en el Departamento de Ingeniería Química Industrial y del Medio Ambiente de la Escuela Técnica Superior de Ingenieros Industriales de la Universidad Politécnica de Madrid. Estos resultados han mostrado muy buena concordancia con los obtenidos experimentalmente, con un error inferior al 7% en todos los parámetros analizados en el caso de gasificación con aire y menor al 13% cuando se utiliza una mezcla aire/vapor de agua como agente gasificante. Se ha realizado un análisis de sensibilidad con el fin de estudiar la influencia de las condiciones de operación (temperatura, ratio equivalente y ratio vapor/biomasa) sobre los resultados del proceso modelado (composición, producción y poder calorífico inferior de los gases, conversión de carbono y eficiencia de la gasificación). Para ello, se han llevado a cabo diferentes simulaciones modificando la temperatura de gasificación entre 750ºC y 850ºC, el ratio equivalente (ER) entre 0,2 y 0,4 y el ratio vapor/biomasa (S/B) entre 0 y 1. Como ya ocurriera con la validación del modelo, los resultados de las simulaciones bajo las distintas condiciones de gasificación se ajustan de forma satisfactoria a los valores experimentales. Se ha encontrado que un aumento en la temperatura mejora la cantidad y la calidad del gas producido y, por tanto, la eficiencia del proceso. Un incremento del ratio equivalente reduce la concentración de CO y H2 en el gas y, en consecuencia, también su poder calorífico. Sin embargo, valores bajos del ratio equivalente disminuyen la producción de gases y la conversión de carbono. La alimentación de vapor de agua en el sistema mejora todos los parámetros analizados. Por tanto, dentro del rango estudiado, las condiciones de operación que optimizan el proceso de gasificación de lodos consisten en el empleo de mezclas aire/vapor de agua como agente gasificante, una temperatura de 850ºC y un ER de 0,3.
Resumo:
Los procesos de diseño y construcción en Arquitectura han mostrado un desarrollo de optimización históricamente muy deficiente cuando se compara con las restantes actividades típicamente industriales. La aspiración constante a una industrialización efectiva, tanto en aras de alcanzar mayores cotas de calidad así como de ahorro de recursos, recibe hoy una oportunidad inmejorable desde el ámbito informático: el Building Information Modelling o BIM. Lo que en un inicio puede parecer meramente un determinado tipo de programa informático, en realidad supone un concepto de “proceso” que subvierte muchas rutinas hoy habituales en el desarrollo de proyectos y construcciones arquitectónicas. La inclusión y desarrollo de datos ligados al proyecto, desde su inicio hasta el fin de su ciclo de vida, conlleva la oportunidad de crear una realidad virtual dinámica y actualizable, que por añadidura posibilita su ensayo y optimización en todos sus aspectos: antes y durante su ejecución, así como vida útil. A ello se suma la oportunidad de transmitir eficientemente los datos completos de proyecto, sin apenas pérdidas o reelaboración, a la cadena de fabricación, lo que facilita el paso a una industrialización verdaderamente significativa en edificación. Ante una llamada mundial a la optimización de recursos y el interés indudable de aumentar beneficios económicos por medio de la reducción del factor de incertidumbre de los procesos, BIM supone un opción de mejora indudable, y así ha sido reconocido a través de la inminente implantación obligatoria por parte de los gobiernos (p. ej. Gran Bretaña en 2016 y España en 2018). La modificación de procesos y roles profesionales que conlleva la incorporación de BIM resulta muy significativa y marcará el ejercicio profesional de los futuros graduados en las disciplinas de Arquitectura, Ingeniería y Construcción (AEC por sus siglas en inglés). La universidad debe responder ágilmente a estas nuevas necesidades incorporando esta metodología en la enseñanza reglada y aportando una visión sinérgica que permita extraer los beneficios formativos subyacentes en el propio marco BIM. En este sentido BIM, al aglutinar el conjunto de datos sobre un único modelo virtual, ofrece un potencial singularmente interesante. La realidad tridimensional del modelo, desarrollada y actualizada continuamente, ofrece al estudiante una gestión radicalmente distinta de la representación gráfica, en la que las vistas parciales de secciones y plantas, tan complejas de asimilar en los inicios de la formación universitaria, resultan en una mera petición a posteriori, para ser extraída según necesidad del modelo virtual. El diseño se realiza siempre sobre el propio modelo único, independientemente de la vista de trabajo elegida en cada momento, permaneciendo los datos y sus relaciones constructivas siempre actualizados y plenamente coherentes. Esta descripción condensada de características de BIM preconfiguran gran parte de las beneficios formativos que ofrecen los procesos BIM, en especial, en referencia al desarrollo del diseño integrado y la gestión de la información (incluyendo TIC). Destacan a su vez las facilidades en comprensión visual de elementos arquitectónicos, sistemas técnicos, sus relaciones intrínsecas así como procesos constructivos. A ello se une el desarrollo experimental que la plataforma BIM ofrece a través de sus software colaborativos: la simulación del comportamiento estructural, energético, económico, entre otros muchos, del modelo virtual en base a los datos inherentes del proyecto. En la presente tesis se describe un estudio de conjunto para explicitar tanto las cualidades como posibles reservas en el uso de procesos BIM, en el marco de una disciplina concreta: la docencia de la Arquitectura. Para ello se ha realizado una revisión bibliográfica general sobre BIM y específica sobre docencia en Arquitectura, así como analizado las experiencias de distintos grupos de interés en el marco concreto de la enseñanza de la en Arquitectura en la Universidad Europea de Madrid. El análisis de beneficios o reservas respecto al uso de BIM se ha enfocado a través de la encuesta a estudiantes y la entrevista a profesionales AEC relacionados o no con BIM. Las conclusiones del estudio permiten sintetizar una implantación de metodología BIM que para mayor claridad y facilidad de comunicación y manejo, se ha volcado en un Marco de Implantación eminentemente gráfico. En él se orienta sobre las acciones docentes para el desarrollo de competencias concretas, valiéndose de la flexibilidad conceptual de los Planes de Estudio en el contexto del Espacio Europeo de Educación Superior (Declaración de Bolonia) para incorporar con naturalidad la nueva herramienta docente al servicio de los objetivos formativo legalmente establecidos. El enfoque global del Marco de Implementación propuesto facilita la planificación de acciones formativas con perspectiva de conjunto: combinar los formatos puntuales o vehiculares BIM, establecer sinergias transversales y armonizar recursos, de modo que la metodología pueda beneficiar tanto la asimilación de conocimientos y habilidades establecidas para el título, como el propio flujo de aprendizaje o learn flow BIM. Del mismo modo reserva, incluso visualmente, aquellas áreas de conocimiento en las que, al menos en la planificación actual, la inclusión de procesos BIM no se considera ventajosa respecto a otras metodologías, o incluso inadecuadas para los objetivos docentes establecidos. Y es esta última categorización la que caracteriza el conjunto de conclusiones de esta investigación, centrada en: 1. la incuestionable necesidad de formar en conceptos y procesos BIM desde etapas muy iniciales de la formación universitaria en Arquitectura, 2. los beneficios formativos adicionales que aporta BIM en el desarrollo de competencias muy diversas contempladas en el currículum académico y 3. la especificidad del rol profesional del arquitecto que exigirá una implantación cuidadosa y ponderada de BIM que respete las metodologías de desarrollo creativo tradicionalmente efectivas, y aporte valor en una reorientación simbiótica con el diseño paramétrico y fabricación digital que permita un diseño finalmente generativo. ABSTRACT The traditional architectural design and construction procedures have proven to be deficient where process optimization is concerned, particularly when compared to other common industrial activities. The ever‐growing strife to achieve effective industrialization, both in favor of reaching greater quality levels as well as sustainable management of resources, has a better chance today than ever through a mean out of the realm of information technology, the Building Information Modelling o BIM. What may initially seem to be merely another computer program, in reality turns out to be a “process” concept that subverts many of today’s routines in architectural design and construction. Including and working with project data from the very beginning to the end of its full life cycle allows for creating a dynamic and updatable virtual reality, enabling data testing and optimizing throughout: before and during execution, all the way to the end of its lifespan. In addition, there is an opportunity to transmit complete project data efficiently, with hardly any loss or redeveloping of the manufacture chain required, which facilitates attaining a truly significant industrialization within the construction industry. In the presence of a world‐wide call for optimizing resources, along with an undeniable interest in increasing economic benefits through reducing uncertainty factors in its processes, BIM undoubtedly offers a chance for improvement as acknowledged by its imminent and mandatory implementation on the part of governments (for example United Kingdom in 2016 and Spain in 2018). The changes involved in professional roles and procedures upon incorporating BIM are highly significant and will set the course for future graduates of Architecture, Engineering and Construction disciplines (AEC) within their professions. Higher Education must respond to such needs with swiftness by incorporating this methodology into their educational standards and providing a synergetic vision that focuses on the underlying educational benefits inherent in the BIM framework. In this respect, BIM, in gathering data set under one single virtual model, offers a uniquely interesting potential. The three‐dimensional reality of the model, under continuous development and updating, provides students with a radically different graphic environment, in which partial views of elevation, section or plan that tend characteristically to be difficult to assimilate at the beginning of their studies, become mere post hoc requests to be ordered when needed directly out the virtual model. The design is always carried out on the sole model itself, independently of the working view chosen at any particular moment, with all data and data relations within construction permanently updated and fully coherent. This condensed description of the features of BIM begin to shape an important part of the educational benefits posed by BIM processes, particularly in reference to integrated design development and information management (including ITC). At the same time, it highlights the ease with which visual understanding is achieved regarding architectural elements, technology systems, their intrinsic relationships, and construction processes. In addition to this, there is the experimental development the BIM platform grants through its collaborative software: simulation of structural, energetic, and economic behavior, among others, of the virtual model according to the data inherent to the project. This doctoral dissertation presents a broad study including a wide array of research methods and issues in order to specify both the virtues and possible reservations in the use of BIM processes within the framework of a specific discipline: teaching Architecture. To do so, a literature review on BIM has been carried out, specifically concerning teaching in the discipline of Architecture, as well as an analysis of the experience of different groups of interest delimited to Universidad Europea de Madrid. The analysis of the benefits and/or limitations of using BIM has been approached through student surveys and interviews with professionals from the AEC sector, associated or not, with BIM. Various diverse educational experiences are described and academic management for experimental implementation has been analyzed. The conclusions of this study offer a synthesis for a Framework of Implementation of BIM methodology, which in order to reach greater clarity, communication ease and user‐friendliness, have been posed in an eminently graphic manner. The proposed framework proffers guidance on teaching methods conducive to the development of specific skills, taking advantage of the conceptual flexibility of the European Higher Education Area guidelines based on competencies, which naturally facilitate for the incorporation of this new teaching tool to achieve the educational objectives established by law. The global approach of the Implementation Framework put forth in this study facilitates the planning of educational actions within a common perspective: combining exceptional or vehicular BIM formats, establishing cross‐disciplinary synergies, and sharing resources, so as to purport a methodology that contributes to the assimilation of knowledge and pre‐defined competencies within the degree program, and to the flow of learning itself. At the same time, it reserves, even visually, those areas of knowledge in which the use of BIM processes is not considered necessarily an advantage over other methodologies, or even inadequate for the learning outcomes established, at least where current planning is concerned. It is this last category which characterizes the research conclusions as a whole, centering on: 1. The unquestionable need for teaching BIM concepts and processes in Architecture very early on, in the initial stages of higher education; 2. The additional educational benefits that BIM offers in a varied array of competency development within the academic curriculum; and 3. The specific nature of the professional role of the Architect, which demands a careful and balanced implementation of BIM that respects the traditional teaching methodologies that have proven effective and creative, and adds value by a symbiotic reorientation merged with parametric design and digital manufacturing so to enable for a finally generative design.
Resumo:
En este trabajo lo que se pretende es hacer un análisis de los aspectos más importantes para la práctica del fútbol y, además, establecer una opinión personal de cómo se deberían entrenar estos tópicos tan importantes en nuestro deporte escogido, el fútbol. Para ello hemos dividido el trabajo en cuatro grandes bloques: cualidades físicas básicas, que constan de la fuerza, resistencia, flexibilidad y velocidad, de los componentes básicos del juego, a los que se les conocen como técnica, táctica y estrategia, un breve análisis de distintas formas de planificación para una temporada de un equipo de fútbol de Primera División y, por último, una opinión personal de como entrenar todo lo anterior, además de proponer un modelo de planificación anual y mensual para un equipo de la máxima categoría de la Liga Española de Fútbol.
Resumo:
Este proyecto se centra en la construcción de una herramienta para la gestión de contenidos de muy diversos tipos, siendo fácilmente adaptable a cada uno de los contextos. Permite guardar los contenidos necesarios gracias a un formulario previamente personalizado, de este modo hay un editor que se dedica solamente a la introducción de los contenidos y un administrador que personaliza los campos del formulario según los contenidos. En esencia la herramienta sirve de apoyo a dos tipos de usuario, desarrolladores (administrador) y redactores (editor), a los primeros les simplifica las tareas de conceptualización de las estructuras de datos de las que se desea tener persistencia y sirve como base para construir los editores que usan los redactores, por otro lado proporciona un API sencillo, potente y ágil para recuperar los datos introducidos por los redactores. La herramienta a su vez está pensada para ser interoperable, es decir, no obliga a usar un tipo de almacenamiento persistente concreto. Puede utilizar desde los sencillos archivos de texto, con lo que puede desplegarse en servidores treméndamente básicos. Por otro lado, si se necesita potencia en las búsquedas, nada debe impedir el uso de bases de datos relacionales como MySql. O incluso si se quiere dar un paso más y se quiere aprovechar la flexibilidad, potencia y maleabilidad de las bases de datos NoSql (como MongoDB) no es costoso, lo que hay que hacer es implementar una nueva clase de tipo PersistentManager y desarrollar los tipos de búsqueda y recuperación de contenidos que se necesiten. En la versión inicial de la herramienta se han implementado estos tres tipos de almacenes, nada impide usar sólo alguno de ellos y desechar el resto o implementar uno nuevo. Desde el punto de vista de los redactores, les ofrece un entorno sencillo y potente para poder realizar las tareas típicas denominadas CRUD (Create Read Update Delete, Crear Leer Actualizar y Borrar), un redactor podrá crear, buscar, re-aprovechar e incluso planificar publicación de contenidos en el tiempo. ABSTRACT This project focuses on building a tool for content management of many types, being easily adaptable to each context. Saves the necessary content through a previously designed form, thus there will be an editor working only on the introduction of the contents and there will be an administrator to customize the form fields as contents. Essentially the tool provides support for two types of users, developers (administrator) and editors, the first will have simplified the tasks of conceptualization of data structures which are desired to be persistent and serve as the basis for building the structures that will be used by editors, on the other hand provides a simple, powerful and agile API to retrieve the data entered by the editors. The tool must also be designed to be interoperable, which means not to be bound by the use of a particular type of persistent storage. You can use simple text files, which can be deployed in extremely basic servers. On the other hand, if power is needed in searches, nothing should prevent the use of relational databases such as MySQL. Or even if you want to go a step further and want to take advantage of the flexibility, power and malleability of NoSQL databases (such as MongoDB) it will not be difficult, you will only need to implement a new class of PersistentManager type and develop the type of search and query of content as needed. In the initial version of the tool these three types of storage have been implemented, it will be entitled to use only one of them and discard the rest or implement a new one. From the point of view of the editors, it offers a simple and powerful environment to perform the typical tasks called CRUD (Create Read Update Delete), an editor can create, search, re-use and even plan publishing content in time.
Resumo:
En el futuro, la gestión del tráfico aéreo (ATM, del inglés air traffic management) requerirá un cambio de paradigma, de la gestión principalmente táctica de hoy, a las denominadas operaciones basadas en trayectoria. Un incremento en el nivel de automatización liberará al personal de ATM —controladores, tripulación, etc.— de muchas de las tareas que realizan hoy. Las personas seguirán siendo el elemento central en la gestión del tráfico aéreo del futuro, pero lo serán mediante la gestión y toma de decisiones. Se espera que estas dos mejoras traigan un incremento en la eficiencia de la gestión del tráfico aéreo que permita hacer frente al incremento previsto en la demanda de transporte aéreo. Para aplicar el concepto de operaciones basadas en trayectoria, el usuario del espacio aéreo (la aerolínea, piloto, u operador) y el proveedor del servicio de navegación aérea deben negociar las trayectorias mediante un proceso de toma de decisiones colaborativo. En esta negociación, es necesaria una forma adecuada de compartir dichas trayectorias. Compartir la trayectoria completa requeriría un gran ancho de banda, y la trayectoria compartida podría invalidarse si cambiase la predicción meteorológica. En su lugar, podría compartirse una descripción de la trayectoria independiente de las condiciones meteorológicas, de manera que la trayectoria real se pudiese calcular a partir de dicha descripción. Esta descripción de la trayectoria debería ser fácil de procesar usando un programa de ordenador —ya que parte del proceso de toma de decisiones estará automatizado—, pero también fácil de entender para un operador humano —que será el que supervise el proceso y tome las decisiones oportunas—. Esta tesis presenta una serie de lenguajes formales que pueden usarse para este propósito. Estos lenguajes proporcionan los medios para describir trayectorias de aviones durante todas las fases de vuelo, desde la maniobra de push-back (remolcado hasta la calle de rodaje), hasta la llegada a la terminal del aeropuerto de destino. También permiten describir trayectorias tanto de aeronaves tripuladas como no tripuladas, incluyendo aviones de ala fija y cuadricópteros. Algunos de estos lenguajes están estrechamente relacionados entre sí, y organizados en una jerarquía. Uno de los lenguajes fundamentales de esta jerarquía, llamado aircraft intent description language (AIDL), ya había sido desarrollado con anterioridad a esta tesis. Este lenguaje fue derivado de las ecuaciones del movimiento de los aviones de ala fija, y puede utilizarse para describir sin ambigüedad trayectorias de este tipo de aeronaves. Una variante de este lenguaje, denominada quadrotor AIDL (QR-AIDL), ha sido desarrollada en esta tesis para permitir describir trayectorias de cuadricópteros con el mismo nivel de detalle. Seguidamente, otro lenguaje, denominado intent composite description language (ICDL), se apoya en los dos lenguajes anteriores, ofreciendo más flexibilidad para describir algunas partes de la trayectoria y dejar otras sin especificar. El ICDL se usa para proporcionar descripciones genéricas de maniobras comunes, que después se particularizan y combinan para formar descripciones complejas de un vuelo. Otro lenguaje puede construirse a partir del ICDL, denominado flight intent description language (FIDL). El FIDL especifica requisitos de alto nivel sobre las trayectorias —incluyendo restricciones y objetivos—, pero puede utilizar características del ICDL para proporcionar niveles de detalle arbitrarios en las distintas partes de un vuelo. Tanto el ICDL como el FIDL han sido desarrollados en colaboración con Boeing Research & Technology Europe (BR&TE). También se ha desarrollado un lenguaje para definir misiones en las que interactúan varias aeronaves, el mission intent description language (MIDL). Este lenguaje se basa en el FIDL y mantiene todo su poder expresivo, a la vez que proporciona nuevas semánticas para describir tareas, restricciones y objetivos relacionados con la misión. En ATM, los movimientos de un avión en la superficie de aeropuerto también tienen que ser monitorizados y gestionados. Otro lenguaje formal ha sido diseñado con este propósito, llamado surface movement description language (SMDL). Este lenguaje no pertenece a la jerarquía de lenguajes descrita en el párrafo anterior, y se basa en las clearances (autorizaciones del controlador) utilizadas durante las operaciones en superficie de aeropuerto. También proporciona medios para expresar incertidumbre y posibilidad de cambios en las distintas partes de la trayectoria. Finalmente, esta tesis explora las aplicaciones de estos lenguajes a la predicción de trayectorias y a la planificación de misiones. El concepto de trajectory language processing engine (TLPE) se usa en ambas aplicaciones. Un TLPE es una función de ATM cuya principal entrada y salida se expresan en cualquiera de los lenguajes incluidos en la jerarquía descrita en esta tesis. El proceso de predicción de trayectorias puede definirse como una combinación de TLPEs, cada uno de los cuales realiza una pequeña sub-tarea. Se le ha dado especial importancia a uno de estos TLPEs, que se encarga de generar el perfil horizontal, vertical y de configuración de la trayectoria. En particular, esta tesis presenta un método novedoso para la generación del perfil vertical. El proceso de planificar una misión también se puede ver como un TLPE donde la entrada se expresa en MIDL y la salida consiste en cierto número de trayectorias —una por cada aeronave disponible— descritas utilizando FIDL. Se ha formulado este problema utilizando programación entera mixta. Además, dado que encontrar caminos óptimos entre distintos puntos es un problema fundamental en la planificación de misiones, también se propone un algoritmo de búsqueda de caminos. Este algoritmo permite calcular rápidamente caminos cuasi-óptimos que esquivan todos los obstáculos en un entorno urbano. Los diferentes lenguajes formales definidos en esta tesis pueden utilizarse como una especificación estándar para la difusión de información entre distintos actores de la gestión del tráfico aéreo. En conjunto, estos lenguajes permiten describir trayectorias con el nivel de detalle necesario en cada aplicación, y se pueden utilizar para aumentar el nivel de automatización explotando esta información utilizando sistemas de soporte a la toma de decisiones. La aplicación de estos lenguajes a algunas funciones básicas de estos sistemas, como la predicción de trayectorias, han sido analizadas. ABSTRACT Future air traffic management (ATM) will require a paradigm shift from today’s mainly tactical ATM to trajectory-based operations (TBOs). An increase in the level of automation will also relieve humans —air traffic control officers (ATCOs), flight crew, etc.— from many of the tasks they perform today. Humans will still be central in this future ATM, as decision-makers and managers. These two improvements (TBOs and increased automation) are expected to provide the increase in ATM performance that will allow coping with the expected increase in air transport demand. Under TBOs, trajectories are negotiated between the airspace user (an airline, pilot, or operator) and the air navigation service provider (ANSP) using a collaborative decision making (CDM) process. A suitable method for sharing aircraft trajectories is necessary for this negotiation. Sharing a whole trajectory would require a high amount of bandwidth, and the shared trajectory might become invalid if the weather forecast changed. Instead, a description of the trajectory, decoupled from the weather conditions, could be shared, so that the actual trajectory could be computed from this trajectory description. This trajectory description should be easy to process using a computing program —as some of the CDM processes will be automated— but also easy to understand for a human operator —who will be supervising the process and making decisions. This thesis presents a series of formal languages that can be used for this purpose. These languages provide the means to describe aircraft trajectories during all phases of flight, from push back to arrival at the gate. They can also describe trajectories of both manned and unmanned aircraft, including fixedwing and some rotary-wing aircraft (quadrotors). Some of these languages are tightly interrelated and organized in a language hierarchy. One of the key languages in this hierarchy, the aircraft intent description language (AIDL), had already been developed prior to this thesis. This language was derived from the equations of motion of fixed-wing aircraft, and can provide an unambiguous description of fixed-wing aircraft trajectories. A variant of this language, the quadrotor AIDL (QR-AIDL), is developed in this thesis to allow describing a quadrotor aircraft trajectory with the same level of detail. Then, the intent composite description language (ICDL) is built on top of these two languages, providing more flexibility to describe some parts of the trajectory while leaving others unspecified. The ICDL is used to provide generic descriptions of common aircraft manoeuvres, which can be particularized and combined to form complex descriptions of flight. Another language is built on top of the ICDL, the flight intent description language (FIDL). The FIDL specifies high-level requirements on trajectories —including constraints and objectives—, but can use features of the ICDL to provide arbitrary levels of detail in different parts of the flight. The ICDL and FIDL have been developed in collaboration with Boeing Research & Technology Europe (BR&TE). Also, the mission intent description language (MIDL) has been developed to allow describing missions involving multiple aircraft. This language is based on the FIDL and keeps all its expressive power, while it also provides new semantics for describing mission tasks, mission objectives, and constraints involving several aircraft. In ATM, the movement of aircraft while on the airport surface also has to be monitored and managed. Another formal language has been designed for this purpose, denoted surface movement description language (SMDL). This language does not belong to the language hierarchy described above, and it is based on the clearances used in airport surface operations. Means to express uncertainty and mutability of different parts of the trajectory are also provided. Finally, the applications of these languages to trajectory prediction and mission planning are explored in this thesis. The concept of trajectory language processing engine (TLPE) is used in these two applications. A TLPE is an ATM function whose main input and output are expressed in any of the languages in the hierarchy described in this thesis. A modular trajectory predictor is defined as a combination of multiple TLPEs, each of them performing a small subtask. Special attention is given to the TLPE that builds the horizontal, vertical, and configuration profiles of the trajectory. In particular, a novel method for the generation of the vertical profile is presented. The process of planning a mission can also be seen as a TLPE, where the main input is expressed in the MIDL and the output consists of a number of trajectory descriptions —one for each aircraft available in the mission— expressed in the FIDL. A mixed integer linear programming (MILP) formulation for the problem of assigning mission tasks to the available aircraft is provided. In addition, since finding optimal paths between locations is a key problem to mission planning, a novel path finding algorithm is presented. This algorithm can compute near-shortest paths avoiding all obstacles in an urban environment in very short times. The several formal languages described in this thesis can serve as a standard specification to share trajectory information among different actors in ATM. In combination, these languages can describe trajectories with the necessary level of detail for any application, and can be used to increase automation by exploiting this information using decision support tools (DSTs). Their applications to some basic functions of DSTs, such as trajectory prediction, have been analized.
Resumo:
En 1938 surge en la escena académica un nuevo hombre –el homo ludens–, que llega de la mano del historiador Johan Huizinga. Ante el inminente aumento del tiempo libre, a partir de la disminución de la jornada de trabajo por una creciente automatización de la industria, el homo ludens viene a complementar el tiempo de trabajo ocupado desde la Revolución Industrial por el homo faber. La validez y fuerza de la propuesta de Huizinga está basada en el Juego como generador de cultura y desde allí el estudio del comportamiento de la sociedad desde su aspecto lúdico. Aquí radica la fortaleza representativa del HOMO LUDENS para las vanguardias de posguerra, que se proponen incluirlo en sus debates culturales analíticos y propositivos. En la posguerra Europa vivía el triunfalismo de la guerra en medio de sociedades y ciudades ruinosas que necesitaban una urgente reconstrucción. Se oían otras realidades, tanto el ‘American way of life’ como “The Americans” (Robert Frank, 1958): la sociedad de la abundancia, el gusto popular, la inclusión de lo cotidiano y lo banal, la publicidad, los medios de comunicación de masas, el consumo, la reconversión de la industria bélica en doméstica, las telecomunicaciones, los robots, los nuevos materiales, la carrera espacial y la ciencia ficción. Inglaterra surge como natural vínculo social y cultural con Estados Unidos, convirtiéndose en catalizador de las ideas vanguardistas. Ese panorama efervescente, ‘los años pop’, surge como una realidad cultural que representaba la complejidad, el caos, y la fascinación de la imaginería de un futuro presente, ilustrado en las propuestas artísticas de la época. Surgían, tanto desde Estados Unidos como desde Europa, ideas novedosas sobre la utilización lúdica del tiempo libre, como forma de potenciar la naturaleza creativa del ser humano: el Independent Group, Charles y Ray Eames, el Black Mountain Collage, el Theatre of Action, The Factory, la Internacional Situacionista y la Generación Beat. Estos grupos de gran impacto cultural basaron sus acciones en la utilización del Juego en sus propuestas, esencialmente bajo la in¬ fluencia dadá y singularmente de Marcel Duchamp cuyas propuestas revolucionaron la historia del arte del siglo XX. Todos ellos exploraron permanentemente la unión del arte a la vida a través de experiencias lúdicas, sirviendo como motivadores de las propuestas arquitectónico-urbanísticas en estudio en esta investigación. Estas principales son: de Alison y Peter Smithson “Berlín Hauptstadt” (1957); de ARCHIGRAM “Plug-in city” (1963-1964) e Instant City (1968); de Yona Friedman “Arquitectura Móvil” (1957); de Cederic Price “Fun Palace” (1960-1961); y de Constant Nieuwenhuys “New Babylon” (1959-64). La investigación fue conducida por una búsqueda ‘flexible’ de conceptos, hechos, personajes y proyectos. Desde el análisis de los escritos, gráficos, estudios y trabajos realizados por los protagonistas de la vanguardia, así como de una lectura contextual de la época enriquecida e ilustrada con hechos significativos y anécdotas divertidas, se opera en simultaneidad con una multiplicidad de fuentes. Se maneja un gran volumen de información proveniente de áreas de conocimiento muy diferentes (filosofía, arte, arquitectura, antropología, sociología, sicología, etc.), trabajándose con un objeto de estudio ‘vivo’, abierto y en constante reorganización. Pretende además de comunicar sus dérives, como construcción de discursos históricos, estimular el planteamiento de nuevas derivas. A través de un proceso minucioso se buscaron las relaciones entre los conceptos de Juego teóricos elaborados por distintos pensadores a partir de Kant y Schiller, que tuvieran una clara relación con los procesos proyectuales de los Arquitectos de la vanguardia en estudio. Dos factores son claves: el carácter de seriedad del Juego y la decisión de situar la investigación en el lugar del juego-play (juego libre y sin reglas). Se concluye sobre la estrecha relación Arquitectura y Juego en la vanguardia estudiada, profundizando en: el acto creativo del proyectar como proceso lúdico –por parte del Arquitecto–; el desarrollo de un homo ludens destinatario/usuario; las nuevas herramientas disciplinares desarrolladas: soporte topológico, plug-in, fragmentación, flexibilidad, on-off, transportabilidad. Una nueva arquitectura lúdica desde la que se profundiza en los aportes disciplinares teóricos y prácticos bajo este enfoque: la Arquitectura desde el automovimiento, lo efímero, el fragmento, el azar e indeterminación, lo ficticio, el vacío.