75 resultados para Prematuro extremo


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta investigación se plantea con la hipótesis radical de cómo habitar el desierto de forma sostenible, desde una actitud pragmática y experimental basada en el progreso. La justificación se basa en primer lugar en los 2.000 millones de personas en el mundo que viven en entornos desérticos, el 80% de ellas, en países en desarrollo, porque el 40% de la superficie terrestre está bajo amenaza de desertificación afectando al 37% de la población mundial, con 12 millones de hectáreas al año perdidas por esa causa, y por último, porque se considera el desierto como un entorno de gran atractivo y potencial. El contenido de la investigación se estructura en tres movimientos: posicionamiento, mirada y acción: Desde el posicionamiento se define en primer lugar la sostenibilidad, aportando un nuevo diagrama donde se incorpora el ámbito arquitectónico como uno de los pilares principales, y, posteriormente, se establecen los criterios de evaluación de la sostenibilidad, aportando un sistema de indicadores donde se incorporan parámetros adecuados a las circunstancias del oasis. Del mismo modo, se estudian y analizan metodologías de actuación y proyectos de desarrollo sostenible existentes que enmarcan el estado del arte, constatando la dificultad de adaptación de los mismos a las condiciones de los oasis, por lo que se elabora una metodología propia donde se modifica la dinámica estratégica, de forma que el impulso se plantea desde la acción social, a través de hipótesis de estrategias basadas en sistemas low-cost, autoconstruidas, asumibles económicamente y de implantación factible. El caso de estudio específico radica en la situación extrema de las condiciones en el oasis de M’hamid, donde se evidencia un proceso de desintegración y abandono. Esto es debido a una acumulación de circunstancias externas e internas, de múltiples factores: naturales y antrópicos que afectan al oasis, llevando al extremo las condiciones climáticas y la escasez de recursos, naturales y artificiales. Factores como el cambio climático, la sequía, los cambios en las políticas del agua, la amenaza de desertificación, los conflictos sociales, el desequilibrio ecológico, la escasez económica, la crisis energética, la obsolescencia arquitectónica, el patrimonio construido prácticamente destruido, y la malentendida nueva arquitectura. Es importante constatar la escasa documentación gráfica existente sobre la zona de actuación lo que ha conllevado un amplio trabajo de documentación, tanto cartográfica como de observación directa, aportada a la tesis como investigación de elaboración propia. La mirada analítica al caso de estudio permite conocer los recursos disponibles y las potencialidades latentes del oasis de M’hamid, que permitirán actuar para subvertir la dinámica involutiva imperante, de forma que los dibujos iniciales de apropiación contextual y análisis críticos derivan en mapas de acción diagramados conformados por un sistema de objetos y la definición de estrategias transversales, deconstruyendo el pasado y reconstruyendo el futuro, incorporando sistemas alternativos que se definen en 7 líneas estratégicas de acción formuladas desde los 3 ámbitos relacionados con el ecosistema: ecológico, socio- económico y arquitectónico. Así, la tesis defiende la acción arquitectónica como impulsora del desarrollo sostenible, apoyada en 3 elementos: - la creación de objetos “tecnoartesanos”, para el aprovechamiento de los recursos energéticos - las transformaciones arquitectónicas, para reformular el hábitat desde la eficiencia energética y el progreso - y el impulso de acciones cotidianas, que redefinan las relaciones sociales, creando entornos cooperativos y colaborativos. En el ámbito ecológico se proponen actuaciones anti desertificación mediante incubadoras de árboles; sistemas alternativos de gestión del agua, como la lluvia sólida; estrategias de potenciación de la producción agrícola; la construcción de mecanismos de obtención de energía a partir de residuos, como los paneles solares con botellas PET. En el ámbito socioeconómico se plantean nuevas formas de acción social y de reactivación económica. Por último, en el ámbito urbano-arquitectónico, se incorporan modificaciones morfológicas a la arquitectura existente y una relectura contemporánea de la tierra, como material que permite nuevas geometrías, obteniendo arena petrificada por procesos microbiológicos, y potenciando la tierra como recurso artístico. Esta tesis es un punto de partida, recoge sistemas, estrategias y experiencias, para funcionar como un estímulo o impulso dinamizador del futuro desarrollo sostenible del oasis, abriendo vías de investigación y experimentación. ABSTRACT This research puts forth the radical hypothesis of how to inhabit the desert in a sustainable way, using a pragmatic and experimental approach based on progress. The justification for this resides in the fact that there are 2,000 million people in the world living in desert environments, 80% of them in developing countries. Forty percent of the earth’s surface is under threat of desertification, affecting 37% of the world population and with 12 million hectares being lost each year. And finally, the desert is considered as an attractive environment and therefore, with great potential. The content of the research is structured in three main sections: positioning, observation and action: As a point of departure, sustainability is defined, proposing a new framework where architecture is incorporated as one of the main pillars. Then, the criteria for evaluating sustainability are established. These provide a system of indicators, which incorporate parameters based on the specific circumstances of the oasis. Methodologies and existing sustainable development projects that represent the state-of-the-art are analyzed, discussing the difficulty of adapting them to conditions of oases. A methodology that modifies strategic concepts is developed, whereby the catalyst is social action, and strategies are developed based on low-cost, self-built, and feasible implementation systems. The specific case study lies in the extreme conditions in the oasis of M'hamid, where a process of decay and neglect is evident. This deterioration is due to an accumulation of external and internal circumstances, and of natural and anthropogenic factors that affect the oasis, leading to extreme weather conditions and a shortage of both natural and artificial resources. Factors include; climate change, drought, changes in water policies, the threat of desertification, social conflicts, ecological imbalance, economic shortage, the energy crisis, architectural obsolescence, destruction of built heritage, and misunderstood new architecture. It is important to note the extremely limited graphic information about the area has led me to produce an extensive archive of maps and drawings, many developed by direct observation, that contribute to the research. The case study analysis of the oasis of M'hamid examines the resources available and the latent potential to slow the prevailing trend towards deterioration. The initial drawings of contextual appropriation and critical analysis result in maps and diagrams of action, which are formed by a system of objects and the definition of strategies. These can be thought of as understanding or “deconstructing” the past to reconstruct the future. Alternative approaches defined in seven strategies for action are based on three fields related to the ecosystem: ecological, socioeconomic and architectural. Thus, the thesis defends architectural action to promote sustainable development, based on three elements: - The creation of "techno-artisans", to make use of energy resources - Architectural changes, to reformulate habitat in terms of energy efficiency and progress - And the promotion of everyday actions, to redefine social relations, creating cooperative and collaborative environments. In the ecological field, I propose anti-desertification actions such as; tree incubators, alternative water management systems(such as solid rain),; strategies to empower the agricultural production, energy from low-cost systems made out from recycled materials(such as solar panels from PET bottles or wind turbine from bicycle wheels). In the socioeconomic sphere, I propose to implement new forms of social action and economic regeneration. Finally, within the urban and architectural field, I propose morphological changes to the existing architecture and a contemporary reinterpretation of the earth as a material that allows new geometries, creating petrified sand by microbiological processes or enhancing nature as an artistic and energy resource. This thesis is a starting point. It collects systems, strategies and experiences to serve as a stimulus or dynamic momentum for future sustainable development of the oasis, opening new avenues of research and experimentation. RÉSUMÉ Cette recherche part d'une hypothèse radicale : comment habiter le désert de façon durable, et ce à partir d'une approche pragmatique et expérimentale basée sur le progrès. Cette hypothèse se justifie en raison des 2 milliards de personnes qui dans le monde habitent des environnements désertiques, 80% d'entre eux dans des pays en voie de développement, mais aussi parce que 40% de la surface de la planète est sous menace de désertification, un phénomène affectant 37% de la population mondiale et qui cause la perte de 12 millions d'hectares par an; et enfin parce que le désert est considéré comme un environnement très attrayant et fort d’un grand potentiel. Le contenu de la recherche se divise en trois mouvements: le positionnement, le regard et l'action : Du point de vue du positionnement on définit tout d'abord la durabilité, présentant un nouveau schéma où le domaine de l'architecture devient un des principaux piliers, et, par la suite, des critères d'évaluation de la durabilité sont établis, en fournissant un système d’indicateurs qui intègre les paramètres appropriés aux circonstances de l'oasis. De même, des méthodologies et des projets de développement durable existants sont étudiés et analysés, ce qui encadre l'état de l'art, remarquant la difficulté de les adapter aux conditions des oasis. De cette difficulté découle l'élaboration d'une méthodologie qui modifie la dynamique stratégique, de sorte que l'impulsion provient de l'action sociale, à travers des hypothèses de stratégie basées sur des systèmes low-cost, auto-construits, et de mise en oeuvre économiquement viable. Le cas d'étude spécifique réside en la situation extrême des conditions de l'oasis de M’hamid, où un processus de décadence et de négligence est évident. Cela est dû à une accumulation de circonstances externes et internes, de multiples facteurs: les facteurs naturels et anthropiques qui affectent l'oasis, menant à l'extrême les conditions météorologiques et la pénurie de ressources, autant naturelles qu'artificielles. Des facteurs tels que le changement climatique, la sécheresse, les changements dans les politiques de l'eau, la menace de la désertification, les conflits sociaux, le déséquilibre écologique, la pénurie économique, la crise de l'énergie, l'obsolescence architecturale, le patrimoine bâti pratiquement détruit et une mauvais compréhensif de la nouvelle architecture. Il est important de de faire remarquer le peu d'informations graphiques du domaine d'action, ce qui a conduit à un vaste travail de documentation, autant cartographique que relative à l'observation directe. Cette documentation s'ajoute à la thèse en tant que recherche propre. Le regard analytique sur le cas d'étude permet de connaître les ressources disponibles et le potentiel latent de l'oasis de M’hamid, qui agiront pour renverser la dynamique d'involution en vigueur. Ainsi, les premiers dessins d'appropriation contextuelle et analyse critique deviennent des cartes d'action schématisées formées par un système d'objets et la définition de stratégies transversales, qui déconstruisent le passé et reconstruisent l'avenir, en incorporant des systèmes alternatifs qui se définissent sur 7 lignes stratégiques d'action formulées à partir des 3 domaines en relation avec l’écosystème: l’écologique, le socio-économique et l'architectural. Ainsi, la thèse défend l'action architecturale en tant que promotrice du développement durable, et ce basé sur 3 éléments: - la création d'objets "technoartisans" pour l'exploitation des ressources énergétiques - les modifications architecturales, pour reformuler l'habitat du point de vue de l'efficacité énergétique et le progrès - et la promotion des actions quotidiennes, pour redéfinir les relations sociales, et la création d'environnements de coopération et collaboration. Dans le domaine de l'écologie des actions de lutte contre la désertification sont proposées à travers des pépinières d'arbres, des systèmes alternatifs de gestion de l'eau comme par exemple la pluie solide, des stratégies de mise en valeur de la production agricole, la construction de mécanismes de production d'énergie à partir de résidus, tels que les panneaux solaires ou les bouteilles en PET. Dans le domaine socio-économique, l'on propose de nouvelles formes d'action sociale et de reprise économique. Enfin, dans le domaine de l'urbain et de l'architectural, on incorpore des changements morphologiques à l'architecture existante et une relecture contemporaine de la terre, comme matériau qui permet de nouvelles géométries, en obtenant du sable pétrifié par des procédés microbiologiques et en mettant en valeur la terre comme une ressource artistique. Cette thèse n'est qu'un point de départ. Elle recueille des systèmes, des stratégies et des expériences pour servir de stimulus ou d'impulsion dynamisatrice du futur développement durable de l'oasis, en ouvrant des voies de recherche et d'expérimentation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El espacio geográfico, entendido como territorio que da soporte a la vida y a la civilización, ha estado siempre fuertemente supeditado a la presencia de agua. Desde la Prehistoria el hombre otorgó al agua, junto a otros elementos que aseguraban o protegían su vida, un valor superior, por encima de lo humano. Paralelamente y de manera natural, el jardín, en sus inicios en estrecha relación con la agricultura y con el paisaje, fue el ámbito idóneo para la creación de nuevas formas acuáticas artificiales. Este proceso dio lugar a un extenso repertorio de formas compositivas que parece que tuvo en el Renacimiento un punto de inflexión, en el que se observa como la mayoría de recursos y configuraciones básicas del agua estaban ya plenamente establecidas. Esta evolución y sus resultados ha sido el objeto de la primera parte de la tesis: su objetivo ha sido analizar cómo el agua configura, cualifica o puede llegar a construir el jardín y el territorio en el que se inserta, así como establecer las posibles relaciones entre estos dos ámbitos de estudio. Aunque la historia es su fundamento, el planteamiento aquí ha sido más bien conceptual; estudiando los componentes acuáticos desde un punto de vista fundamentalmente compositivo. Esta indagación previa ha sido indispensable para llegar a entender en profundidad los modos en los que el agua se muestra en el jardín y en el paisaje renacentista y manierista, momentos en que se insertan los dos casos de estudio que constituyen la segunda parte de la tesis. Sin caer en un determinismo geográfico extremo, puede admitirse que el jardín, como manifestación cultural intrínsecamente ligada al entorno, depende fuertemente del territorio en el que se asienta; hecho particularmente evidente en aquellas regiones en las que su especial geografía ha sido un claro factor condicionante de su historia. Por ello, Holanda y España han sido las dos localizaciones elegidas para profundizar en este estudio; no tanto por su estrecha relación política y cultural, sino por su profundo y sugerente contraste de medio físico y climático. La Península Ibérica, geográficamente el término del mundo conocido en Occidente hasta el final de la Edad Media, y por esta circunstancia convertida en destino, en territorio de permanencia y fusión, estará además supeditada en la mayoría de su territorio a la falta de agua, siendo a la vez heredera directa del universo y la tradición del jardín meridional originario de Oriente. En el extremo opuesto, Holanda, espacio de transición entre el mar y la tierra firme “real”, es un territorio permeado de humedad y surcado con generosidad por grandes ríos. El país, con una relación ambivalente con el agua, unas veces como amenaza y otras como fuente de nuevas oportunidades, será por el contrario especialmente favorable para el desarrollo de un modelo de jardín septentrional. Un jardín del norte, que no obstante, no surgirá de despejar los bosques, como en el arquetipo nórdico, sino que crecerá sobre planicies antes saturadas de agua o directamente anegadas. El marco temporal de los dos casos concretos ha considerado como fecha inicial 1548, momento en el que Felipe II, aún príncipe, realizó su primer viaje a los Países Bajos, y entró en contacto con el modelo holandés. La extensa producción posterior de jardines de Felipe II, siempre con el agua como protagonista, tuvo como destacado referente la adaptación al suelo y la geografía hispánicos de dicho modelo. Como fecha final se fija 1648, justo un siglo después, fecha coincidente con la firma de la Paz de Westfalia, tratado que supone la total reorganización política del territorio europeo y la pérdida de la hegemonía española en Europa. En Holanda sólo dos años después nacerá Guillermo III de Orange, estatúder de las Provincias Unidas, también futuro rey de Inglaterra, Escocia e Irlanda. Para entonces en Holanda ya se había asistido al desarrollo de un arte propio de jardín, íntimamente ligado al agua, sorprendentemente no demasiado bien conocido y que será uno de los temas de esta investigación. Finalmente, se propone una lectura conjunta de toda esta serie de intervenciones que tienen como argumento el agua, en la que se integra la información procedente de distintos campos de estudio, cada una con su metodología particular. El resultado es una tesis en la que el jardín y el territorio son tratados desde un nuevo y enriquecedor punto de vista. ABSTRACT Geographical space, understood as the territory that provides support to human life and civilization, has always been strongly subjected to the presence of water. From Prehistory man gave to water, along with other elements that ensured or protected life, a higher value than the merely human. At the same time and in a natural way, the garden, in its beginnings with a close relationship with agriculture and landscape, soon developed as the appropriate ground for the creation of new artificial aquatic forms, in a process that seems to have a turning point in the Renaissance, when most of the basic waterworks and resources were already fully established. This development and its outcomes are the subjects of the first part of the thesis: its scope has been to analyse how water configures, qualifies and might even help to construct the garden or landscape attached to it; and to establish the possible links between these two fields of study. Although history based, the point of view here is mainly conceptual, studying the water components understood as composite elements. This exploratory research has been essential to deeply understand the water patterns shown in the Renaissance and Mannerist garden and landscape, periods in which the two case studies are inserted. Without falling in extreme determinism, it can be accepted however, that garden, as a cultural expression linked to environment, is strongly dependant on territorial setting; something particularly evident in those areas where specific geography has been a clear history conditioning factor. This is the reason that leads to choose the Netherlands and Spain to deepen this study, no so much for their interesting cultural and politics relations as for the suggestive and profound contrast of their physical environment and climate. The Iberian Peninsula, geographically the limit of the known world in Occident until the end of the Medium Age, and by this circumstance understood as endpoint, more a destination than a crossroad, a territory of permanence and fusion, but also subjected to water shortage; is thus associated with the universe and tradition of the meridional garden imported from Orient. In the opposite, the Netherlands, a transitional space between the sea and the “real” firm land, is a territory permeated by water and crossed by big rivers. Always with an ambivalent relationship with water, sometimes seen as a threat and sometimes as a source of new opportunities, it was in the other hand the adequate land for the development of a special model of Northern garden. A garden that will not arise, however, from the clearing of woods as in the Nordic archetype, but that will grow on plains originally saturated of water or directly waterlogged. The timeframe of the two cases has 1548 as the initial year, moment in which Philip II, yet prince, made his first trip to the Low Lands and imbibed the Dutch garden model. The later and bountiful garden works of the king, always with the water as the main focus, adapted the imported model to the Spanish ground and geography. The final date is fixed in 1648, just a century after, in coincidence with the Westfalia Peace; a treaty that implied the total political reorganization of the European territory and the end of the Spanish hegemony in the continent. In Holland, only two years later, William III of Orange, Stadtholder of the United Provinces and also future king of England, Scotland and Ireland, was born. But by then the Netherlands had developed an own garden art, closely linked to water. This type garden, surprisingly not very well known, and its relationship with water, will be other of the addressing questions of this work. Finally, the investigation merges the different interventions that have water as an argument, integrating all the fields considered with their particular methodological approaches. The final result is a thesis in which garden and territory are treated from a new and enriching perspective.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las pilas de los puentes son elementos habitualmente verticales que, generalmente, se encuentran sometidos a un estado de flexión compuesta. Su altura significativa en muchas ocasiones y la gran resistencia de los materiales constituyentes de estos elementos – hormigón y acero – hace que se encuentren pilas de cierta esbeltez en la que los problemas de inestabilidad asociados al cálculo en segundo orden debido a la no linealidad geométrica deben ser considerados. Además, la mayoría de las pilas de nuestros puentes y viaductos están hechas de hormigón armado por lo que se debe considerar la fisuración del hormigón en las zonas en que esté traccionado. Es decir, el estudio del pandeo de pilas esbeltas de puentes requiere también la consideración de un cálculo en segundo orden mecánico, y no solo geométrico. Por otra parte, una pila de un viaducto no es un elemento que pueda considerarse como aislado; al contrario, su conexión con el tablero hace que aparezca una interacción entre la propia pila y aquél que, en cierta medida, supone una cierta coacción al movimiento de la propia cabeza de pila. Esto hace que el estudio de la inestabilidad de una pila esbelta de un puente no puede ser resuelto con la “teoría del pandeo de la pieza aislada”. Se plantea, entonces, la cuestión de intentar definir un procedimiento que permita abordar el problema complicado del pandeo de pilas esbeltas de puentes pero empleando herramientas de cálculo no tan complejas como las que resuelven “el pandeo global de una estructura multibarra, teniendo en cuenta todas las no linealidades, incluidas las de las coacciones”. Es decir, se trata de encontrar un procedimiento, que resulta ser iterativo, que resuelva el problema planteado de forma aproximada, pero suficientemente ajustada al resultado real, pero empleando programas “convencionales” de cálculo que sean capaces de : - por una parte, en la estructura completa: o calcular en régimen elástico lineal una estructura plana o espacial multibarra compleja; - por otra, en un modelo de una sola barra aislada: o considerar las no linealidades geométricas y mecánicas a nivel tensodeformacional, o considerar la no linealidad producida por la fisuración del hormigón, o considerar una coacción “elástica” en el extremo de la pieza. El objeto de este trabajo es precisamente la definición de ese procedimiento iterativo aproximado, la justificación de su validez, mediante su aplicación a diversos casos paramétricos, y la presentación de sus condicionantes y limitaciones. Además, para conseguir estos objetivos se han elaborado unos ábacos de nueva creación que permiten estimar la reducción de rigidez que supone la fisuración del hormigón en secciones huecas monocajón de hormigón armado. También se han creado unos novedosos diagramas de interacción axil-flector válidos para este tipo de secciones en flexión biaxial. Por último, hay que reseñar que otro de los objetivos de este trabajo – que, además, le da título - era cuantificar el valor de la coacción que existe en la cabeza de una pila debido a que el tablero transmite las cargas de una pila al resto de los integrantes de la subestructura y ésta, por tanto, colabora a reducir los movimientos de la cabeza de pila en cuestión. Es decir, la cabeza de una pila no está exenta lo cual mejora su comportamiento frente al pandeo. El régimen de trabajo de esta coacción es claramente no lineal, ya que la rigidez de las pilas depende de su grado de fisuración. Además, también influye cómo las afecta la no linealidad geométrica que, para la misma carga, aumenta la flexión de segundo orden de cada pila. En este documento se define cuánto vale esta coacción, cómo hay que calcularla y se comprueba su ajuste a los resultados obtenidos en el l modelo no lineal completo. The piers of the bridges are vertical elements where axial loads and bending moments are to be considered. They are often high and also the strength of the materials they are made of (concrete and steel) is also high. This means that slender piers are very common and, so, the instabilities produced by the second order effects due to the geometrical non linear effects are to be considered. In addition to this, the piers are usually made of reinforced concrete and, so, the effects of the cracking of the concrete should also be evaluated. That is, the analysis of the instabilities of te piers of a bridge should consider both the mechanical and the geometrical non linearities. Additionally, the pier of a bridge is not a single element, but just the opposite; the connection of the pier to the deck of the bridge means that the movements of the top of the pier are reduced compared to the situation of having a free end at the top of the pier. The connection between the pier and the deck is the reason why the instability of the pier cannot be analysed using “the buckling of a compressed single element method”. So, the question of defining an approximate method for analysing the buckling of the slender piers of a bridge but using a software less complex than what it is needed for analysing the “ global buckling of a multibeam structure considering all t”, is arisen. Then, the goal should be trying to find a procedure for analysing the said complex problem of the buckling of the slender piers of a bridge using a simplified method. This method could be an iterative (step by step) procedure, being accurate enough, using “normal” software having the following capabilities: - Related to the calculation of the global structure o Ability for calculating a multibesam strucutre using elastic analysis. - Related to the calculation of a single beam strcuture:: o Ability for taking into account the geometrical and mechanical () non linearities o Ability for taking into account the cracking of the concrete. o Ability for using partial stiff constraints (elastic springs) at the end of the elements One of the objectives of this document is just defining this simplified methodology, justifying the accuracy of the proposed procedure by using it on some different bridges and presenting the exclusions and limitations of the propose method. In addition to this, some new charts have been created for calculating the reduction of the stiffness of hollow cross sections made of reinforced concrete. Also, new charts for calculating the reinforcing of hollow cross sections under biaxial bending moments are also included in the document. Finally, it is to be said that another aim of the document – as it is stated on the title on the document – is defining the value of the constraint on the top of the pier because of the connection of the pier to the deck .. and to the other piers. That is, the top of the pier is not a free end of a beam and so the buckling resistance of the pier is significantly improved. This constraint is a non-elastic constraint because the stiffness of each pier depends on the level of cracking. Additionally, the geometrical non linearity is to be considered as there is an amplification of the bending moments due to the increasing of the movements of the top of the pier. This document is defining how this constraints is to be calculated; also the accuracy of the calculations is evaluated comparing the final results with the results of the complete non linear calculations

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo denominado “Modelo simplificado de neumático de automóvil en elementos finitos para análisis transitorio de las estructuras de los vehículos” ha sido elaborado en la cátedra de Transportes de la Escuela Técnica Superior de Ingenieros Industriales de la Universidad Politécnica de Madrid. Su principal objetivo es el modelado y estudio de un neumático mediante el programa de elementos finitos Ansys, con el fin de obtener datos fiables acerca de su comportamiento bajo distintas situaciones. Para ello, en primer lugar se han estudiado los distintos componentes que conforman los neumáticos, poniendo especial énfasis en los materiales, que son de vital importancia para el desarrollo del trabajo. Posteriormente, se ha analizado el fundamento matemático que subyace en los programas comerciales de elementos finitos, adquiriendo una mayor seguridad en el uso de éstos, así como un mejor conocimiento de las limitaciones que presentan. Básicamente, el método matemático de los elementos finitos (MEF) consiste en la discretización de problemas continuos para resolver problemas complejos, algo que por los métodos tradicionales sería inabordable con ese grado de precisión debido a la cantidad de variables manejadas. Es ampliamente utilizado hoy en día, y cada vez más, para resolver problemas de distintas disciplinas de la ingeniería como la Mecánica del Sólido, la Mecánica de Fluidos o el Electromagnetismo. Por otro lado, como los neumáticos son un sistema complejo, el estudio de su comportamiento ha supuesto y supone un desafío importante tanto para los propios fabricantes, como para las marcas de vehículos y, en el ámbito de este proyecto, para el equipo Upm Racing. En este Trabajo Fin de Grado se han investigado los distintos modelos de neumático que existen, los cuales según su fundamento matemático pueden ser clasificados en: - Modelos analíticos - Modelos empíricos - Modelos de elementos finitos Con la intención de desarrollar un modelo novedoso de elementos finitos, se ha puesto especial hincapié en conocer las distintas posibilidades para el modelizado de neumáticos, revisando una gran cantidad de publicaciones llevadas a cabo en los ámbitos académico y empresarial. Después de toda esta fase introductoria y de recogida de información se ha procedido a la realización del modelo. Éste tiene tres fases claramente diferenciadas que son: - Pre-procesado - Solución - Post-procesado La fase de pre-procesado comprende toda la caracterización del modelo real al modelo matemático. Para ello es necesario definir los materiales, la estructura de los refuerzos, la presión del aire, la llanta o las propiedades del contacto neumático-suelo. Además se lleva a cabo el mallado del modelo, que es la discretización de dicho modelo para después ser resuelto por los algoritmos del programa. Este mallado es sumamente importante puesto que en problemas altamente no-lineales como éste, una malla no adecuada puede dar lugar a conflictos en la resolución de los sistemas de ecuaciones, originando errores en la resolución. Otro aspecto que se ha de incluir en esta fase es la definición de las condiciones de contorno, que son aquellas condiciones impuestas al sistema que definen el estado inicial del éste. Un ejemplo en resolución de estructuras podría ser la imposición de giros y desplazamientos nulos en el extremo de una viga encontrarse empotrado en este punto. La siguiente fase es la de solución del modelo. En ella se aplican las cargas que se desean al sistema. Las principales que se han llevado a cabo han sido: desplazamientos del eje del neumático, rodadura del neumático con aceleración constante y rodadura del neumático con velocidad constante. La última fase es la de post-procesado. En esta etapa se analizan los resultados proporcionados por la resolución con el fin de obtener los datos de comportamiento del neumático que se deseen. Se han estudiado principalmente tres variables que se consideran de suma importancia: - Rigidez radial estática - Características de la huella de contacto - Coeficiente de resistencia a la rodadura Seguidamente, se presentan las conclusiones generales de estos resultados, reflexionando sobre los valores obtenidos, así como sobre los problemas surgidos durante la realización del trabajo. Además, se realiza una valoración de los impactos que puede suponer a nivel económico, social y medioambiental. Por último, se ha elaborado la planificación y presupuesto del proyecto para plasmar los tiempos de trabajo y sus costos. Además, se han propuesto líneas futuras con las que avanzar y/o completar este trabajo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I. GENERALIDADES 1.1. Introducción Entre los diversos tipos de perturbaciones eléctricas, los huecos de tensión son considerados el problema de calidad de suministro más frecuente en los sistemas eléctricos. Este fenómeno es originado por un aumento extremo de la corriente en el sistema, causado principalmente por cortocircuitos o maniobras inadecuadas en la red. Este tipo de perturbación eléctrica está caracterizado básicamente por dos parámetros: tensión residual y duración. Típicamente, se considera que el hueco se produce cuando la tensión residual alcanza en alguna de las fases un valor entre 0.01 a 0.9 pu y tiene una duración de hasta 60 segundos. Para un usuario final, el efecto más relevante de un hueco de tensión es la interrupción o alteración de la operación de sus equipos, siendo los dispositivos de naturaleza electrónica los principalmente afectados (p. ej. ordenador, variador de velocidad, autómata programable, relé, etc.). Debido al auge tecnológico de las últimas décadas y a la búsqueda constante de automatización de los procesos productivos, el uso de componentes electrónicos resulta indispensable en la actualidad. Este hecho, lleva a que los efectos de los huecos de tensión sean más evidentes para el usuario final, provocando que su nivel de exigencia de la calidad de energía suministrada sea cada vez mayor. De forma general, el estudio de los huecos de tensión suele ser abordado bajo dos enfoques: en la carga o en la red. Desde el punto de vista de la carga, se requiere conocer las características de sensibilidad de los equipos para modelar su respuesta ante variaciones súbitas de la tensión del suministro eléctrico. Desde la perspectiva de la red, se busca estimar u obtener información adecuada que permita caracterizar su comportamiento en términos de huecos de tensión. En esta tesis, el trabajo presentado se encuadra en el segundo aspecto, es decir, en el modelado y estimación de la respuesta de un sistema eléctrico de potencia ante los huecos de tensión. 1.2. Planteamiento del problema A pesar de que los huecos de tensión son el problema de calidad de suministro más frecuente en las redes, hasta la actualidad resulta complejo poder analizar de forma adecuada este tipo de perturbación para muchas compañías del sector eléctrico. Entre las razones más comunes se tienen: - El tiempo de monitorización puede llegar a ser de varios años para conseguir una muestra de registros de huecos estadísticamente válida. - La limitación de recursos económicos para la adquisición e instalación de equipos de monitorización de huecos. - El elevado coste operativo que implica el análisis de los datos de los medidores de huecos de tensión instalados. - La restricción que tienen los datos de calidad de energía de las compañías eléctricas. Es decir, ante la carencia de datos que permitan analizar con mayor detalle los huecos de tensión, es de interés de las compañías eléctricas y la academia poder crear métodos fiables que permitan profundizar en el estudio, estimación y supervisión de este fenómeno electromagnético. Los huecos de tensión, al ser principalmente originados por eventos fortuitos como los cortocircuitos, son el resultado de diversas variables exógenas como: (i) la ubicación de la falta, (ii) la impedancia del material de contacto, (iii) el tipo de fallo, (iv) la localización del fallo en la red, (v) la duración del evento, etc. Es decir, para plantear de forma adecuada cualquier modelo teórico sobre los huecos de tensión, se requeriría representar esta incertidumbre combinada de las variables para proveer métodos realistas y, por ende, fiables para los usuarios. 1.3. Objetivo La presente tesis ha tenido como objetivo el desarrollo diversos métodos estocásticos para el estudio, estimación y supervisión de los huecos de tensión en los sistemas eléctricos de potencia. De forma específica, se ha profundizado en los siguientes ámbitos: - En el modelado realista de las variables que influyen en la caracterización de los huecos. Esto es, en esta Tesis se ha propuesto un método que permite representar de forma verosímil su cuantificación y aleatoriedad en el tiempo empleando distribuciones de probabilidad paramétricas. A partir de ello, se ha creado una herramienta informática que permite estimar la severidad de los huecos de tensión en un sistema eléctrico genérico. - Se ha analizado la influencia la influencia de las variables de entrada en la estimación de los huecos de tensión. En este caso, el estudio se ha enfocado en las variables de mayor divergencia en su caracterización de las propuestas existentes. - Se ha desarrollado un método que permite estima el número de huecos de tensión de una zona sin monitorización a través de la información de un conjunto limitado de medidas de un sistema eléctrico. Para ello, se aplican los principios de la estadística Bayesiana, estimando el número de huecos de tensión más probable de un emplazamiento basándose en los registros de huecos de otros nudos de la red. - Plantear una estrategia para optimizar la monitorización de los huecos de tensión en un sistema eléctrico. Es decir, garantizar una supervisión del sistema a través de un número de medidores menor que el número de nudos de la red. II. ESTRUCTURA DE LA TESIS Para plantear las propuestas anteriormente indicadas, la presente Tesis se ha estructurado en seis capítulos. A continuación, se describen brevemente los mismos. A manera de capítulo introductorio, en el capítulo 1, se realiza una descripción del planteamiento y estructura de la presente tesis. Esto es, se da una visión amplia de la problemática a tratar, además de describir el alcance de cada capítulo de la misma. En el capítulo 2, se presenta una breve descripción de los fundamentos y conceptos generales de los huecos de tensión. Los mismos, buscan brindar al lector de una mejor comprensión de los términos e indicadores más empleados en el análisis de severidad de los huecos de tensión en las redes eléctricas. Asimismo, a manera de antecedente, se presenta un resumen de las principales características de las técnicas o métodos existentes aplicados en la predicción y monitorización óptima de los huecos de tensión. En el capítulo 3, se busca fundamentalmente conocer la importancia de las variables que determinen la frecuencia o severidad de los huecos de tensión. Para ello, se ha implementado una herramienta de estimación de huecos de tensión que, a través de un conjunto predeterminado de experimentos mediante la técnica denominada Diseño de experimentos, analiza la importancia de la parametrización de las variables de entrada del modelo. Su análisis, es realizado mediante la técnica de análisis de la varianza (ANOVA), la cual permite establecer con rigor matemático si la caracterización de una determinada variable afecta o no la respuesta del sistema en términos de los huecos de tensión. En el capítulo 4, se propone una metodología que permite predecir la severidad de los huecos de tensión de todo el sistema a partir de los registros de huecos de un conjunto reducido de nudos de dicha red. Para ello, se emplea el teorema de probabilidad condicional de Bayes, el cual calcula las medidas más probables de todo el sistema a partir de la información proporcionada por los medidores de huecos instalados. Asimismo, en este capítulo se revela una importante propiedad de los huecos de tensión, como es la correlación del número de eventos de huecos de tensión en diversas zonas de las redes eléctricas. En el capítulo 5, se desarrollan dos métodos de localización óptima de medidores de huecos de tensión. El primero, que es una evolución metodológica del criterio de observabilidad; aportando en el realismo de la pseudo-monitorización de los huecos de tensión con la que se calcula el conjunto óptimo de medidores y, por ende, en la fiabilidad del método. Como una propuesta alternativa, se emplea la propiedad de correlación de los eventos de huecos de tensión de una red para plantear un método que permita establecer la severidad de los huecos de todo el sistema a partir de una monitorización parcial de dicha red. Finalmente, en el capítulo 6, se realiza una breve descripción de las principales aportaciones de los estudios realizados en esta tesis. Adicionalmente, se describen diversos temas a desarrollar en futuros trabajos. III. RESULTADOS En base a las pruebas realizadas en las tres redes planteadas; dos redes de prueba IEEE de 24 y 118 nudos (IEEE-24 e IEEE-118), además del sistema eléctrico de la República del Ecuador de 357 nudos (EC-357), se describen los siguientes puntos como las observaciones más relevantes: A. Estimación de huecos de tensión en ausencia de medidas: Se implementa un método estocástico de estimación de huecos de tensión denominado PEHT, el cual representa con mayor realismo la simulación de los eventos de huecos de un sistema a largo plazo. Esta primera propuesta de la tesis, es considerada como un paso clave para el desarrollo de futuros métodos del presente trabajo, ya que permite emular de forma fiable los registros de huecos de tensión a largo plazo en una red genérica. Entre las novedades más relevantes del mencionado Programa de Estimación de Huecos de Tensión (PEHT) se tienen: - Considerar el efecto combinado de cinco variables aleatorias de entrada para simular los eventos de huecos de tensión en una pseudo-monitorización a largo plazo. Las variables de entrada modeladas en la caracterización de los huecos de tensión en el PEHT son: (i) coeficiente de fallo, (ii) impedancia de fallo, (iii) tipo de fallo, (iv) localización del fallo y (v) duración. - El modelado estocástico de las variables de entrada impedancia de fallo y duración en la caracterización de los eventos de huecos de tensión. Para la parametrización de las variables mencionadas, se realizó un estudio detallado del comportamiento real de las mismas en los sistemas eléctricos. Asimismo, se define la función estadística que mejor representa la naturaleza aleatoria de cada variable. - Considerar como variables de salida del PEHT a indicadores de severidad de huecos de uso común en las normativas, como es el caso de los índices: SARFI-X, SARFI-Curve, etc. B. Análisis de sensibilidad de los huecos de tensión: Se presenta un estudio causa-efecto (análisis de sensibilidad) de las variables de entrada de mayor divergencia en su parametrización entre las referencias relacionadas a la estimación de los huecos de tensión en redes eléctricas. De forma específica, se profundiza en el estudio de la influencia de la parametrización de las variables coeficiente de fallo e impedancia de fallo en la predicción de los huecos de tensión. A continuación un resumen de las conclusiones más destacables: - La precisión de la variable de entrada coeficiente de fallo se muestra como un parámetro no influyente en la estimación del número de huecos de tensión (SARFI-90 y SARFI-70) a largo plazo. Es decir, no se requiere de una alta precisión del dato tasa de fallo de los elementos del sistema para obtener una adecuada estimación de los huecos de tensión. - La parametrización de la variable impedancia de fallo se muestra como un factor muy sensible en la estimación de la severidad de los huecos de tensión. Por ejemplo, al aumentar el valor medio de esta variable aleatoria, se disminuye considerablemente la severidad reportada de los huecos en la red. Por otra parte, al evaluar el parámetro desviación típica de la impedancia de fallo, se observa una relación directamente proporcional de este parámetro con la severidad de los huecos de tensión de la red. Esto es, al aumentar la desviación típica de la impedancia de fallo, se evidencia un aumento de la media y de la variación interanual de los eventos SARFI-90 y SARFI-70. - En base al análisis de sensibilidad desarrollado en la variable impedancia de fallo, se considera muy cuestionable la fiabilidad de los métodos de estimación de huecos de tensión que omiten su efecto en el modelo planteado. C. Estimación de huecos de tensión en base a la información de una monitorización parcial de la red: Se desarrolla un método que emplea los registros de una red parcialmente monitorizada para determinar la severidad de los huecos de todo el sistema eléctrico. A partir de los casos de estudio realizados, se observa que el método implementado (PEHT+MP) posee las siguientes características: - La metodología propuesta en el PEHT+MP combina la teoría clásica de cortocircuitos con diversas técnicas estadísticas para estimar, a partir de los datos de los medidores de huecos instalados, las medidas de huecos de los nudos sin monitorización de una red genérica. - El proceso de estimación de los huecos de tensión de la zona no monitorizada de la red se fundamenta en la aplicación del teorema de probabilidad condicional de Bayes. Es decir, en base a los datos observados (los registros de los nudos monitorizados), el PEHT+MP calcula de forma probabilística la severidad de los huecos de los nudos sin monitorización del sistema. Entre las partes claves del procedimiento propuesto se tienen los siguientes puntos: (i) la creación de una base de datos realista de huecos de tensión a través del Programa de Estimación de Huecos de Tensión (PEHT) propuesto en el capítulo anterior; y, (ii) el criterio de máxima verosimilitud empleado para estimar las medidas de huecos de los nudos sin monitorización de la red evaluada. - Las predicciones de medidas de huecos de tensión del PEHT+MP se ven potenciadas por la propiedad de correlación de los huecos de tensión en diversas zonas de un sistema eléctrico. Esta característica intrínseca de las redes eléctricas limita de forma significativa la respuesta de las zonas fuertemente correlacionadas del sistema ante un eventual hueco de tensión. Como el PEHT+MP está basado en principios probabilísticos, la reducción del rango de las posibles medidas de huecos se ve reflejado en una mejor predicción de las medidas de huecos de la zona no monitorizada. - Con los datos de un conjunto de medidores relativamente pequeño del sistema, es posible obtener estimaciones precisas (error nulo) de la severidad de los huecos de la zona sin monitorizar en las tres redes estudiadas. - El PEHT+MP se puede aplicar a diversos tipos de indicadores de severidad de los huecos de tensión, como es el caso de los índices: SARFI-X, SARFI-Curve, SEI, etc. D. Localización óptima de medidores de huecos de tensión: Se plantean dos métodos para ubicar de forma estratégica al sistema de monitorización de huecos en una red genérica. La primera propuesta, que es una evolución metodológica de la localización óptima de medidores de huecos basada en el criterio de observabilidad (LOM+OBS); y, como segunda propuesta, un método que determina la localización de los medidores de huecos según el criterio del área de correlación (LOM+COR). Cada método de localización óptima de medidores propuesto tiene un objetivo concreto. En el caso del LOM+OBS, la finalidad del método es determinar el conjunto óptimo de medidores que permita registrar todos los fallos que originen huecos de tensión en la red. Por otro lado, en el método LOM+COR se persigue definir un sistema óptimo de medidores que, mediante la aplicación del PEHT+MP (implementado en el capítulo anterior), sea posible estimar de forma precisa las medidas de huecos de tensión de todo el sistema evaluado. A partir del desarrollo de los casos de estudio de los citados métodos de localización óptima de medidores en las tres redes planteadas, se describen a continuación las observaciones más relevantes: - Como la generación de pseudo-medidas de huecos de tensión de los métodos de localización óptima de medidores (LOM+OBS y LOM+COR) se obtienen mediante la aplicación del algoritmo PEHT, la formulación del criterio de optimización se realiza en base a una pseudo-monitorización realista, la cual considera la naturaleza aleatoria de los huecos de tensión a través de las cinco variables estocásticas modeladas en el PEHT. Esta característica de la base de datos de pseudo-medidas de huecos de los métodos LOM+OBS y LOM+COR brinda una mayor fiabilidad del conjunto óptimo de medidores calculado respecto a otros métodos similares en la bibliografía. - El conjunto óptimo de medidores se determina según la necesidad del operador de la red. Esto es, si el objetivo es registrar todos los fallos que originen huecos de tensión en el sistema, se emplea el criterio de observabilidad en la localización óptima de medidores de huecos. Por otra parte, si se plantea definir un sistema de monitorización que permita establecer la severidad de los huecos de tensión de todo el sistema en base a los datos de un conjunto reducido de medidores de huecos, el criterio de correlación resultaría el adecuado. De forma específica, en el caso del método LOM+OBS, basado en el criterio de observabilidad, se evidenciaron las siguientes propiedades en los casos de estudio realizados: - Al aumentar el tamaño de la red, se observa la tendencia de disminuir el porcentaje de nudos monitorizados de dicho sistema. Por ejemplo, para monitorizar los fallos que originan huecos en la red IEEE-24, se requiere monitorizar el 100\% de los nudos del sistema. En el caso de las redes IEEE-118 y EC-357, el método LOM+OBS determina que con la monitorización de un 89.5% y 65.3% del sistema, respectivamente, se cumpliría con el criterio de observabilidad del método. - El método LOM+OBS permite calcular la probabilidad de utilización del conjunto óptimo de medidores a largo plazo, estableciendo así un criterio de la relevancia que tiene cada medidor considerado como óptimo en la red. Con ello, se puede determinar el nivel de precisión u observabilidad (100%, 95%, etc.) con el cual se detectarían los fallos que generan huecos en la red estudiada. Esto es, al aumentar el nivel de precisión de detección de los fallos que originan huecos, se espera que aumente el número de medidores requeridos en el conjunto óptimo de medidores calculado. - El método LOM+OBS se evidencia como una técnica aplicable a todo tipo de sistema eléctrico (radial o mallado), el cual garantiza la detección de los fallos que originan huecos de tensión en un sistema según el nivel de observabilidad planteado. En el caso del método de localización óptima de medidores basado en el criterio del área de correlación (LOM+COR), las diversas pruebas realizadas evidenciaron las siguientes conclusiones: - El procedimiento del método LOM+COR combina los métodos de estimación de huecos de tensión de capítulos anteriores (PEHT y PEHT+MP) con técnicas de optimización lineal para definir la localización óptima de los medidores de huecos de tensión de una red. Esto es, se emplea el PEHT para generar los pseudo-registros de huecos de tensión, y, en base al criterio planteado de optimización (área de correlación), el LOM+COR formula y calcula analíticamente el conjunto óptimo de medidores de la red a largo plazo. A partir de la información registrada por este conjunto óptimo de medidores de huecos, se garantizaría una predicción precisa de la severidad de los huecos de tensión de todos los nudos del sistema con el PEHT+MP. - El método LOM+COR requiere un porcentaje relativamente reducido de nudos del sistema para cumplir con las condiciones de optimización establecidas en el criterio del área de correlación. Por ejemplo, en el caso del número total de huecos (SARFI-90) de las redes IEEE-24, IEEE-118 y EC-357, se calculó un conjunto óptimo de 9, 12 y 17 medidores de huecos, respectivamente. Es decir, solamente se requeriría monitorizar el 38\%, 10\% y 5\% de los sistemas indicados para supervisar los eventos SARFI-90 en toda la red. - El método LOM+COR se muestra como un procedimiento de optimización versátil, el cual permite reducir la dimensión del sistema de monitorización de huecos de redes eléctricas tanto radiales como malladas. Por sus características, este método de localización óptima permite emular una monitorización integral del sistema a través de los registros de un conjunto pequeño de monitores. Por ello, este nuevo método de optimización de medidores sería aplicable a operadores de redes que busquen disminuir los costes de instalación y operación del sistema de monitorización de los huecos de tensión. ABSTRACT I. GENERALITIES 1.1. Introduction Among the various types of electrical disturbances, voltage sags are considered the most common quality problem in power systems. This phenomenon is caused by an extreme increase of the current in the network, primarily caused by short-circuits or inadequate maneuvers in the system. This type of electrical disturbance is basically characterized by two parameters: residual voltage and duration. Typically, voltage sags occur when the residual voltage, in some phases, reaches a value between 0.01 to 0.9 pu and lasts up to 60 seconds. To an end user, the most important effect of a voltage sags is the interruption or alteration of their equipment operation, with electronic devices the most affected (e.g. computer, drive controller, PLC, relay, etc.). Due to the technology boom of recent decades and the constant search for automating production processes, the use of electronic components is essential today. This fact makes the effects of voltage sags more noticeable to the end user, causing the level of demand for a quality energy supply to be increased. In general, the study of voltage sags is usually approached from one of two aspects: the load or the network. From the point of view of the load, it is necessary to know the sensitivity characteristics of the equipment to model their response to sudden changes in power supply voltage. From the perspective of the network, the goal is to estimate or obtain adequate information to characterize the network behavior in terms of voltage sags. In this thesis, the work presented fits into the second aspect; that is, in the modeling and estimation of the response of a power system to voltage sag events. 1.2. Problem Statement Although voltage sags are the most frequent quality supply problem in electrical networks, thistype of disturbance remains complex and challenging to analyze properly. Among the most common reasons for this difficulty are: - The sag monitoring time, because it can take up to several years to get a statistically valid sample. - The limitation of funds for the acquisition and installation of sag monitoring equipment. - The high operating costs involved in the analysis of the voltage sag data from the installed monitors. - The restrictions that electrical companies have with the registered power quality data. That is, given the lack of data to further voltage sag analysis, it is of interest to electrical utilities and researchers to create reliable methods to deepen the study, estimation and monitoring of this electromagnetic phenomenon. Voltage sags, being mainly caused by random events such as short-circuits, are the result of various exogenous variables such as: (i) the number of faults of a system element, (ii) the impedance of the contact material, (iii) the fault type, (iv) the fault location, (v) the duration of the event, etc. That is, to properly raise any theoretical model of voltage sags, it is necessary to represent the combined uncertainty of variables to provide realistic methods that are reliable for users. 1.3. Objective This Thesis has been aimed at developing various stochastic methods for the study, estimation and monitoring of voltage sags in electrical power systems. Specifically, it has deepened the research in the following areas: - This research furthers knowledge in the realistic modeling of the variables that influence sag characterization. This thesis proposes a method to credibly represent the quantification and randomness of the sags in time by using parametric probability distributions. From this, a software tool was created to estimate the severity of voltage sags in a generic power system. - This research also analyzes the influence of the input variables in the estimation of voltage sags. In this case, the study has focused on the variables of greatest divergence in their characterization of the existing proposals. - A method was developed to estimate the number of voltage sags of an area without monitoring through the information of a limited set of sag monitors in an electrical system. To this end, the principles of Bayesian statistics are applied, estimating the number of sags most likely to happen in a system busbar based in records of other sag network busbars. - A strategy was developed to optimize the monitorization of voltage sags on a power system. Its purpose is to ensure the monitoring of the system through a number of monitors lower than the number of busbars of the network assessed. II. THESIS STRUCTURE To describe in detail the aforementioned proposals, this Thesis has been structured into six chapters. Below is are brief descriptions of them: As an introductory chapter, Chapter 1, provides a description of the approach and structure of this thesis. It presents a wide view of the problem to be treated, in addition to the description of the scope of each chapter. In Chapter 2, a brief description of the fundamental and general concepts of voltage sags is presented to provide to the reader a better understanding of the terms and indicators used in the severity analysis of voltage sags in power networks. Also, by way of background, a summary of the main features of existing techniques or methods used in the prediction and optimal monitoring of voltage sags is also presented. Chapter 3 essentially seeks to know the importance of the variables that determine the frequency or severity of voltage sags. To do this, a tool to estimate voltage sags is implemented that, through a predetermined set of experiments using the technique called Design of Experiments, discusses the importance of the parameters of the input variables of the model. Its analysis is interpreted by using the technique of analysis of variance (ANOVA), which provides mathematical rigor to establish whether the characterization of a particular variable affects the system response in terms of voltage sags or not. In Chapter 4, a methodology to predict the severity of voltage sags of an entire system through the sag logs of a reduced set of monitored busbars is proposed. For this, the Bayes conditional probability theorem is used, which calculates the most likely sag severity of the entire system from the information provided by the installed monitors. Also, in this chapter an important property of voltage sags is revealed, as is the correlation of the voltage sags events in several zones of a power system. In Chapter 5, two methods of optimal location of voltage sag monitors are developed. The first one is a methodological development of the observability criteria; it contributes to the realism of the sag pseudo-monitoring with which the optimal set of sag monitors is calculated and, therefore, to the reliability of the proposed method. As an alternative proposal, the correlation property of the sag events of a network is used to raise a method that establishes the sag severity of the entire system from a partial monitoring of the network. Finally, in Chapter 6, a brief description of the main contributions of the studies in this Thesis is detailed. Additionally, various themes to be developed in future works are described. III. RESULTS. Based on tests on the three networks presented, two IEEE test networks of 24 and 118 busbars (IEEE-24 and IEEE-118) and the electrical system of the Republic of Ecuador (EC-357), the following points present the most important observations: A. Estimation of voltage sags in the absence of measures: A stochastic estimation method of voltage sags, called PEHT, is implemented to represent with greater realism the long-term simulation of voltage sags events in a system. This first proposal of this thesis is considered a key step for the development of future methods of this work, as it emulates in a reliable manner the voltage sag long-term records in a generic network. Among the main innovations of this voltage sag estimation method are the following: - Consideration of the combined effect of five random input variables to simulate the events of voltage sags in long-term monitoring is included. The input variables modeled in the characterization of voltage sags on the PEHT are as follows: (i) fault coefficient, (ii) fault impedance, (iii) type of fault, (iv) location of the fault, and (v) fault duration. - Also included is the stochastic modeling of the input variables of fault impedance and duration in the characterization of the events of voltage sags. For the parameterization of these variables, a detailed study of the real behavior in power systems is developed. Also, the statistical function best suited to the random nature of each variable is defined. - Consideration of sag severity indicators used in standards as PEHT output variables, including such as indices as SARFI-X, SARFI-Curve, etc. B. Sensitivity analysis of voltage sags: A cause-effect study (sensitivity analysis) of the input variables of greatest divergence between reference parameterization related to the estimation of voltage sags in electrical networks is presented. Specifically, it delves into the study of the influence of the parameterization of the variables fault coefficient and fault impedance in the voltage sag estimation. Below is a summary of the most notable observations: - The accuracy of the input variable fault coefficient is shown as a non-influential parameter in the long-term estimation of the number of voltage sags (SARFI-90 and SARFI-70). That is, it does not require a high accuracy of the fault rate data of system elements for a proper voltage sag estimation. - The parameterization of the variable fault impedance is shown to be a very sensitive factor in the estimation of the voltage sag severity. For example, by increasing the average value of this random variable, the reported sag severity in the network significantly decreases. Moreover, in assessing the standard deviation of the fault impedance parameter, a direct relationship of this parameter with the voltage sag severity of the network is observed. That is, by increasing the fault impedance standard deviation, an increase of the average and the interannual variation of the SARFI-90 and SARFI-70 events is evidenced. - Based on the sensitivity analysis developed in the variable fault impedance, the omission of this variable in the voltage sag estimation would significantly call into question the reliability of the responses obtained. C. Voltage sag estimation from the information of a network partially monitored: A method that uses the voltage sag records of a partially monitored network for the sag estimation of all the power system is developed. From the case studies performed, it is observed that the method implemented (PEHT+MP) has the following characteristics: - The methodology proposed in the PEHT+MP combines the classical short-circuit theory with several statistical techniques to estimate, from data the of the installed sag meters, the sag measurements of unmonitored busbars of a generic power network. - The estimation process of voltage sags of the unmonitored zone of the network is based on the application of the conditional probability theorem of Bayes. That is, based on the observed data (monitored busbars records), the PEHT+MP calculates probabilistically the sag severity at unmonitored system busbars. Among the key parts of the proposed procedure are the following: (i) the creation of a realistic data base of voltage sags through of the sag estimation program (PEHT); and, (ii) the maximum likelihood criterion used to estimate the sag indices of system busbars without monitoring. - The voltage sag measurement estimations of PEHT+MP are potentiated by the correlation property of the sag events in power systems. This inherent characteristic of networks significantly limits the response of strongly correlated system zones to a possible voltage sag. As the PEHT+MP is based on probabilistic principles, a reduction of the range of possible sag measurements is reflected in a better sag estimation of the unmonitored area of the power system. - From the data of a set of monitors representing a relatively small portion of the system, to obtain accurate estimations (null error) of the sag severity zones without monitoring is feasible in the three networks studied. - The PEHT+MP can be applied to several types of sag indices, such as: SARFI-X, SARFI-Curve, SEI, etc. D. Optimal location of voltage sag monitors in power systems: Two methods for strategically locating the sag monitoring system are implemented for a generic network. The first proposal is a methodological development of the optimal location of sag monitors based on the observability criterion (LOM + OBS); the second proposal is a method that determines the sag monitor location according to the correlation area criterion (LOM+COR). Each proposed method of optimal location of sag monitors has a specific goal. In the case of LOM+OBS, the purpose of the method is to determine the optimal set of sag monitors to record all faults that originate voltage sags in the network. On the other hand, the LOM+COR method attempts to define the optimal location of sag monitors to estimate the sag indices in all the assessed network with the PEHT+MP application. From the development of the case studies of these methods of optimal location of sag monitors in the three networks raised, the most relevant observations are described below: - As the generation of voltage sag pseudo-measurements of the optimal location methods (LOM+OBS and LOM+COR) are obtained by applying the algorithm PEHT, the formulation of the optimization criterion is performed based on a realistic sag pseudo-monitoring, which considers the random nature of voltage sags through the five stochastic variables modeled in PEHT. This feature of the database of sag pseudo-measurements of the LOM+OBS and LOM+COR methods provides a greater reliability of the optimal set of monitors calculated when compared to similar methods in the bibliography. - The optimal set of sag monitors is determined by the network operator need. That is, if the goal is to record all faults that originate from voltage sags in the system, the observability criterion is used to determine the optimal location of sag monitors (LOM+OBS). Moreover, if the objective is to define a monitoring system that allows establishing the sag severity of the system from taken from information based on a limited set of sag monitors, the correlation area criterion would be appropriate (LOM+COR). Specifically, in the case of the LOM+OBS method (based on the observability criterion), the following properties were observed in the case studies: - By increasing the size of the network, there was observed a reduction in the percentage of monitored system busbars required. For example, to monitor all the faults which cause sags in the IEEE-24 network, then 100% of the system busbars are required for monitoring. In the case of the IEEE-118 and EC-357 networks, the method LOM+OBS determines that with monitoring 89.5 % and 65.3 % of the system, respectively, the observability criterion of the method would be fulfilled. - The LOM+OBS method calculates the probability of using the optimal set of sag monitors in the long term, establishing a relevance criterion of each sag monitor considered as optimal in the network. With this, the level of accuracy or observability (100%, 95%, etc.) can be determined, with which the faults that caused sags in the studied network are detected. That is, when the accuracy level for detecting faults that cause sags in the system is increased, a larger number of sag monitors is expected when calculating the optimal set of monitors. - The LOM + OBS method is demonstrated to be a technique applicable to any type of electrical system (radial or mesh), ensuring the detection of faults that cause voltage sags in a system according to the observability level raised. In the case of the optimal localization of sag monitors based on the criterion of correlation area (LOM+COR), several tests showed the following conclusions: - The procedure of LOM+COR method combines the implemented algorithms of voltage sag estimation (PEHT and PEHT+MP) with linear optimization techniques to define the optimal location of the sag monitors in a network. That is, the PEHT is used to generate the voltage sag pseudo-records, and, from the proposed optimization criterion (correlation area), the LOM+COR formulates and analytically calculates the optimal set of sag monitors of the network in the long term. From the information recorded by the optimal set of sag monitors, an accurate prediction of the voltage sag severity at all the busbars of the system is guaranteed with the PEHT+MP. - The LOM + COR method is shown to be a versatile optimization procedure, which reduces the size of the sag monitoring system both at radial as meshed grids. Due to its characteristics, this optimal location method allows emulation of complete system sag monitoring through the records of a small optimal set of sag monitors. Therefore, this new optimization method would be applicable to network operators that looks to reduce the installation and operation costs of the voltage sag monitoring system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El cálculo de cargas de aerogeneradores flotantes requiere herramientas de simulación en el dominio del tiempo que consideren todos los fenómenos que afectan al sistema, como la aerodinámica, la dinámica estructural, la hidrodinámica, las estrategias de control y la dinámica de las líneas de fondeo. Todos estos efectos están acoplados entre sí y se influyen mutuamente. Las herramientas integradas se utilizan para calcular las cargas extremas y de fatiga que son empleadas para dimensionar estructuralmente los diferentes componentes del aerogenerador. Por esta razón, un cálculo preciso de las cargas influye de manera importante en la optimización de los componentes y en el coste final del aerogenerador flotante. En particular, el sistema de fondeo tiene gran impacto en la dinámica global del sistema. Muchos códigos integrados para la simulación de aerogeneradores flotantes utilizan modelos simplificados que no consideran los efectos dinámicos de las líneas de fondeo. Una simulación precisa de las líneas de fondeo dentro de los modelos integrados puede resultar fundamental para obtener resultados fiables de la dinámica del sistema y de los niveles de cargas en los diferentes componentes. Sin embargo, el impacto que incluir la dinámica de los fondeos tiene en la simulación integrada y en las cargas todavía no ha sido cuantificada rigurosamente. El objetivo principal de esta investigación es el desarrollo de un modelo dinámico para la simulación de líneas de fondeo con precisión, validarlo con medidas en un tanque de ensayos e integrarlo en un código de simulación para aerogeneradores flotantes. Finalmente, esta herramienta, experimentalmente validada, es utilizada para cuantificar el impacto que un modelos dinámicos de líneas de fondeo tienen en la computación de las cargas de fatiga y extremas de aerogeneradores flotantes en comparación con un modelo cuasi-estático. Esta es una información muy útil para los futuros diseñadores a la hora de decidir qué modelo de líneas de fondeo es el adecuado, dependiendo del tipo de plataforma y de los resultados esperados. El código dinámico de líneas de fondeo desarrollado en esta investigación se basa en el método de los Elementos Finitos, utilizando en concreto un modelo ”Lumped Mass” para aumentar su eficiencia de computación. Los experimentos realizados para la validación del código se realizaron en el tanque del École Céntrale de Nantes (ECN), en Francia, y consistieron en sumergir una cadena con uno de sus extremos anclados en el fondo del tanque y excitar el extremo suspendido con movimientos armónicos de diferentes periodos. El código demostró su capacidad para predecir la tensión y los movimientos en diferentes posiciones a lo largo de la longitud de la línea con gran precisión. Los resultados indicaron la importancia de capturar la dinámica de las líneas de fondeo para la predicción de la tensión especialmente en movimientos de alta frecuencia. Finalmente, el código se utilizó en una exhaustiva evaluación del efecto que la dinámica de las líneas de fondeo tiene sobre las cargas extremas y de fatiga de diferentes conceptos de aerogeneradores flotantes. Las cargas se calcularon para tres tipologías de aerogenerador flotante (semisumergible, ”spar-buoy” y ”tension leg platform”) y se compararon con las cargas obtenidas utilizando un modelo cuasi-estático de líneas de fondeo. Se lanzaron y postprocesaron más de 20.000 casos de carga definidos por la norma IEC 61400-3 siguiendo todos los requerimientos que una entidad certificadora requeriría a un diseñador industrial de aerogeneradores flotantes. Los resultados mostraron que el impacto de la dinámica de las líneas de fondeo, tanto en las cargas de fatiga como en las extremas, se incrementa conforme se consideran elementos situados más cerca de la plataforma: las cargas en la pala y en el eje sólo son ligeramente modificadas por la dinámica de las líneas, las cargas en la base de la torre pueden cambiar significativamente dependiendo del tipo de plataforma y, finalmente, la tensión en las líneas de fondeo depende fuertemente de la dinámica de las líneas, tanto en fatiga como en extremas, en todos los conceptos de plataforma que se han evaluado. ABSTRACT The load calculation of floating offshore wind turbine requires time-domain simulation tools taking into account all the phenomena that affect the system such as aerodynamics, structural dynamics, hydrodynamics, control actions and the mooring lines dynamics. These effects present couplings and are mutually influenced. The results provided by integrated simulation tools are used to compute the fatigue and ultimate loads needed for the structural design of the different components of the wind turbine. For this reason, their accuracy has an important influence on the optimization of the components and the final cost of the floating wind turbine. In particular, the mooring system greatly affects the global dynamics of the floater. Many integrated codes for the simulation of floating wind turbines use simplified approaches that do not consider the mooring line dynamics. An accurate simulation of the mooring system within the integrated codes can be fundamental to obtain reliable results of the system dynamics and the loads. The impact of taking into account the mooring line dynamics in the integrated simulation still has not been thoroughly quantified. The main objective of this research consists on the development of an accurate dynamic model for the simulation of mooring lines, validate it against wave tank tests and then integrate it in a simulation code for floating wind turbines. This experimentally validated tool is finally used to quantify the impact that dynamic mooring models have on the computation of fatigue and ultimate loads of floating wind turbines in comparison with quasi-static tools. This information will be very useful for future designers to decide which mooring model is adequate depending on the platform type and the expected results. The dynamic mooring lines code developed in this research is based in the Finite Element Method and is oriented to the achievement of a computationally efficient code, selecting a Lumped Mass approach. The experimental tests performed for the validation of the code were carried out at the `Ecole Centrale de Nantes (ECN) wave tank in France, consisting of a chain submerged into a water basin, anchored at the bottom of the basin, where the suspension point of the chain was excited with harmonic motions of different periods. The code showed its ability to predict the tension and the motions at several positions along the length of the line with high accuracy. The results demonstrated the importance of capturing the evolution of the mooring dynamics for the prediction of the line tension, especially for the high frequency motions. Finally, the code was used for an extensive assessment of the effect of mooring dynamics on the computation of fatigue and ultimate loads for different floating wind turbines. The loads were computed for three platforms topologies (semisubmersible, spar-buoy and tension leg platform) and compared with the loads provided using a quasi-static mooring model. More than 20,000 load cases were launched and postprocessed following the IEC 61400-3 guideline and fulfilling the conditions that a certification entity would require to an offshore wind turbine designer. The results showed that the impact of mooring dynamics in both fatigue and ultimate loads increases as elements located closer to the platform are evaluated; the blade and the shaft loads are only slightly modified by the mooring dynamics in all the platform designs, the tower base loads can be significantly affected depending on the platform concept and the mooring lines tension strongly depends on the lines dynamics both in fatigue and extreme loads in all the platform concepts evaluated.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La obra de Julio Lafuente es extraordinariamente abundante y heterogenea, de un experimentalismo tan admirable en casos particulares como difícilmente caracterizable en su conjunto. El inventario ha revelado la existencia de más de 360 proyectos, de los que cerca de 200 están construidos, e incluye obras de arquitectura, urbanismo, escenografía y mobiliario, muchas de ellas reconocidas internacionalmente y profusamente publicadas entre 1950 y 1980. Es decir, nos encontramos ante un panorama de producción, divulgación y reconocimiento de su obra en el pasado reciente que contrasta con el actual desconocimiento de la misma. Situación que esta tesis doctoral pretende revertir. La investigación se articula en dos partes. La primera de ellas constituye el núcleo argumental y se compone de cuatro capítulos que permiten comprender el carácter de la obra de Julio Lafuente: su biografía profesional, una panorámica contextualizada de su obra, el estudio en profundidad de dos obras escogidas y la revisión transversal de los aspectos más relevantes en su arquitectura. Este primer volumen incluye dos capítulos adicionales: una bibliografía exhaustiva de sus obras y la traducción de publicaciones específicas coetáneas, recogidas en un anexo. La segunda parte consiste en una catalogación de la obra de Julio Lafuente, inexistente hasta la fecha, desarrollada por la autora en paralelo a su participación en la realización del Archivo de Julio Lafuente en Roma, lo que ha facilitado el acceso directo a la documentación original. Una revisión panorámica de diversas obras de Lafuente en relación con otras obras y corrientes de pensamiento coetáneas ha permitido comprender la pertenencia inequívoca de la obra de Julio Lafuente a su contexto: fundamentalmente, la Italia del período comprendido entre 1950 y 1980, un contexto del que se nutre y al que contribuye sin descanso. La mayor parte de la abundante obra arquitectónica de Lafuente se dedica al desarrollo de edificios de vivienda, normalmente construidos en los ensanches de Roma. En el conjunto de esta prolija trayectoria sobresalen, sin embargo, algunos logros extraordinarios que han permitido apoyar el desarrollo argumental de la investigación. Entre ellos, se han escogido para su estudio en profundidad dos obras —el hotel en la roca (1967), en Gozo (Malta) y el hipódromo de Tor di Valle (1959), en Roma—, que constituyen sendos casos singulares en los que Lafuente alcanza las cotas más altas de coherencia, significación y calidad arquitectónica, y que caracterizan el marco en el que se desarrolla la investigación: entre la utopía y la construcción. Al mismo tiempo, se trata de dos obras complementarias que llevan al extremo algunos de los aspectos a los que Julio Lafuente presta más atención en el conjunto de su obra, como la relación con el lugar, la invención estructural o el cuidado de los detalles constructivos. Estos rasgos se han revisado de un modo transversal en el último capítulo, incidiendo en algunos casos particulares que, a modo de metonimia, han permitido tomar la parte por el todo. La investigación confirma el compromiso de la obra de Lafuente con la lógica constructiva, si bien la componente idealizada se reconoce, aunque en un tono menor respecto al empeño constructivo, en una gran parte su arquitectura. Esta tendencia a la idealización es, posiblemente, una de las razones que ha llevado a quienes hasta hoy han escrito sobre su obra, a especular con las ideas de invención y utopía en la arquitectura de Julio Lafuente. El catálogo inédito de la obra de Julio Lafuente constituye la segunda parte de la tesis doctoral y permite realizar consultas posteriores que puedan dar continuidad a la investigación aquí iniciada. ABSTRACT The architectural work of Julio Lafuente is extraordinary wide and heterogeneous, of so admirable experimentalism in particular cases as difficult to be characterized as a whole. The inventory of his work has revealed the existence of more than 360 projects, of which about 200 are built, including works of architecture, urban planning, scenery and furniture, many of which were internationally recognized and widely published between 1950 and 1980. This overview of production, spread and recognition of his work in the recent past hugely contrasts with the current lack of knowledge of it. Situation that this PhD thesis aims to reverse. The thesis is divided into two parts. The first part is the core argument and comprises four sections that provide insights into the nature of the work of Julio Lafuente: professional biography, a contextualized view of his work, in-depth study of two selected works and cross review of the most relevant aspects in his architecture. This volume includes an exhaustive bibliography and translation of contemporaneous specific publications, incorporated in an annex. The second part consists of a catalog of the work of Julio Lafuente, non-existent to date, developed in parallel with the participation of the author in the making process of the Archive of Julio Lafuente in Rome, which has provided access to the original documentation. Research develops a wide-ranging approach to the architecture of Julio Lafuente in its context. To this purpose, various of his works have been reviewed in relation to other contemporary works, which have revealed a direct attachment of Lafuente’s work to its context: mainly Italy, for the period between 1950 and 1980. Most of his wide architectural work is related to housing projects, usually built in the extensions of Rome. In this broad regular work, however, highlight some outstanding achievements which have given support to the research argumental line. Among them, two works have been selected for an in-depth study: the hotel in the Maltese rock of Gozo (1967) and the Tor di Valle racecourse building (1959) in Rome. Both are individual cases in which Lafuente reaches the highest levels of coherence, significance and architectural quality, and both characterize the frame in which this research takes place: between utopia and construction. These selected projects are two complementary works that embody some of the aspects to which Julio Lafuente pays more attention, such as the experiencing of place, the structural invention or concern for construction details, among others. These features have been reviewed through a transversal regard in the last chapter, focusing on some particular cases, in the way in which metonymy is used, allowing to take the part for the whole. Research confirms that the work of Julio Lafuente stands out for its commitment to construction logic, while the idealized component is recognized, although in a minor key with respect to constructive engagement, in most of his architecture from the beginning to his latest proposals. This tendency to idealization is probably one of the reasons that has often led to those who have written about him, to speculate on the ideas of invention and utopia in the work of Julio Lafuente. The unpublished catalog of the work of Julio Lafuente, which constitutes the second part of the thesis, presents the architectural work of Julio Lafuente and allows further research that could continue the one started here.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

“La ciudad radical” es una tentativa de catálogo de ciudades radicales, un atlas abierto de los límites imaginarios de la convivencia colectiva. Llamo al catálogo “tentativa” porque un catálogo siempre es abierto. Abierto en un doble sentido, en sentido de inacabado, siempre caben futuras revisiones, adiciones, modificaciones, alteraciones de orden… y en el sentido de permitir multitud lecturas y posibilidades abiertas de interpretación. El tema central de este trabajo es, el imaginario, lo imaginario, la fantasía, la ficción…como condición fundamental de creación en el ámbito social. En lo imaginario, y en el imaginario, reside la infinita y reiterativa capacidad de la sociedad para inventarse y re-inventarse, para crearse y re-crearse en el mundo, a través de la ciudad. Ciudad radical es una ciudad extremada, en la que una de sus rasgos ha sido llevado al extremo. Pero radical (del latín radix) también quiere decir raíz, origen, fundamento. El objeto del catálogo también es doble. Por un lado, el interés de generar un compendio de ciudades radicales, extremadas, acumuladas en la historia. Por otro lado, el objeto del catálogo es aproximarnos a la idea que nos hemos hecho, a lo largo de la historia, de nuestra gran “obra” en la tierra, el artificio esencialmente humano que es la ciudad. El análisis de las ciudades radicales sirve de método para la aproximación a la idea de ciudad y para desentrañar las metáforas urbanas que nos habitan, aquellas que nos hacen pensar la ciudad y en las que la ciudad nos piensa. En última instancia esta tesis pretender encontrar indicios que nos ayuden en la respuesta de una pregunta esencial, por qué ciudades, qué fuerzas nos empujan hacia los otros bajo la forma de la ciudad, desde los orígenes. La historia de nuestras sociedades es la historia de nuestras ciudades. La historia de la ciudad, es nuestra historia. La ciudad es la gran creación humana en la tierra, el objeto y el sujeto de la convivencia, del hábitat social. En este sentido la radicalización nos acerca a la esencia humana, desde el extremo llegamos al centro, al origen. Pensamos la ciudad, la ciudad nos piensa. Creamos la ciudad, la ciudad nos crea. La ciudad es radical en un doble sentido, está en el extremo y está en el origen, que es también el fin. ABSTRACT “The radical city” is an attempt to catalogue radical cities throughout history, it aims to be an open atlas of the imaginary limits of coexistence and the living together. I call this work an “attempt” of catalogue due to the implied open nature of catalogues. Open in the sense of unfinished, there is always space for adding, reviewing, modifying, altering…but also open in the sense of multiple readings and several possibilities for interpretation, which this work allows. The main background theme underlying this catalogue, providing context to the way of understanding human beings, is the imaginary, imagination, fantasy, and fiction as the fundamental condition for social creation. The imaginary is where the endless and reiterative capacity for societies to invent and re-invent themselves, to create and re-create themselves through the city, lies in. Radical city is an extreme city, which one of the features has been pushed to the limit. Radical, (from the Latin form, radix) also means root, origin and fundament. The object of this catalogue is double as well. On the one hand, the intention of putting together, as accumulating, a whole range of radical and extreme cities throughout history. On the other hand, the intention of the catalogue is approaching the idea, the way we, as humans, envision our own creation on Earth, the city as a purely and essentially human invention. In this sense, the analysis of radically produced cities helps as a means to understand, or at least, to get closer to the idea of the city itself; to figure out the urban metaphors envisioning “us” as living in cities, those metaphors determining the way we envision “inhabiting” as an essential need, and which set up the imaginary limits within we, as social individuals, dream of the city or the way in which the city, as the radix, “dreams of ourselves”. Ultimately, this work aims to approach the answer to a fundamental question, why cities? Which forces push us towards the others in the form of the city since forever? The history of our societies is the history of our cities. The history of our cities is our own history. Cities are our greatest invention, object and subject of coexistence, radical trigger for the living together. In this sense, radicalization helps us to get closer to human essence, is by approaching the limits that we can we reach the centre, the origin. We envision the city and¬¬¬ the city envisions us. The city is radical in a double way, is both origin and limits, origin and end.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Etiquetamos para reducir nuestra incertidumbre; clasificamos en base a términos opuestos para poder entender. El universo y el espacio construido en particular, se explican desde una arquitectónica dual: dentro – fuera, arriba – abajo, derecha – izquierda, día – noche, hombre – mujer. Lo que nos diferencia como grupo, raza o género, distinguiendo los modos de vivir, las ideologías y las teorías, es la relación que establecemos entre los términos opuestos: entre lo individual y lo colectivo, lo privado y lo público, la imaginación y la realidad, la identidad y la otredad, el orden y el caos, el deseo y la saciedad. El afán clasificatorio dicotómico de la realidad que la modernidad lleva a su extremo, hiere la vida: la mutua exclusión de los opuestos elimina la distancia, el espacio-tiempo entre ambos, que es donde la vida se sitúa. La concepción dual que rige nuestro conocimiento contamina también la relación entre los arquitectos y la sociedad, siendo la causa del ambiente tóxico que envuelve al habitante que ya no se identifica con los lugares que habita. Puede que sea oportuno pasar del pensamiento binario a una lógica de lo intersticial que abandone la dualidad para instalarse en el Entre; los arquitectos serían mediadores entre el poder y la vida, sintiendo el Entre como el transcurso de la vida y la potencia de interacción: los lugares ambiguos e intermedios, es donde sucede el encuentro entre los términos, entre arquitectos y habitantes, entre la imaginación y la realidad, entre tú y yo. ABSTRACT We label to reduce our uncertainty; we classify based on opposites to understand. The universe and all constructed space in particular, are explained from a dual architecture: inside - out, up - down, right - left, day - night, male - female, black - white. What differentiate us as a group, race, gender, distinguishing the lifestyles, ideologies and theories, is how we draw the relation between the opposites: between the individual and the collective, private and public, imagination and reality , identity and otherness, order and disorder, desire and satiety. The dichotomous classification of reality that modernity carried to its extreme, hurts life: the mutual exclusion of opposites eliminates the distance, the space-time between the two, which is where life is located. The dual conception that governs our knowledge has also contaminated the relationship between architect and society, being the cause of the toxic environment that surrounds the inhabitant who no longer identify himself with the places he inhabit. It may be appropriate pass from binary thinking to a logic of the interstitial which abandon duality to settle in Between; architect then will be the mediator between authorities and life, sensing the Between as a flowing of life a potency of interaction rather than a separation between the extremes; ambiguous, in –between, places are where the encounter between opposites happens, between the architect and the inhabitant, between imagination and reality, between you and me.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo principal de este Proyecto Fin de Carrera (PFC), consiste en diseñar una plataforma Smart Services dentro de una compañía, para proporcionar a sus clientes servicios de Smart Cities. Se diseñará una plataforma que en fase de implantación llegue a prestar servicios extremo a extremo a las AAPP (Ayuntamientos y concesionarios de servicios municipales). Es decir, desde la petición del servicio, hasta que el mismo se provisiona y se pone en marcha. El diseño de la solución para el Sistema de Gestión deberá cumplir con las siguientes características: 1. Gestión end-to-end de la Plataforma Smart Services. 2. Cobertura a los diferentes módulos funcionales del propio Sistema de Gestión: 3. Gestión del inventario. 4. Gestión de la provisión. 5. Monitorización y supervisión de la Plataforma Smart Services. 6. Gestión del servicio. 7. Escalabilidad: La solución propuesta debe garantizar la escalabilidad necesaria para poder atender a las necesidades de volumetría. 8. Sistema de Gestión implementado bajo herramientas Open Source.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alison Margaret Gill y Peter Denham Smithson son, o eran, ambos murieron hace ya algunos años, dos arquitectos. Así dicho, esto suena a obviedad. Sin embargo no lo es, porque siempre han sido compactados en una unidad proyectual, bien bajo las siglas Alison y Peter Smithson, o bien, más puntualmente todavía, como los Smithson. Cuando Leibniz en 1696 le dice a la princesa electora Sofía que en algo tan puntual y homogéneo aparentemente como una gota de agua, vista al microscopio, resulta haber más de un millón de animales vivos, se puede empezar a vislumbrar el resultado de la Tesis. El resultado de este trabajo no se contempla un millón de partículas pero sí dos. La obra de Alison y Peter Smithson esta conformada desde su inicio probablemente por la particularidad de que en ella intervienen tanto Gill como Smithson, aunque cada uno sea en mayor o menor medida la o el responsable de un proyecto. Puesto al microscopio el proyecto del que se ocupa la Tesis, el concurso de 1953 para la ampliación de la Universidad de Sheffield, se estima que está compuesto de dos partes diferentes y que como Los Smithson o como una gota de agua, su unidad es una mera convención, una forma de designarlo y tratarlo, que falsea en algo su apreciación, aunque, como se verá, es lo que provoca el extraño efecto que como imagen ejerce. El Capítulo I descubre la duplicidad. Reyner Banham fijó en 1955, en el artículo The New Brutalism, el modo de encarar el proyecto de Sheffield cuando proyectó sobre él lo más novedoso que en el campo de la pintura ocurría en ese momento, el Art Autre. Michel Tapié ve en el informalismo presente en las obras que él engloba como un <> rasgos que puede presentar a la luz de conceptos que extrae de Riemann, matemático del s. XIX, introductor de una nueva geometría. La Tesis remonta por tanto hasta Riemann, a la búsqueda del concepto del que penden tanto Tapié como Banham. El concepto es la variedad continua; un conjunto, cuyos elementos pueden recorrer la extensión de la variedad mediante una deformación continua, como si dijéramos, diluyéndose unos en otros sin cortes entre sí. Los ejemplos del informalismo serían, por tanto, los puntos de la variedad, formas inestables o detenciones aleatorias en este transitar continuo de un mismo objeto. La visión de cuerpos en cortes aleatorios a la evolución otorga a sus formas cualesquiera la condición de extrañeza o perturbación, produciendo un impacto en la mente que lo graba instintivamente en la materia de la memoria. Así, es la memorabilidad, dada precisamente por el impacto que supone ver cuerpos en estado evolutivo, sin una forma precisa, la propiedad que gobierna a los objetos que caen bajo el Art Autre, y es la memorabilidad el rasgo distintivo de Sheffield para Banham. Este sentido evolutivo que se puede asociar a los elementos de una variedad entra en consonancia con una variedad de estados en evolución en el marco de las especies orgánicas. No sólo como individuo sino también como especie. La coincidencia no sólo es formal, también es temporal entre el descubrimiento de Riemann de la variedad continua y el de Darwin de la evolución de las especies. Ve Darwin que algunos ejemplares presentan en su cuerpo conformaciones normales de especies diferentes, que puede entenderse como una anormalidad o defecto evolutivo, lo que él llama <>. Un ejemplar monstruoso no es capaz de abrir una escisión de la variedad y en este sentido rompe su cadena evolutiva. Es un elemento, por tanto extraño a la variedad. Lo peculiar que expone Darwin, es que la monstruosidad puede ser provocada artificialmente por motivos estéticos, como ocurre en determinados animales o plantas ornamentales. Bien, esto es exactamente lo que descubre la Tesis en el proyecto de Sheffield. La unión en un solo proyecto de dos conformaciones de naturaleza diferente. El Capítulo II indaga en la naturaleza dual de Sheffield. Y la descubre en la aplicación de dos principios que tienen múltiples derivas, pero interesante en una en particular, referida al espacio. Uno es el Principio de Posición. Bajo él se contempla la situación del concurso dada en su globalidad, en una visión totalizadora que permite buscar y destacar posiciones singulares y tener un control preciso del proyecto desde el inicio. Se dice que es la opción normal en arquitectura comprender el espacio en su conjunto y que el trazado de ejes y el reparto del espacio obedecen a este principio. Son así vistos la propuesta ganadora del equipo GMW y fundamentalmente el trazado de ejes en la obra de Le Corbusier. Una parte de Sheffield es un producto típico de este modo de proceder. Hay un segundo principio que es el Principio de Transición Continua. En los términos expuestos para la variedad de Riemann, sería como si en lugar de ver cuerpos en estados concretos, por deformados que pudieran ser, nos introdujéramos dentro de la propia variedad acoplándonos al curso de la evolución misma, en un acto de unión interior con la marcha de la evolución. Para ejercer esta acción se toma como punto inicial el extremo del edificio universitario existente, el Firth Court, y se lleva cabo un estiramiento continuo. En esto radica lo que la Tesis distingue como la ampliación, el cuerpo que se enrosca paulatinamente. Para exponer este concepto, la Tesis se apoya en un ejercicio llevado a cabo por Raymond Unwin en Hampstead, el close, o estiramiento lateral del borde de un viario para hacer surgir el espacio útil residencial. A partir del concepto de close, se deriva en la urbanística americana de principios del s. XX el concepto de cluster, que pasa a ser uno de los argumentos principales de la teoría de Alison y de Peter Smithson en los años 50. El Capítulo III plantea la dificultad de mantener la dualidad de Sheffield a primeros de los 50, sometido el proyecto de arquitectura a la unicidad que impone el criterio hegemónico de Rudolf Wittkower desde “Los Fundamentos de la Arquitectura en la Edad del Humanismo”. Como en el Capítulo I, la obligación que se traza la Tesis es remontar los orígenes de las cosas que se tratan, y en este caso, entrar en las fuentes del principio proporcional. Se descubren así los fundamentos de la proporción aritmética y geométrica en el seno del pitagorismo, sus problemas y su evolución. La postura de los dos arquitectos frente a Wittkower es de admiración, pero también de libertad. Esta libertad suya es la que defiende la Tesis. Cotejando lo que da de sí la arquitectura basada en los principios proporcionales con otra arquitectura estancada en el paso del Renacimiento al Barroco como es la arquitectura perspectiva y proyectiva, la arquitectura oblicua, recuperada a la sazón por medio de la intervención en la Tesis de Panofsky, se dirimen aspectos colaterales pero fundamentales de una renovación de los planteamientos: hay planteamientos que se dicen esencialistas y objetivos y otros funcionales y que derivan en subjetivos y relacionales. Sobre estas dos marcos de categorías el propósito que persigue la Tesis es dar cuenta de los dos principios que rigen lo visto en el Capítulo II, el Principio de Posición y el Principio de Transición Continua, responsables ambos, al 50%, de la monstruosidad detectada en Sheffield, que no es negativa, sino, como decía Darwin, la combinación en un solo cuerpo de conformaciones normales en animales de especies diferentes, incluso con fines estéticos. En Sheffield existe, y esta dibujada, la figura de una cabeza escultural con un doble rostro. Todo el trabajo de la Tesis se encamina, en definitiva, a explicar, con toda la claridad y extensión que me ha sido posible, en qué consiste ese doble rostro. ABSTRACT Peter and Alison Smithson’s work is, is from its start, very influenced by both Alison Margaret Gill and Peter Denham Smithson. The matter of study of this Thesis, the 1953 competition for the expansion of the University of Sheffield, estimated after its exam, which is composed by two different parts, which, together produce a strange effect as an image. Reyner Banham in 1955 described the image in his article “The New Brutalism” as the key argument (most iconic) for the Sheffield’s project. The way his image powerfully influences sensitivity, by perturbation, makes this a singular and memorable image. This feature, only present in Sheffield, over any other building of the time, even from the same architects, allow Banham to associate the project to Art Autre, thought by Michel Tapié as a new artistic movement, to which Sheffield will belong, in the architecture part. Tapié sees in the informalism of works considered Art Autre some aspects that can bring concepts he extracts from Riemann, XIX Century mathematician, father of the new geometry. This Thesis discovers Riemann’s concept of continuous variety, a set whose elements are able to go through variety by a continuous deformation, diluting themselves without touching each other. Examples of informalism would be, points of that variety, unstable forms or random detentions in the continuous transit of the same object. Therefore, the condition of memorability comes precisely from the impact that seeing bodies in state of evolution creates. That evolutive sense that can be associated to elements of a variety, comes together with a variety of states of evolution in the world of organic species. Not only as an individual, but as well as a species. Coincidence between Riemann and Darwin’s discoveries is not only formal, but as well temporary. Darwin observes that some individuals of concrete species present on their bodies some features, typical of other species, which may be interpreted as evolutive failure. But the most peculiar part of what Darwin exposes is that monstrosity can indeed be artificially made for aesthetical purposes, like it happens in certain animals and plants. Well, this is what the Thesis discovers in Sheffield’s project. The union in a single project of two different nature forms, of which none on the parts is a deformation of the other, but they are both irreducible. Once both parts are collated, a new system which adapts well is discovered. It is a system created by Leibniz in the XVII Century, created to distinguish to principles that clear the difference between the equation methods and differential calculus. This principles are the Principle of Position and the Principle of Continuity. This two principles, translated to the spatial analysis field are key for the two parts of the project. On the one hand, the part developing in a lineal axis belongs to the Principle of Position. This means that that there is a global vision of space after which it is decided which operation to follow, which in this case consists of establishing an axis between two singular positions of the university area. The part which is being deformed while it goes is studied as a continuous action of stretching an existing building, the Firth Court, in which there is no previous spatial analysis. The only way to understand and to explain this action is by the Principle of Continuity. So, all in all, the Thesis changes the view of Sheffield from an Art Autre work to a “monstrosity”, without the negative meaning of it, just as a combination of two different nature formations, which, at the same time, justifies its power as iconic image. Finally, I would like to point out that in the Sheffield’s project there is (drawn and also physically) a sculptural head which has the feature of representing both, a man and a woman’s face. All the work of this Thesis leads to explaining the double nature of the project, taking this double expression head as inspiration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La medición del volumen de hormigón puesto en obra con la mayor precisión posible es de la mayor importancia cuando este se coloca sin utilizar encofrados que restrinjan su movimiento, como puede ocurrir durante la ejecución de pilotes in situ por el método de barrena continua con inyección de hormigón a través de la misma (Pilotes CFA) o en la ejecución del sostenimiento de túneles mediante el método de proyección de hormigón. En ambos casos se utilizan bombas alternativas para transportar el hormigón, y en ambos casos un control de calidad adecuado requeriría efectuar una correlación entre la posición del útil de colocación de hormigón (extremo inyector de la barrena para los pilotes CFA, tobera o boquilla en las máquinas de proyectar hormigón) y el volumen de hormigón colocado. La medición continua volumen -normalmente obtenido integrando el caudal- no ha sido sin embargo resuelta de forma satisfactoria. La práctica habitual de contar emboladas, multiplicarlas por el volumen de cada una y por la eficiencia de la bomba, es propensa a error, y propuestas innovadoras como la de R. D. Browne y P. B. Bamforth para la determinación en línea de la eficiencia no se han implementado en la práctica. El trabajo que se presenta en esta Tesis Doctoral pretende aportar nueva luz sobre el problema de la estimación en línea del volumen bombeado, cuando se utilizan bombas alternativas para la puesta en obra del mismo, con independencia del tipo de mezcla que se emplee. El estudio intenta abarcar todo el proceso de bombeo desde que la mezcla suministrada entra en la tolva de la máquina hasta que la misma llega al final del circuito de transporte. El trabajo se inicia con una exposición del problema y un estudio crítico del estado del arte, seguido por la presentación de la instalación experimental con la que se efectuó un importante número de ensayos de bombeo, en los que se obtuvieron registros continuos y discontinuos de las variables que intervienen en el proceso y de los resultados del mismo (volumen bombeado). Se realiza a continuación un primer análisis de los datos obtenidos, que incluye el del comportamiento de las mezclas en el bombeo y su evolución en el tiempo, la forma en que los parámetros de mezcla y operación afectan a la forma de los pulsos de presión y una comparación entre los volúmenes medidos y los estimados por el método utilizado en la actualidad y por el propuesto por Browne y Bamforth, que pone de manifiesto los errores a que estos pueden conducir. Posteriormente, se realiza un conjunto de análisis que permite establecer un modelo del proceso de bombeo tanto en régimen estacionario como transitorio, que a su vez permite calcular numéricamente la evolución en el tiempo de la presión en cualquier punto de una tubería de transporte de este material para una instalación, mezcla y condiciones de operación dadas. Este modelo depende de un conjunto de 9 parámetros, que en su mayoría, o bien son fijos, o son medibles, o son calculables en forma continua, siendo el resto, entre ellos la eficiencia volumétrica de la bomba, medibles de forma discontinua. En la práctica, si se instala sobre una bomba la instrumentación adecuada, solo uno de los parámetros del modelo puede considerarse como incógnita: la eficiencia volumétrica de la bomba. Sobre esta base, por último, se propone un método para la estimación en línea de la eficiencia volumétrica, basado en un ajuste paramétrico utilizando el modelo del proceso, que permite estimar el volumen bombeado con una precisión del orden del 1%. Como resultado adicional, pero con entidad propia, se propone un método para el control en línea de la bombeabilidad del hormigón, basado en datos obtenidos monitorizando el proceso de bombeo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno de los capítulos más interesantes del gótico europeo lo constituyen las bóvedas sexpartitas, sin lugar a dudas una de las bóvedas más singulares jamás creadas dentro de este estilo. Las primeras bóvedas góticas, en cruce de ojivas y de planta cuadrada, limitaban su uso a espacios relativamente pequeños, pero ante la necesidad de cubrir espacios de considerables dimensiones, apareció una nueva bóveda de características muy peculiares; la sexpartita. Esta bóveda en cruce de ojivas está reforzada por el centro con un arco paralelo a los arcos fajones que la divide por la mitad y que fragmenta el arco formero en dos, creando una pareja de ventanales en cada lado. La sencilla superficie en bóveda de arista, en el origen de las bóvedas de crucería, se complica extraordinariamente creando una volumetría de gran complejidad con seis cuarteles de plementería y con seis apoyos de distinto tamaño, cuatros esquineros y dos centrales más pequeños. Las dificultades que implica la construcción de este tipo de bóvedas explican quizás su abandono prematuro y la vuelta a la bóveda de crucería simple, ahora de tramos rectangulares. No obstante, a pesar de su corta existencia, la bóveda sexpartita fue la gran protagonista de los inicios del gótico y con ella se llevaron a cabo importantes abovedamientos, desde Inglaterra hasta Rumanía. La disciplina de la Historia de la Construcción se vio extraordinariamente favorecida por los estudios realizados en el siglo XIX, sin embargo su investigación se abandona durante el siglo XX para ser recuperada recientemente. Viollet-le-Duc, a finales del s. XIX, hace una sucinta explicación de este tipo de bóvedas. También Auguste Choisy, más tarde, dedica unas páginas a la bóveda sexpartita francesa; desde entonces, este tema, ha merecido escasísimas referencias en los estudios posteriores. Esta investigación se enmarca en este contexto y pretende poner de manifiesto los conocimientos geométricos y constructivos que hicieron posible la realización de las bóvedas sexpartitas europeas. Para ello se ha llevado a cabo la investigación de las principales bóvedas en Europa occidental; Francia, España, Inglaterra, Alemania, Suiza e Italia. Su estudio comparativo nos ha permitido poner de manifiesto sus características constructivas comunes y aquellos aspectos propios de cada país, así como algunos de los canales de comunicación que permitieron la expansión de esta arquitectura. Las nuevas tecnologías de medición, el escáner láser, la estación total, la fotogrametría, etc., han supuesto una revolución para la documentación y restauración del Patrimonio y un salto cualitativo formidable para el análisis de las bóvedas góticas, permitiendo estudios de la arquitectura histórica hasta ahora inabordables. Para realizar el análisis de las bóvedas sexpartitas europeas se ha llevado a cabo un levantamiento exhaustivo de las mismas, lo que ha permitido definir su despiece, obteniendo la forma de la talla de cada uno de los elementos constructivos que la componen; jarjas, dovelas, claves y plementería. La obtención de estos datos nos ha permitido abordar un profundo estudio de su estereotomía y construcción, aportando datos inéditos hasta el momento. Por otro lado se ha llevado a cabo la detección y catalogación de las principales bóvedas sexpartitas que aún se conservan en Europa. Los estudios realizados nos permiten afirmar que la bóveda sexpartita surge en Francia en la segunda mitad del siglo XII, utilizándose en las principales catedrales francesas, como Notre Dame de Paris, Bourges o Laon. A comienzos del siglo XIII cae en desuso en Francia y comienza su expansión por el resto de Europa, donde se abandona medio siglo después, desapareciendo definitivamente del gótico europeo. Mientras que los ejemplos que datan del siglo XII muestran soluciones escasamente desarrolladas y propias del románico, las bóvedas construidas en el siglo XIII muestran soluciones enormemente complejas, con grandes jarjamentos e inteligentes estrategias constructivas y geométricas que permiten la simplificación de sus estructuras auxiliares y una mayor libertad en su diseño. Estas bóvedas son el reflejo del desarrollo de la estereotomía gótica en sus comienzos por lo que su estudio nos ha permitido conocer el desarrollo y la evolución del gótico primitivo en Europa. ABSTRACT One of the most interesting chapters of European Gothic is the sexpartite vault, without doubt one of the most remarkable vaults ever created within this style. The first Gothic vaults, with crossed ribs on a square base, were restricted to relatively small areas, but a new vault, with very particular characteristics emerged to address the need to cover spaces of considerable size; the sexpartite vault. This cross-ribbed vault is reinforced in the centre by an arch that runs parallel to the transverse arches, divides the vault in half and splits the wall arch in two, creating a pair of windows, one on each side. The simple groin vault surface, the source of ribbed vaults, was greatly complicated creating a highly complex volume with six sections of severies and with six supports of different sizes, four on the corners and two smaller central ones. The construction difficulties involved in building this type of vault may explain its premature abandonment and a return to the simple cross-ribbed vault, now in rectangular sections. However, despite its brief existence, the sexpartite vault was the great protagonist of the beginnings of Gothic architecture and important vaulting was built using this system from England to Romania. Studies undertaken in the 19th century helped the History of Construction as a discipline tremendously. Research was abandoned during the twentieth century however, and has only recently been taken up again. Towards the end of the 19th century, Viollet-le-Duc gave a brief description of this type of vault. Later, Auguste de Choisy also devoted some pages to the French sexpartite vault; since then, later studies have made very few references to it. Against this background, this research now attempts to bring to light the knowledge of geometry and construction that made the construction of the European sexpartite vault possible. To this end, the main vaults in Western Europe - France, Spain, England, Germany, Switzerland and Italy, have been studied. By making a comparative study we have been able to reveal the common construction features and those that are specific to each country, as well as some of the channels of communication that enabled this architecture to spread. New measuring technologies, the laser scanner, total station, photogrammetry, etc., have given rise to a revolution in heritage documentation and restoration, as well as facilitating a huge qualitative leap for the analysis of Gothic vaults, enabling studies of historical architecture that until now were inaccessible. A comprehensive survey was carried out to be able to analyse European sexpartite vaults. We could thus create an exploded view, which enabled us to obtain the form of each of the elements; tas-de-charges, voussoirs, keystones and severies. The data gathered provided previously unknown facts that enabled us to make an in-depth study of stereotomy and construction. Furthermore, the main sexpartite vaults still preserved in Europe have been identified and categorised. The studies undertaken allowed us to affirm that the sexpartite vault appeared in France in the second half of the twelfth century, being used in the main French cathedrals, such as Notre Dame de Paris, Bourges or Laon. At the beginning of the thirteenth century it fell into disuse in France and began to expand throughout the rest of Europe, where it was abandoned half a century later, disappearing from European Gothic for good. While the examples dating back to the 12th century display poorly developed solutions more characteristic of the Romanesque, the vaults built in the 13th century reveal enormously complex solutions, with large tas-de-charges and intelligent construction and geometric strategies that allowed auxiliary support structures to be simplified, and gave more freedom to design. These vaults reflect the beginnings of Gothic stereotomy and by studying them we have been able to learn more about the development and evolution of Early Gothic architecture in Europe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la enseñanza de la arquitectura, el dibujo es tradicionalmente una materia propedéutica que requiere años de entrenamiento hasta conseguir la destreza necesaria para convertirse en herramienta de configuración y en lenguaje de comunicación del proyecto. El requerimiento de un dominio del dibujo eminentemente instrumental es el que encuentra en el año 1957 Javier Seguí, cuando entra en la Escuela Técnica Superior de Arquitectura de Madrid, y también en 1974, al obtener la cátedra de la asignatura de Análisis de Formas Arquitectónicas tras intentar, sin éxito, la cátedra de la asignatura Proyectos Arquitectónicos. Desde entonces, y durante treinta y nueve años como catedrático, ejerce de profesor en el ahora denominado Departamento de Ideación Gráfica Arquitectónica -agrupamiento de asignaturas encuadradas en un área de conocimiento- trabajando junto a un grupo de compañeros y alumnos que intentan desarrollar un proceso de cambio fundamental en la docencia del dibujo para abandonar la pura representación y convertirla en el dibujar para proyectar. Javier Seguí se jubila en el año 2010. Separado de la docencia y la investigación oficial, continúa dibujando y escribiendo, con el objeto de sistematizar y fundamentar todas aquellas prácticas desarrolladas y reivindicar el funcionamiento de la imaginación. Esta actividad de investigación, desde un extrañamiento extremo, permite elaborar tanto un listado de técnicas operativo-imaginarias de arranque de los procesos de proyectar, como reflexionar y recuperar algunas prácticas desarrolladas desde el grado cero y la radicalidad. Esta investigación aborda la práctica docente de Javier Seguí, ligándola a su producción investigadora desde sus propios dibujos, escritos y conversaciones realizadas en un momento en el que la crisis de la asignatura de dibujo es evidente en un contexto universitario desorientado, que constata el fracaso del cambio que Seguí soñara hace medio siglo. ABSTRACT In the teaching of architecture, drawing has traditionally been a propaedeutic subject requiring years of training to achieve the necessary skill to become a language and communication tool for project configuration. The requirement of a drawing domain aseminently instrumental is what Javier Seguí found in 1957 when he entered the Superior Technical School of Architecture of Madrid (Escuela Técnica Superior de Arquitectura de Madrid), and also in 1974, when he was awarded the position of Chair of Analysis of Architectural Forms after trying, unsuccessfully, the Chair of Architectural Projects. Since then, and for thirty-nine years as a Professor, he has taught at what now is called the Department of Architectural Graphic Ideation – group of subjects framed as an knowledge area -, in collaboration with a group of colleagues and students who try to develop a process of fundamental change in the teaching of drawing, through the abandonment of pure representation to transform drawing into a project. Javier Seguí retired in 2010. Separated from official teaching and research, he maintains a consistent practice of drawing and writing, in order to systematize and substantiate all practices developed and claim the use of the imagination. This research activity, from a one end distance, allows both a list of imaginary operational techniques to the start-up project processes, as much as recovering some practices developed from scratch and of a radical technical degree. This research addresses the teaching practice of Javier Segui, linking its research output of their own drawings, writings and conversations in a moment in which the crisis of the drawing subject is evident in a disoriented university context, demonstrating the failure of the exchange that Seguí has dreamed of since half a century ago.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo del presente trabajo fue analizar la influencia de un programa de entrenamiento de toma de decisiones en fútbol sobre el rendimiento específico en la toma de decisiones que se llevan a cabo en cada demarcación. Para ello, se analizó el índice de eficacia en la toma de decisiones específicas en dos grupos de jugadores amateur (n=32) que utilizaron dos procesos de entrenamiento diferentes. El grupo de control (n=16) utilizó un programa de entrenamiento integral propio del entrenamiento actual de toma decisiones mientras que el grupo experimental llevo a cabo un programa de entrenamiento específico de toma de decisiones compuesto por 8 sesiones. Se evaluó el nivel inicial (i) y final (f) en la toma de decisión específica de ambos grupos, antes y después de las 4 semanas de entrenamiento a través de un índice de actuación porcentual ((aciertos/errores)x100) para cada acción técnico–táctica especifica más relevante en cada demarcación. El test específico utilizado consistió en una situación competitiva de 8x8 en un espacio de 70 x 40 metros (3/4 del campo) en el que se analizaron la toma de decisión específica de cada demarcación: central, lateral derecho, lateral izquierdo, mediocentro, extremo derecho, extremo izquierdo y delantero centro. Se excluyó al portero. Para el diseño del test y la selección de las acciones de juego más relevantes de cada puesto específico fueron consultados expertos con experiencia y formación específica en fútbol. Tras la evaluación final, en ambos grupos se mejoraron las acciones técnico-tácticas específicas analizadas. Fueron mayores las mejoras del grupo experimental en todas las acciones evaluadas (p<.001). Se hallaron únicamente diferencias intergrupales en la evaluación final en M y PA (p<.001), mostrando el grupo experimental mejores resultados. Se concluye que un programa específico de toma de decisiones en fútbol posee un efecto positivo mayor que el proceso de entrenamiento técnico-táctico, sobre la toma de decisiones específica, siendo este efecto especialmente positivo en la demarcación de delantero.