927 resultados para Boom hispanoamericano
Resumo:
The current economic crisis has meant, particularly in Spain, the almost cessation of new buildings construction. This deep crisis will mean in future an irreversible change in the Spanish construction model, based to date almost exclusively on the brick. After focusing on the Spanish property boom and examining its impact on the concept of housing (in a few years the house has moved forward from being contemplated exclusively as a primary good to be also considered a capital asset), we analyse the influence that this transformation has had on architecture (housing typology, building methods, the architectural profession and the architect training) and offers architectural alternatives –trough the university– to the present crisis. The project “Houses built from accommodating cabins” is part of a larger research within the line “Modular Architecture” developed by the Research Group “Design and Industrial Production”, belonging to the Technical University of Madrid, which aims to respond to the need for decent housing at an affordable price, by offering through Internet the plans, resources and other technical details required to build a house oneself. The proposed houses are built from the combination of industrially made modules (accommodation cabins, which are prefabricated modules usually used as provisional constructions in conventional building works), prefabricated subsystems and other catalogue components available on the market, all they set together by dry joints.
Resumo:
ED bare theters are best systems to deorbit S/C at end of service. For near polar orbits, usual tethers kept vertical by the gravity gradient, yield too weak magnetic drag. Here we propose keeping tethers perpendicular to the orbital plane. they mus be rigid and short for structural reasons, requiring power supply like Ion thrusters. terher tube-booms that can be rolled up on a drum would lie on each side of the S/C. One boom, carying in idle Hollow Cathode, collects electrons; the opposite boom's HC ejects electrons.
Resumo:
Alcance y contenido: Copia ms. de un privilegio real de caballero, en Valencia, concedido a "Johannem Baptistam [de] Iuste, capitanem ex oppido de Villahermosa Regni nostri Valentini oriundum", y otorgado por Felipe III en agradecimiento a sus méritos militares durante los 28 años que estuvo a su servicio. Se describe el escudo de armas.
Resumo:
A mission on board a sounding rocket to carry out two bare-tether experiments is proposed: a test of orbital-motion-limited (OML) collection and the proof-of-flight of a technique to determine the (neutral) density vertical profile in the critical E-layer. Since full bias from the motional field will be small (~ 20V), corresponding to a tape 1 km long and V rocket <8 km/s, a power source with a range of supply voltages of few kV would be used. First, the negative terminal of the supply would be connected to the tape, and the positive terminal to a round, conductive boom of length 10 - 20 m; electrons collected by the boom cross the supply into the tape, where they leak out at the rate of ion impact plus secondary emission. Determination of the density profile from measurements of auroral emissions observed from the rocket, as secondaries racing down the magnetic field reach an E-layer footprint, are discussed. Next the positive terminal of the voltage supply is connected to the tape, and the negative terminal to a Hollow Cathode (HC); electrons now collected by the tape cross the supply, and are ejected at the HC. The opposite connections, with current collection operated by tape and boom, and operating on electrons and ions, and through partial switching in the supply, allow testing OML collection in almost all respects it depends on.
Resumo:
Desde los orígenes, la construcción popular ha vivido al lado --a veces, dentro-- de la arquitectura culta, encargándose de dar noticia y alojo a lo más vital de la existencia y poniéndose al servicio de lo construido para la pura representación. El interés por incorporar intelectualmente los depósitos plásticos, constructivos y funcionales de esa arquitectura anónima ha sido determinante para la configuración del Ciclo Moderno. Esta tesis se focaliza en la arquitectura que se hizo en la España de mediados del pasado siglo y que, de la mano de arquitectos como Fisac, Coderch, De la Sota y Fernández del Amo, entre otros, concretó un momento dulce en nuestra manera del construir y de habitar, fundamentado en una nueva mirada a lo popular, que supuso una contestación desde el realismo al tipismo de la Reconstrucción, la arquitectura monumentalista de la década de los 40. A partir del estudio sobre ese momento concreto de la arquitectura, nuestro campo reflexivo se amplía, por un lado, hacia la arquitectura de la Vanguardia de la II República (a la que, en cierto modo, se remite) y, por otro, hacia la rama de la arquitectura del Desarrollismo de los años 60, en la que continuó la invocación a lo popular como sustancia del proyecto, si bien entendida ahora en un sentido más amplio. La arquitectura de los maestros que articulan nuestro trabajo, entró de lleno en el debate sobre lo contextual, que acabará oficializándose tras la crisis del Movimiento Moderno acaecida sobre las ruinas de la II Guerra Mundial. El motivo de esta tesis es intentar hacer aflorar los útiles proyectuales de estas arquitecturas empeñadas en el arraigo, particularmente en un momento como el actual, en el que están experimentando un interesante renacer global. ABSTRACT From its origins, popular or traditional architecture has lived next door -- sometimes within-- high architecture, in charge of hosting and providing information about the most vital part of human existence, serving to what is built just for purely representative matters. Such an interest in intellectually incorporating the plastic, constructive and functional deposits from anonymous architecture has been instrumental in the configuration of the Modern Architectural Cycle. This thesis focuses on the architecture made in Spain halfway through the last century. Our way of building and living went through an extraordinary period by means of the work of architects such as Fisac, Coderch, De la Sota and Fernández del Amo, among others. Their projects, based on a new look at our popular material, became a rejoinder from realism to the picturesque model of the so-called Reconstrucción, the monumental architecture of the 40s. From the study of this particular architectural moment, the objective of our reflection widens, on the one hand, to the architecture of the Avantgarde of the II Spanish Republic (to which it somehow refers) and, secondly, to a branch of the architecture of the 60s (when an extraordinary development boom took place in Spain) which kept on relying on the popular as the essence of the project, although now understood in a broader sense. The architecture of the masters who articulate our work, engaged fully in the debate on the role of context which will eventually be formalized after the crisis of the Modern Movement occurred on the ruins of World War II. The purpose of this thesis is to try to bring out some of the project tools from these architectures committed to roots, particularly now, when they are experiencing an interesting overall reborn.
Resumo:
La aparición de los smartphones, trajo consigo el desarrollo de aplicaciones móviles de mensajería instantánea. Estas aplicaciones aprovechan la infraestructura de las redes de datos para enviar los mensajes de unos dispositivos a otros, lo que supone la posibilidad de enviar mensajes ilimitados a bajo coste. Hoy en día lo inusual es ver a alguna persona que haga uso de los antiguos mensajes de texto o sms (Short Message Service), que además llevan el coste de comunicación definido por las distintas operadoras. Tanto ha sido su auge que se ha convertido en uno de los principales medios de comunicación tanto en el ámbito personal como empresarial. Desafortunadamente, cada vez son más los conductores que hacen uso de las aplicaciones de mensajería para enviar y recibir mensajes mientras conducen, a pesar de que su uso está totalmente prohibido y penado por la ley. Por este motivo, en este proyecto se propone la modificación de la aplicación de mensajería Telegram, que permite controlar el env´ıo y recepción de mensajes únicamente utilizando la voz, evitando así cualquier tipo de distracci´on ocasionada por la interacción táctil con el dispositivo. Esta idea propuesta en el proyecto puede ayudar a reducir el número de accidentes ocasionados por este tipo de distracciones al volante, así como las posibles multas e incidentes que pueda ocasionar el uso del móvil durante la conducción. ---ABSTRACT---The emergence of smartphones, fostered the development of mobile instant messaging applications. These applications take advantage of the infrastructure of data networks to send messages between devices with almost no additional cost attached to it. Today you will hardly be able to find a person who makes use of the old text messages or sms (Short Message Service), and therefore bears the cost of communication defined by the respective operators. This boom has been such that it has become one of the main communication methods or channels in both the personal and work environments. Unfortunately, more and more drivers use messaging applications to send and receive messages while they are driving, even though its use is strictly prohibited and punished by law. Therefore our objective is to modify the existing messaging application Telegram allowing interaction with the mobile device by only using the user’s voice to send and receive messages, avoiding any distractions that any tactile interaction with the device could cause. The aim is to significantly try to reduce accidents caused while driving, as well as to avoid any related potential fines and incidents that may result from use of mobile phone while driving.
Resumo:
Durante los años de boom inmobiliario la obtención de plusvalías a través del desarrollo de operaciones de obra nueva fue llevada hasta sus últimas consecuencias. Ya en los años previos al estallido de la burbuja inmobiliaria, y con mayor fuerza tras éste, las políticas de rehabilitación y regeneración urbana se han presentado como una salida para un sector en crisis. Pero no sólo ese puede ser el objetivo, es necesario considerar la rehabilitación en áreas urbanas como una herramienta para el reequilibrio de la ciudad fragmentada y la incorporación de sus habitantes y espacios al proyecto de construcción de la ciudad democrática. Teniendo en cuenta esta dualidad, debemos plantearnos diversas cuestiones: ¿Cuál ha sido hasta ahora la evolución de las políticas de fomento de la rehabilitación urbana? ¿Cómo es el procedimiento que articula y gestiona el trasvase de ayudas al sector privado? ¿Sobre qué áreas de la ciudad han recaído las ayudas? Para dar respuesta a estas preguntas hemos analizado los programas de rehabilitación en áreas desarrollados en las últimas décadas a través de la financiación de los Planes de Vivienda estatales. El trabajo por un lado se centra en desgranar los documentos que conforman el marco legal de los planes de vivienda, analizando los programas y los mecanismos disponibles para la rehabilitación en áreas. Por otro, se analizan las áreas declaradas en ciudades de más de 50.000 habitantes y capitales de provincia, con el objetivo de evaluar la magnitud de las ayudas estatales y la evolución de su impacto en la ciudad consolidada y en las promociones periféricas.
Resumo:
Debido al gran auge en las comunicaciones móviles, los terminales cada vez son más finos a la par que más grandes, pues cada vez los usuarios quieren tener terminales delgados pero con pantallas mayores. Por ello, el objetivo principal del proyecto es aprender y analizar las antenas usadas en los teléfonos móviles, concretamente las antenas impresas. En los últimos años con el aumento de los servicios ofrecidos por los terminales móviles se han ido añadiendo distintas bandas de frecuencia en las que trabajan estos terminales. Por ello, ha sido necesario diseñar antenas que no funcionen únicamente en una banda de frecuencia, sino antenas multibanda, es decir, antenas capaces de funcionar en las distintas bandas de frecuencias. Para realizar las simulaciones y pruebas de este proyecto se utilizó el software FEKO, tanto el CAD FEKO como el POST FEKO. El CAD FEKO se empleó para el diseño de la antena, mientras que el POST FEKO sirvió para analizar las simulaciones. Por último, hay que añadir que FEKO aunque está basado en el Método de los Momentos (MoM) es una herramienta que puede utilizar varios métodos numéricos. Además del MoM puede utilizar otras técnicas (por separado o hibridizadas) como son el Métodos de Elementos Finitos (FEM), Óptica Física (PO), Lanzamiento de rayos con Óptica Geométrica (RL-GO), Teoría Uniforme de la Difracción (UTD), Método de las Diferencias Finitas en el Dominio del Tiempo (FDTD), ... ABSTRACT. Because of the boom in mobile communications, terminals are thinner and so large, because users want to thin terminals but with large screens. Therefore, the main objective of the project is to learn and analyse the antennas used in mobile phones, specifically printed antennas. In recent years with the rise of the services offered by mobile terminals have been adding different frequency bands in which these terminals work. For that reason, it has been necessary to design antennas that not work only in a frequency band, but multiband antennas, i.e., antennas capable of operating in different frequency bands. For performing simulations and testing in this project will be used software FEKO, as the CAD FEKO and POST FEKO. The CAD FEKO is used for the design of the antenna, whereas the POST FEKO is used for simulation analysis. Finally, it has to add that FEKO is based on the Method of Moments (MoM) but also it can use several numerical methods. Besides the MoM, FEKO can use other techniques (separated or hybridized) such as the Finite Element Method (FEM), Physical Optics (PO), Ray-launching Geometrical Optics (RL-GO), Uniform Theory of Diffraction (UTD), Finite Difference Time Domain (FDTD) …
Resumo:
No hay duda de que el ferrocarril es uno de los símbolos del avance tecnológico y social de la humanidad, y su imparable avance desde el primer tercio del Siglo XIX así lo atestigua. No obstante, a lo largo de gran parte de su historia se ha mostrado algo renuente a abrazar ciertas tecnologías, lo que le ha causado ser tachado de conservador. Sin embargo, en los últimos años, coincidiendo con el auge masivo de los trenes de alta velocidad, los metropolitanos y los tranvías, muchas tecnologías han ido penetrando en el mundo del ferrocarril. La que hoy nos ocupa es una de las que mayor valor añadido le ha proporcionado (y que probablemente le proporcionará también en el futuro): las comunicaciones móviles. Actualmente el uso de este tipo de tecnologías en el entorno ferroviario puede calificarse como de inicial o, por seguir la nomenclatura de las comunicaciones móviles públicas, de segunda generación. El GSM-R en las líneas de alta velocidad es un caso (aunque de éxito al fin y al cabo) que define perfectamente el estado del arte de las comunicaciones móviles en este entorno, ya que proporcionó un gran valor añadido a costa de un gran esfuerzo de estandarización; ha supuesto un importante salto adelante en el campo de la fiabilidad de este tipo de sistemas, aunque tiene unas grandes limitaciones de capacidad y graves problemas de escalabilidad. Todo hace pensar que en 2025 el sustituto de GSM-R deberá estar en el mercado. En cualquier caso, se debería abandonar la filosofía de crear productos de nicho, que son extraordinariamente caros, y abrazar las filosofías abiertas de las redes de comunicaciones públicas. Aquí es donde LTE, la última gran estrella de esta familia de estándares, puede aportar mucho valor. La idea subyacente detrás de esta Tesis es que LTE puede ser una tecnología que aporte gran valor a las necesidades actuales (y probablemente futuras) del sector del ferrocarril, no solamente en las líneas y trenes de alta velocidad, sino en las denominadas líneas convencionales y en los metros y tranvías. Dado que es un campo aún a día de hoy que dista bastante de estar completamente estudiado, se ha explorado la problemática de la propagación electromagnética en los diferentes entornos ferroviarios, como pueden ser los túneles de metro y la influencia de las estructuras de los trenes. En este sentido, se ha medido de forma bastante exhaustiva en ambos entornos. Por otro lado, dado que los sistemas multiantena son uno de los pilares fundamentales de los modernos sistemas de comunicaciones, se ha verificado de forma experimental la viabilidad de esta tecnología a la hora de implementar un sistema de comunicaciones trentierra en un túnel. Asimismo, de resultas de estas medidas, se ha comprobado la existencia de ciertos fenómenos físicos que pueden suponer una merma en la eficiencia de este tipo de sistemas. En tercer lugar, y dado que uno de los grandes desafíos de las líneas de alta velocidad está provocado por la gran celeridad a la que se desplazan los trenes, se ha explorado la influencia de este parámetro en la eficiencia global de una red completa de comunicaciones móviles. Por supuesto, se ha hecho especial hincapié en los aspectos relacionados con la gestión de la movilidad (traspasos o handovers Por último, a modo de cierre de la Tesis, se ha tratado de identificar los futuros servicios de comunicaciones que aportarán más valor a las explotaciones ferroviarias, así como los requisitos que supondrán para las redes de comunicaciones móviles. Para los casos antes enunciados (propagación, sistemas multiantena, movilidad y desafíos futuros) se proporcionan las contribuciones ya publicadas en revistas y congresos internacionales, así como las que están enviadas para su revisión. ABSTRACT There is almost no doubt that railways are one of the symbols of the technological and social progress of humanity. However, most of the time railways have been somewhat reluctant to embrace new technologies, gaining some reputation of being conservative. But in the last years, together with the massive boom of high speed lines, subways and trams all over the world, some technologies have broken through these conservative resistance. The one which concerns us now is one of the most value-added (both today and in the future): mobile communications. The state-of-the-art of these technologies in the railway field could be called as incipient, or (following the mobile communications’ notation) ‘second generation’. GSM-R, the best example of mobile communications in railways is a success story that shows perfectly the state-of-the-art of this field: it provided a noticeable mark-up but also required a great standardization effort; it also meant a huge step forward in the reliability of these systems but it also needs to face some scalability issues and some capacity problems. It looks more than feasible that in 2025 the alternative to GSM-R should be already available. Anyway, the vision here should be forgetting about expensive niche products, and embracing open standards like public mobile communications do. The main idea behind this Thesis is that LTE could be a technology that provides a lot of added value to the necessities of the railways of today and the future. And not only to highspeed lines, but also to the so-called conventional rail, subways and tramways. Due to the fact that even today, propagation in tunnels and influence of car bodies is far from being full-studied, we measured in a very exhaustive way the EM propagation in these two environments. Also, multiantenna systems are one of the basic foundations of the modern communications systems, so we experimentally verified the feasibility of using such a system in a train-towayside in a tunnel. Moreover, from the measurements carried out we proved the existence of some physical phenomena that could imply a decrease in the performance of these multiantenna systems. In third place, we have explored the influence of high-speed in the whole performance of the network, from the mobility management point-of-view. This high-speed movement is one of the most relevant challenges for the mobile communications networks. The emphasis was placed on the mobility aspects of the radio resource management. Finally, the Thesis closure is an identification of the future communication services that could provide a bigger addition of value to railways, and also the requirements that imply to mobile communications networks. For all the previous for scenarios depicted before (propagation, multiantenna systems, mobility and challenges) we provide some contributions already published (or submitted for revision or still in progress) on publications and international conferences.
Resumo:
La forma de consumir contenidos en Internet ha cambiado durante los últimos años. Inicialmente se empleaban webs estáticas y con contenidos pobres visualmente. Con la evolución de las redes de comunicación, esta tendencia ha variado. A día de hoy, deseamos páginas agradables, accesibles y que nos presenten temas variados. Todo esto ha cambiado la forma de crear páginas web y en todos los casos se persigue el objetivo de atraer a los usuarios. El gran auge de los smartphones y las aplicaciones móviles que invaden el mercado actual han revolucionado el mundo del estudio de los idiomas permitiendo compatibilizar los recursos punteros con el aprendizaje tradicional. La popularidad de los dispositivos móviles y de las aplicaciones ha sido el principal motivo de la realización de este proyecto. En él se realizará un análisis de las diferentes tecnologías existentes y se elegirá la mejor opción que se ajuste a nuestras necesidades para poder desarrollar un sistema que implemente el enfoque llamado Mobile Assisted Language Learning (MALL) que supone una aproximación innovadora al aprendizaje de idiomas con la ayuda de un dispositivo móvil. En este documento se va a ofrecer una panorámica general acerca del desarrollo de aplicaciones para dispositivos móviles en el entorno del e-learning. Se estudiarán características técnicas de diferentes plataformas seleccionando la mejor opción para la implementación de un sistema que proporcione los contenidos básicos para el aprendizaje de un idioma, en este caso del inglés, de forma intuitiva y divertida. Dicho sistema permitirá al usuario mejorar su nivel de inglés mediante una interfaz web de forma dinámica y cercana empleando los recursos que ofrecen los dispositivos móviles y haciendo uso del diseño adaptativo. Este proyecto está pensado para los usuarios que dispongan de poco tiempo libre para realizar un curso de forma presencial o, mejor aún, para reforzar o repasar contenidos ya aprendidos por otros medios más tradicionales o no. La aplicación ofrece la posibilidad de que se haga uso del sistema de forma fácil y sencilla desde cualquier dispositivo móvil del que se disponga como es un smartphone, tablet o un ordenador personal, compitiendo con otros usuarios o contra uno mismo y mejorando así el nivel de partida a través de las actividades propuestas. Durante el proyecto se han comparado diversas soluciones, la mayoría de código abierto y de libre distribución que permiten desplegar servicios de almacenamiento accesibles mediante Internet. Se concluirá con un caso práctico analizando los requisitos técnicos y llevando a cabo las fases de análisis, diseño, creación de la base de datos, implementación y pruebas dentro del ciclo de vida del software. Finalmente, se migrará la aplicación con toda la información a un servidor en la nube. ABSTRACT. The way of consuming content on the Internet has changed over the past years. Initially, static websites were used with poor visual contents. Nevertheless, with the evolution of communication networks this trend has changed. Nowadays, we expect pleasant, accessible and varied topic pages and such expectations have changed the way to create web pages generally aiming at appealing and therefore, attracting users. The great boom of smartphones and mobile applications in the current market, have revolutionized the world of language learning as they make it possible to combine computing with traditional learning resources. The popularity of mobile devices and applications has been the main reason for the development of this project. Here, the different existing technologies will be examined and we will try to select the best option that adapts to our needs in order to develop a system that implements Mobile Assisted Language Learning (MALL) that in broad terms implies an approach to language learning with the help of a mobile device. This report provides an overview of the development of applications for mobile devices in the e-learning environment. We will study the technical characteristics of different platforms and we will select the best option for the implementation of a system that provide the basic content for learning a language, in this case English, by means of an intuitive and fun method. This system will allow the user to improve their level of English with a web interface in a dynamic and close way employing the resources offered by mobile devices using the adaptive design. This project is intended for users who do not have enough free time to make a classroom course or to review contents from more traditional courses as it offers the possibility to make use of the system quickly and easily from any mobile device available such as a smartphone, a tablet or a personal computer, competing with other users or against oneself and thus improving their departing level through different activities. During the project, different solutions have been compared. Most of them, open source and free distribution that allow to deploy storage services accessible via the Internet. It will conclude with a case study analyzing the technical requirements and conducting phases of analysis, design and creation of a database, implementation and testing in the software lifecycle. Finally, the application will be migrated with all the information to a server in the cloud.
Resumo:
Los nombres que se usan actualmente para las grúas los ponen las empresas fabricantes y muy frecuentemente no tienen relación con su tipología ni con su capacidad. Por otra parte, es de uso común en la construcción, llamar a las grúas usando su tonelaje nominal que coincide normalmente con su capacidad máxima que se obtiene a radio mínimo. Existe una controversia por el uso de este valor ya que no suele definir bien la capacidad de las maquinas. En cuanto el radio de trabajo se aleja de sus valores mínimos, las grúas están limitadas por el momento de vuelco que no tiene porque comportarse de manera proporcional o ni siquiera relacionada con el valor de la capacidad nominal. Esto hace que comparar grúas mediante sus capacidades nominales (que son sus denominaciones) pueda inducir a errores importantes. Como alternativa, se pretende estudiar el uso de momento máximo de vuelco MLM por sus siglas en ingles (Maximum Load Moment) para intentar definir la capacidad real de las grúas. Se procede a realizar un análisis técnico y financiero de grúas con respecto a ambos valores mencionados con objeto de poder determinar cual de los dos parámetros es más fiable a la hora de definir la capacidad real de estas maquinas. Para ello, se seleccionan dentro de las tres tipologías más importantes por su presencia e importancia en la construcción (grúas de celosía sobre cadenas, grúas telescópicas sobre camión y grúas torre) nueve grúas de distintos tamaños y capacidades con objeto de analizar una serie de parámetros técnicos y sus costes. Se realizan de este modo diversas comparativas analizando los resultados en función de las tipologías y de los tamaños de las distintas maquinas. Para cada máquina se obtienen las capacidades y los momentos de vuelco correspondientes a distintos radios de trabajo. Asimismo, se obtiene el MLM y el coste hora de cada grúa, este último como suma de la amortización de la máquina, intereses del capital invertido, consumos, mantenimiento y coste del operador. Los resultados muestran las claras deficiencias del tonelaje nominal como valor de referencia para definir la capacidad de las grúas ya que grúas con el mismo tonelaje nominal pueden dar valores de capacidad de tres a uno (e incluso mayores) cuando los radios de trabajo son importantes. A raiz de este análisis se propone el uso del MLM en lugar del tonelaje nominal para la denominación de las grúas ya que es un parámetro mucho más fiable. Siendo conscientes de la dificultad que supone un cambio de esta entidad al tratarse de un uso común a nivel mundial, se indican posibles actuaciones concretas que puedan ir avanzando en esa dirección como seria por ejemplo la nomenclatura oficial de los fabricantes usando el MLM dentro del nombre de la grúa que también podría incluir la tipología o al menos alguna actuación legislativa sencilla como obligar al fabricante a indicar este valor en las tablas y características de cada máquina. El ratio analizado Coste horario de la grúa / MLM resulta ser de gran interés y permite llegar a la conclusión que en todas las tipologías de grúas, la eficiencia del coste por hora y por la capacidad (dada por el MLM) aumenta al aumentar la capacidad de la grúa. Cuando los tamaños de cada tipología se reducen, esta eficiencia disminuye y en algunos casos incluso drasticamente. La tendencia del mundo de la construcción de prefabricación y modularización que conlleva pesos y dimensiones de cargas cada vez más grandes, demandan cada vez grúas de mayor capacidad y se podría pensar en un primer momento que ante un crecimiento de capacidades tan significativo, el coste de las grúas se podría disparar y por ello disminuir la eficiencia de estas máquinas. A la vista de los resultados obtenidos con este análisis, no solo no ocurre este problema sino que se observa que dicho aumento de tamaños y capacidades de grúas redunda en un aumento de su eficiencia en cualquiera de las tipologías de estas maquinas que han sido estudiadas. The crane names that are actually used are given by crane manufacturers and, very frequently, they do not have any relationship with the crane type nor with its capacity. On the other hand, it is common in construction to use the nominal capacity (which corresponds in general to the capacity at minimum radius) as crane name. The use of this figure is controversial since it does not really reflect the real crane capacity. When the working radius increases a certain amount from its minimum values, the crane capacity starts to be limited by the crane tipping load and the moment is not really related to the value of the nominal capacity. Therefore, comparing cranes by their nominal capacity (their names) can lead to important mistakes. As an alternative, the use of the maximum load moment (MLM) can be studied for a better definition of real crane capacity. A technical and financial analysis of cranes is conducted using both parameters to determine which one is more reliable in order to define crane’s real capacity. For this purpose, nine cranes with different sizes and capacities will be selected within the most relevant crane types (crawler lattice boom cranes, telescopic truck mounted cranes and tower cranes) in order to analyze several parameters. The technical and economic results will be compared according to the crane types and sizes of the machines. For each machine, capacities and load moments are obtained for several working radius as well as MLM and hourly costs of cranes. Hourly cost is calculated adding up depreciation, interests of invested capital, consumables, maintenance and operator’s cost. The results show clear limitations for the use of nominal capacity as a reference value for crane definition since cranes with the same nominal capacity can have capacity differences of 3 to 1 (or even bigger) when working on important radius. From this analysis, the use of MLM as crane name instead of nominal capacity is proposed since it is a much more reliable figure. Being aware of the difficulty of such change since nominal capacity is commonly used worldwide; specific actions are suggested to progress in that direction. One good example would be that manufacturers would include MLM in their official crane names which could also include the type as well. Even legal action can be taken by simply requiring to state this figure in the crane charts and characteristics of every machine. The analyzed ratio: hourly cost / MLM is really interesting since it leads to the conclusion that for all crane types, the efficiency of the hourly cost divided by capacity (given by MLM) increases when the crane capacity is higher. When crane sizes are smaller, this efficiency is lower and can fall dramatically in certain cases. The developments in the construction world regarding prefabrication and modularization mean bigger weights and dimensions, which create a demand for bigger crane capacities. On a first approach, it could be thought that crane costs could rise significantly because of this capacity hugh increase reducing in this way crane efficiency. From the results obtained here, it is clear that it is definitely not the case but the capacity increase of cranes will end up in higher efficiency levels for all crane types that have been studied.
Resumo:
I. GENERALIDADES 1.1. Introducción Entre los diversos tipos de perturbaciones eléctricas, los huecos de tensión son considerados el problema de calidad de suministro más frecuente en los sistemas eléctricos. Este fenómeno es originado por un aumento extremo de la corriente en el sistema, causado principalmente por cortocircuitos o maniobras inadecuadas en la red. Este tipo de perturbación eléctrica está caracterizado básicamente por dos parámetros: tensión residual y duración. Típicamente, se considera que el hueco se produce cuando la tensión residual alcanza en alguna de las fases un valor entre 0.01 a 0.9 pu y tiene una duración de hasta 60 segundos. Para un usuario final, el efecto más relevante de un hueco de tensión es la interrupción o alteración de la operación de sus equipos, siendo los dispositivos de naturaleza electrónica los principalmente afectados (p. ej. ordenador, variador de velocidad, autómata programable, relé, etc.). Debido al auge tecnológico de las últimas décadas y a la búsqueda constante de automatización de los procesos productivos, el uso de componentes electrónicos resulta indispensable en la actualidad. Este hecho, lleva a que los efectos de los huecos de tensión sean más evidentes para el usuario final, provocando que su nivel de exigencia de la calidad de energía suministrada sea cada vez mayor. De forma general, el estudio de los huecos de tensión suele ser abordado bajo dos enfoques: en la carga o en la red. Desde el punto de vista de la carga, se requiere conocer las características de sensibilidad de los equipos para modelar su respuesta ante variaciones súbitas de la tensión del suministro eléctrico. Desde la perspectiva de la red, se busca estimar u obtener información adecuada que permita caracterizar su comportamiento en términos de huecos de tensión. En esta tesis, el trabajo presentado se encuadra en el segundo aspecto, es decir, en el modelado y estimación de la respuesta de un sistema eléctrico de potencia ante los huecos de tensión. 1.2. Planteamiento del problema A pesar de que los huecos de tensión son el problema de calidad de suministro más frecuente en las redes, hasta la actualidad resulta complejo poder analizar de forma adecuada este tipo de perturbación para muchas compañías del sector eléctrico. Entre las razones más comunes se tienen: - El tiempo de monitorización puede llegar a ser de varios años para conseguir una muestra de registros de huecos estadísticamente válida. - La limitación de recursos económicos para la adquisición e instalación de equipos de monitorización de huecos. - El elevado coste operativo que implica el análisis de los datos de los medidores de huecos de tensión instalados. - La restricción que tienen los datos de calidad de energía de las compañías eléctricas. Es decir, ante la carencia de datos que permitan analizar con mayor detalle los huecos de tensión, es de interés de las compañías eléctricas y la academia poder crear métodos fiables que permitan profundizar en el estudio, estimación y supervisión de este fenómeno electromagnético. Los huecos de tensión, al ser principalmente originados por eventos fortuitos como los cortocircuitos, son el resultado de diversas variables exógenas como: (i) la ubicación de la falta, (ii) la impedancia del material de contacto, (iii) el tipo de fallo, (iv) la localización del fallo en la red, (v) la duración del evento, etc. Es decir, para plantear de forma adecuada cualquier modelo teórico sobre los huecos de tensión, se requeriría representar esta incertidumbre combinada de las variables para proveer métodos realistas y, por ende, fiables para los usuarios. 1.3. Objetivo La presente tesis ha tenido como objetivo el desarrollo diversos métodos estocásticos para el estudio, estimación y supervisión de los huecos de tensión en los sistemas eléctricos de potencia. De forma específica, se ha profundizado en los siguientes ámbitos: - En el modelado realista de las variables que influyen en la caracterización de los huecos. Esto es, en esta Tesis se ha propuesto un método que permite representar de forma verosímil su cuantificación y aleatoriedad en el tiempo empleando distribuciones de probabilidad paramétricas. A partir de ello, se ha creado una herramienta informática que permite estimar la severidad de los huecos de tensión en un sistema eléctrico genérico. - Se ha analizado la influencia la influencia de las variables de entrada en la estimación de los huecos de tensión. En este caso, el estudio se ha enfocado en las variables de mayor divergencia en su caracterización de las propuestas existentes. - Se ha desarrollado un método que permite estima el número de huecos de tensión de una zona sin monitorización a través de la información de un conjunto limitado de medidas de un sistema eléctrico. Para ello, se aplican los principios de la estadística Bayesiana, estimando el número de huecos de tensión más probable de un emplazamiento basándose en los registros de huecos de otros nudos de la red. - Plantear una estrategia para optimizar la monitorización de los huecos de tensión en un sistema eléctrico. Es decir, garantizar una supervisión del sistema a través de un número de medidores menor que el número de nudos de la red. II. ESTRUCTURA DE LA TESIS Para plantear las propuestas anteriormente indicadas, la presente Tesis se ha estructurado en seis capítulos. A continuación, se describen brevemente los mismos. A manera de capítulo introductorio, en el capítulo 1, se realiza una descripción del planteamiento y estructura de la presente tesis. Esto es, se da una visión amplia de la problemática a tratar, además de describir el alcance de cada capítulo de la misma. En el capítulo 2, se presenta una breve descripción de los fundamentos y conceptos generales de los huecos de tensión. Los mismos, buscan brindar al lector de una mejor comprensión de los términos e indicadores más empleados en el análisis de severidad de los huecos de tensión en las redes eléctricas. Asimismo, a manera de antecedente, se presenta un resumen de las principales características de las técnicas o métodos existentes aplicados en la predicción y monitorización óptima de los huecos de tensión. En el capítulo 3, se busca fundamentalmente conocer la importancia de las variables que determinen la frecuencia o severidad de los huecos de tensión. Para ello, se ha implementado una herramienta de estimación de huecos de tensión que, a través de un conjunto predeterminado de experimentos mediante la técnica denominada Diseño de experimentos, analiza la importancia de la parametrización de las variables de entrada del modelo. Su análisis, es realizado mediante la técnica de análisis de la varianza (ANOVA), la cual permite establecer con rigor matemático si la caracterización de una determinada variable afecta o no la respuesta del sistema en términos de los huecos de tensión. En el capítulo 4, se propone una metodología que permite predecir la severidad de los huecos de tensión de todo el sistema a partir de los registros de huecos de un conjunto reducido de nudos de dicha red. Para ello, se emplea el teorema de probabilidad condicional de Bayes, el cual calcula las medidas más probables de todo el sistema a partir de la información proporcionada por los medidores de huecos instalados. Asimismo, en este capítulo se revela una importante propiedad de los huecos de tensión, como es la correlación del número de eventos de huecos de tensión en diversas zonas de las redes eléctricas. En el capítulo 5, se desarrollan dos métodos de localización óptima de medidores de huecos de tensión. El primero, que es una evolución metodológica del criterio de observabilidad; aportando en el realismo de la pseudo-monitorización de los huecos de tensión con la que se calcula el conjunto óptimo de medidores y, por ende, en la fiabilidad del método. Como una propuesta alternativa, se emplea la propiedad de correlación de los eventos de huecos de tensión de una red para plantear un método que permita establecer la severidad de los huecos de todo el sistema a partir de una monitorización parcial de dicha red. Finalmente, en el capítulo 6, se realiza una breve descripción de las principales aportaciones de los estudios realizados en esta tesis. Adicionalmente, se describen diversos temas a desarrollar en futuros trabajos. III. RESULTADOS En base a las pruebas realizadas en las tres redes planteadas; dos redes de prueba IEEE de 24 y 118 nudos (IEEE-24 e IEEE-118), además del sistema eléctrico de la República del Ecuador de 357 nudos (EC-357), se describen los siguientes puntos como las observaciones más relevantes: A. Estimación de huecos de tensión en ausencia de medidas: Se implementa un método estocástico de estimación de huecos de tensión denominado PEHT, el cual representa con mayor realismo la simulación de los eventos de huecos de un sistema a largo plazo. Esta primera propuesta de la tesis, es considerada como un paso clave para el desarrollo de futuros métodos del presente trabajo, ya que permite emular de forma fiable los registros de huecos de tensión a largo plazo en una red genérica. Entre las novedades más relevantes del mencionado Programa de Estimación de Huecos de Tensión (PEHT) se tienen: - Considerar el efecto combinado de cinco variables aleatorias de entrada para simular los eventos de huecos de tensión en una pseudo-monitorización a largo plazo. Las variables de entrada modeladas en la caracterización de los huecos de tensión en el PEHT son: (i) coeficiente de fallo, (ii) impedancia de fallo, (iii) tipo de fallo, (iv) localización del fallo y (v) duración. - El modelado estocástico de las variables de entrada impedancia de fallo y duración en la caracterización de los eventos de huecos de tensión. Para la parametrización de las variables mencionadas, se realizó un estudio detallado del comportamiento real de las mismas en los sistemas eléctricos. Asimismo, se define la función estadística que mejor representa la naturaleza aleatoria de cada variable. - Considerar como variables de salida del PEHT a indicadores de severidad de huecos de uso común en las normativas, como es el caso de los índices: SARFI-X, SARFI-Curve, etc. B. Análisis de sensibilidad de los huecos de tensión: Se presenta un estudio causa-efecto (análisis de sensibilidad) de las variables de entrada de mayor divergencia en su parametrización entre las referencias relacionadas a la estimación de los huecos de tensión en redes eléctricas. De forma específica, se profundiza en el estudio de la influencia de la parametrización de las variables coeficiente de fallo e impedancia de fallo en la predicción de los huecos de tensión. A continuación un resumen de las conclusiones más destacables: - La precisión de la variable de entrada coeficiente de fallo se muestra como un parámetro no influyente en la estimación del número de huecos de tensión (SARFI-90 y SARFI-70) a largo plazo. Es decir, no se requiere de una alta precisión del dato tasa de fallo de los elementos del sistema para obtener una adecuada estimación de los huecos de tensión. - La parametrización de la variable impedancia de fallo se muestra como un factor muy sensible en la estimación de la severidad de los huecos de tensión. Por ejemplo, al aumentar el valor medio de esta variable aleatoria, se disminuye considerablemente la severidad reportada de los huecos en la red. Por otra parte, al evaluar el parámetro desviación típica de la impedancia de fallo, se observa una relación directamente proporcional de este parámetro con la severidad de los huecos de tensión de la red. Esto es, al aumentar la desviación típica de la impedancia de fallo, se evidencia un aumento de la media y de la variación interanual de los eventos SARFI-90 y SARFI-70. - En base al análisis de sensibilidad desarrollado en la variable impedancia de fallo, se considera muy cuestionable la fiabilidad de los métodos de estimación de huecos de tensión que omiten su efecto en el modelo planteado. C. Estimación de huecos de tensión en base a la información de una monitorización parcial de la red: Se desarrolla un método que emplea los registros de una red parcialmente monitorizada para determinar la severidad de los huecos de todo el sistema eléctrico. A partir de los casos de estudio realizados, se observa que el método implementado (PEHT+MP) posee las siguientes características: - La metodología propuesta en el PEHT+MP combina la teoría clásica de cortocircuitos con diversas técnicas estadísticas para estimar, a partir de los datos de los medidores de huecos instalados, las medidas de huecos de los nudos sin monitorización de una red genérica. - El proceso de estimación de los huecos de tensión de la zona no monitorizada de la red se fundamenta en la aplicación del teorema de probabilidad condicional de Bayes. Es decir, en base a los datos observados (los registros de los nudos monitorizados), el PEHT+MP calcula de forma probabilística la severidad de los huecos de los nudos sin monitorización del sistema. Entre las partes claves del procedimiento propuesto se tienen los siguientes puntos: (i) la creación de una base de datos realista de huecos de tensión a través del Programa de Estimación de Huecos de Tensión (PEHT) propuesto en el capítulo anterior; y, (ii) el criterio de máxima verosimilitud empleado para estimar las medidas de huecos de los nudos sin monitorización de la red evaluada. - Las predicciones de medidas de huecos de tensión del PEHT+MP se ven potenciadas por la propiedad de correlación de los huecos de tensión en diversas zonas de un sistema eléctrico. Esta característica intrínseca de las redes eléctricas limita de forma significativa la respuesta de las zonas fuertemente correlacionadas del sistema ante un eventual hueco de tensión. Como el PEHT+MP está basado en principios probabilísticos, la reducción del rango de las posibles medidas de huecos se ve reflejado en una mejor predicción de las medidas de huecos de la zona no monitorizada. - Con los datos de un conjunto de medidores relativamente pequeño del sistema, es posible obtener estimaciones precisas (error nulo) de la severidad de los huecos de la zona sin monitorizar en las tres redes estudiadas. - El PEHT+MP se puede aplicar a diversos tipos de indicadores de severidad de los huecos de tensión, como es el caso de los índices: SARFI-X, SARFI-Curve, SEI, etc. D. Localización óptima de medidores de huecos de tensión: Se plantean dos métodos para ubicar de forma estratégica al sistema de monitorización de huecos en una red genérica. La primera propuesta, que es una evolución metodológica de la localización óptima de medidores de huecos basada en el criterio de observabilidad (LOM+OBS); y, como segunda propuesta, un método que determina la localización de los medidores de huecos según el criterio del área de correlación (LOM+COR). Cada método de localización óptima de medidores propuesto tiene un objetivo concreto. En el caso del LOM+OBS, la finalidad del método es determinar el conjunto óptimo de medidores que permita registrar todos los fallos que originen huecos de tensión en la red. Por otro lado, en el método LOM+COR se persigue definir un sistema óptimo de medidores que, mediante la aplicación del PEHT+MP (implementado en el capítulo anterior), sea posible estimar de forma precisa las medidas de huecos de tensión de todo el sistema evaluado. A partir del desarrollo de los casos de estudio de los citados métodos de localización óptima de medidores en las tres redes planteadas, se describen a continuación las observaciones más relevantes: - Como la generación de pseudo-medidas de huecos de tensión de los métodos de localización óptima de medidores (LOM+OBS y LOM+COR) se obtienen mediante la aplicación del algoritmo PEHT, la formulación del criterio de optimización se realiza en base a una pseudo-monitorización realista, la cual considera la naturaleza aleatoria de los huecos de tensión a través de las cinco variables estocásticas modeladas en el PEHT. Esta característica de la base de datos de pseudo-medidas de huecos de los métodos LOM+OBS y LOM+COR brinda una mayor fiabilidad del conjunto óptimo de medidores calculado respecto a otros métodos similares en la bibliografía. - El conjunto óptimo de medidores se determina según la necesidad del operador de la red. Esto es, si el objetivo es registrar todos los fallos que originen huecos de tensión en el sistema, se emplea el criterio de observabilidad en la localización óptima de medidores de huecos. Por otra parte, si se plantea definir un sistema de monitorización que permita establecer la severidad de los huecos de tensión de todo el sistema en base a los datos de un conjunto reducido de medidores de huecos, el criterio de correlación resultaría el adecuado. De forma específica, en el caso del método LOM+OBS, basado en el criterio de observabilidad, se evidenciaron las siguientes propiedades en los casos de estudio realizados: - Al aumentar el tamaño de la red, se observa la tendencia de disminuir el porcentaje de nudos monitorizados de dicho sistema. Por ejemplo, para monitorizar los fallos que originan huecos en la red IEEE-24, se requiere monitorizar el 100\% de los nudos del sistema. En el caso de las redes IEEE-118 y EC-357, el método LOM+OBS determina que con la monitorización de un 89.5% y 65.3% del sistema, respectivamente, se cumpliría con el criterio de observabilidad del método. - El método LOM+OBS permite calcular la probabilidad de utilización del conjunto óptimo de medidores a largo plazo, estableciendo así un criterio de la relevancia que tiene cada medidor considerado como óptimo en la red. Con ello, se puede determinar el nivel de precisión u observabilidad (100%, 95%, etc.) con el cual se detectarían los fallos que generan huecos en la red estudiada. Esto es, al aumentar el nivel de precisión de detección de los fallos que originan huecos, se espera que aumente el número de medidores requeridos en el conjunto óptimo de medidores calculado. - El método LOM+OBS se evidencia como una técnica aplicable a todo tipo de sistema eléctrico (radial o mallado), el cual garantiza la detección de los fallos que originan huecos de tensión en un sistema según el nivel de observabilidad planteado. En el caso del método de localización óptima de medidores basado en el criterio del área de correlación (LOM+COR), las diversas pruebas realizadas evidenciaron las siguientes conclusiones: - El procedimiento del método LOM+COR combina los métodos de estimación de huecos de tensión de capítulos anteriores (PEHT y PEHT+MP) con técnicas de optimización lineal para definir la localización óptima de los medidores de huecos de tensión de una red. Esto es, se emplea el PEHT para generar los pseudo-registros de huecos de tensión, y, en base al criterio planteado de optimización (área de correlación), el LOM+COR formula y calcula analíticamente el conjunto óptimo de medidores de la red a largo plazo. A partir de la información registrada por este conjunto óptimo de medidores de huecos, se garantizaría una predicción precisa de la severidad de los huecos de tensión de todos los nudos del sistema con el PEHT+MP. - El método LOM+COR requiere un porcentaje relativamente reducido de nudos del sistema para cumplir con las condiciones de optimización establecidas en el criterio del área de correlación. Por ejemplo, en el caso del número total de huecos (SARFI-90) de las redes IEEE-24, IEEE-118 y EC-357, se calculó un conjunto óptimo de 9, 12 y 17 medidores de huecos, respectivamente. Es decir, solamente se requeriría monitorizar el 38\%, 10\% y 5\% de los sistemas indicados para supervisar los eventos SARFI-90 en toda la red. - El método LOM+COR se muestra como un procedimiento de optimización versátil, el cual permite reducir la dimensión del sistema de monitorización de huecos de redes eléctricas tanto radiales como malladas. Por sus características, este método de localización óptima permite emular una monitorización integral del sistema a través de los registros de un conjunto pequeño de monitores. Por ello, este nuevo método de optimización de medidores sería aplicable a operadores de redes que busquen disminuir los costes de instalación y operación del sistema de monitorización de los huecos de tensión. ABSTRACT I. GENERALITIES 1.1. Introduction Among the various types of electrical disturbances, voltage sags are considered the most common quality problem in power systems. This phenomenon is caused by an extreme increase of the current in the network, primarily caused by short-circuits or inadequate maneuvers in the system. This type of electrical disturbance is basically characterized by two parameters: residual voltage and duration. Typically, voltage sags occur when the residual voltage, in some phases, reaches a value between 0.01 to 0.9 pu and lasts up to 60 seconds. To an end user, the most important effect of a voltage sags is the interruption or alteration of their equipment operation, with electronic devices the most affected (e.g. computer, drive controller, PLC, relay, etc.). Due to the technology boom of recent decades and the constant search for automating production processes, the use of electronic components is essential today. This fact makes the effects of voltage sags more noticeable to the end user, causing the level of demand for a quality energy supply to be increased. In general, the study of voltage sags is usually approached from one of two aspects: the load or the network. From the point of view of the load, it is necessary to know the sensitivity characteristics of the equipment to model their response to sudden changes in power supply voltage. From the perspective of the network, the goal is to estimate or obtain adequate information to characterize the network behavior in terms of voltage sags. In this thesis, the work presented fits into the second aspect; that is, in the modeling and estimation of the response of a power system to voltage sag events. 1.2. Problem Statement Although voltage sags are the most frequent quality supply problem in electrical networks, thistype of disturbance remains complex and challenging to analyze properly. Among the most common reasons for this difficulty are: - The sag monitoring time, because it can take up to several years to get a statistically valid sample. - The limitation of funds for the acquisition and installation of sag monitoring equipment. - The high operating costs involved in the analysis of the voltage sag data from the installed monitors. - The restrictions that electrical companies have with the registered power quality data. That is, given the lack of data to further voltage sag analysis, it is of interest to electrical utilities and researchers to create reliable methods to deepen the study, estimation and monitoring of this electromagnetic phenomenon. Voltage sags, being mainly caused by random events such as short-circuits, are the result of various exogenous variables such as: (i) the number of faults of a system element, (ii) the impedance of the contact material, (iii) the fault type, (iv) the fault location, (v) the duration of the event, etc. That is, to properly raise any theoretical model of voltage sags, it is necessary to represent the combined uncertainty of variables to provide realistic methods that are reliable for users. 1.3. Objective This Thesis has been aimed at developing various stochastic methods for the study, estimation and monitoring of voltage sags in electrical power systems. Specifically, it has deepened the research in the following areas: - This research furthers knowledge in the realistic modeling of the variables that influence sag characterization. This thesis proposes a method to credibly represent the quantification and randomness of the sags in time by using parametric probability distributions. From this, a software tool was created to estimate the severity of voltage sags in a generic power system. - This research also analyzes the influence of the input variables in the estimation of voltage sags. In this case, the study has focused on the variables of greatest divergence in their characterization of the existing proposals. - A method was developed to estimate the number of voltage sags of an area without monitoring through the information of a limited set of sag monitors in an electrical system. To this end, the principles of Bayesian statistics are applied, estimating the number of sags most likely to happen in a system busbar based in records of other sag network busbars. - A strategy was developed to optimize the monitorization of voltage sags on a power system. Its purpose is to ensure the monitoring of the system through a number of monitors lower than the number of busbars of the network assessed. II. THESIS STRUCTURE To describe in detail the aforementioned proposals, this Thesis has been structured into six chapters. Below is are brief descriptions of them: As an introductory chapter, Chapter 1, provides a description of the approach and structure of this thesis. It presents a wide view of the problem to be treated, in addition to the description of the scope of each chapter. In Chapter 2, a brief description of the fundamental and general concepts of voltage sags is presented to provide to the reader a better understanding of the terms and indicators used in the severity analysis of voltage sags in power networks. Also, by way of background, a summary of the main features of existing techniques or methods used in the prediction and optimal monitoring of voltage sags is also presented. Chapter 3 essentially seeks to know the importance of the variables that determine the frequency or severity of voltage sags. To do this, a tool to estimate voltage sags is implemented that, through a predetermined set of experiments using the technique called Design of Experiments, discusses the importance of the parameters of the input variables of the model. Its analysis is interpreted by using the technique of analysis of variance (ANOVA), which provides mathematical rigor to establish whether the characterization of a particular variable affects the system response in terms of voltage sags or not. In Chapter 4, a methodology to predict the severity of voltage sags of an entire system through the sag logs of a reduced set of monitored busbars is proposed. For this, the Bayes conditional probability theorem is used, which calculates the most likely sag severity of the entire system from the information provided by the installed monitors. Also, in this chapter an important property of voltage sags is revealed, as is the correlation of the voltage sags events in several zones of a power system. In Chapter 5, two methods of optimal location of voltage sag monitors are developed. The first one is a methodological development of the observability criteria; it contributes to the realism of the sag pseudo-monitoring with which the optimal set of sag monitors is calculated and, therefore, to the reliability of the proposed method. As an alternative proposal, the correlation property of the sag events of a network is used to raise a method that establishes the sag severity of the entire system from a partial monitoring of the network. Finally, in Chapter 6, a brief description of the main contributions of the studies in this Thesis is detailed. Additionally, various themes to be developed in future works are described. III. RESULTS. Based on tests on the three networks presented, two IEEE test networks of 24 and 118 busbars (IEEE-24 and IEEE-118) and the electrical system of the Republic of Ecuador (EC-357), the following points present the most important observations: A. Estimation of voltage sags in the absence of measures: A stochastic estimation method of voltage sags, called PEHT, is implemented to represent with greater realism the long-term simulation of voltage sags events in a system. This first proposal of this thesis is considered a key step for the development of future methods of this work, as it emulates in a reliable manner the voltage sag long-term records in a generic network. Among the main innovations of this voltage sag estimation method are the following: - Consideration of the combined effect of five random input variables to simulate the events of voltage sags in long-term monitoring is included. The input variables modeled in the characterization of voltage sags on the PEHT are as follows: (i) fault coefficient, (ii) fault impedance, (iii) type of fault, (iv) location of the fault, and (v) fault duration. - Also included is the stochastic modeling of the input variables of fault impedance and duration in the characterization of the events of voltage sags. For the parameterization of these variables, a detailed study of the real behavior in power systems is developed. Also, the statistical function best suited to the random nature of each variable is defined. - Consideration of sag severity indicators used in standards as PEHT output variables, including such as indices as SARFI-X, SARFI-Curve, etc. B. Sensitivity analysis of voltage sags: A cause-effect study (sensitivity analysis) of the input variables of greatest divergence between reference parameterization related to the estimation of voltage sags in electrical networks is presented. Specifically, it delves into the study of the influence of the parameterization of the variables fault coefficient and fault impedance in the voltage sag estimation. Below is a summary of the most notable observations: - The accuracy of the input variable fault coefficient is shown as a non-influential parameter in the long-term estimation of the number of voltage sags (SARFI-90 and SARFI-70). That is, it does not require a high accuracy of the fault rate data of system elements for a proper voltage sag estimation. - The parameterization of the variable fault impedance is shown to be a very sensitive factor in the estimation of the voltage sag severity. For example, by increasing the average value of this random variable, the reported sag severity in the network significantly decreases. Moreover, in assessing the standard deviation of the fault impedance parameter, a direct relationship of this parameter with the voltage sag severity of the network is observed. That is, by increasing the fault impedance standard deviation, an increase of the average and the interannual variation of the SARFI-90 and SARFI-70 events is evidenced. - Based on the sensitivity analysis developed in the variable fault impedance, the omission of this variable in the voltage sag estimation would significantly call into question the reliability of the responses obtained. C. Voltage sag estimation from the information of a network partially monitored: A method that uses the voltage sag records of a partially monitored network for the sag estimation of all the power system is developed. From the case studies performed, it is observed that the method implemented (PEHT+MP) has the following characteristics: - The methodology proposed in the PEHT+MP combines the classical short-circuit theory with several statistical techniques to estimate, from data the of the installed sag meters, the sag measurements of unmonitored busbars of a generic power network. - The estimation process of voltage sags of the unmonitored zone of the network is based on the application of the conditional probability theorem of Bayes. That is, based on the observed data (monitored busbars records), the PEHT+MP calculates probabilistically the sag severity at unmonitored system busbars. Among the key parts of the proposed procedure are the following: (i) the creation of a realistic data base of voltage sags through of the sag estimation program (PEHT); and, (ii) the maximum likelihood criterion used to estimate the sag indices of system busbars without monitoring. - The voltage sag measurement estimations of PEHT+MP are potentiated by the correlation property of the sag events in power systems. This inherent characteristic of networks significantly limits the response of strongly correlated system zones to a possible voltage sag. As the PEHT+MP is based on probabilistic principles, a reduction of the range of possible sag measurements is reflected in a better sag estimation of the unmonitored area of the power system. - From the data of a set of monitors representing a relatively small portion of the system, to obtain accurate estimations (null error) of the sag severity zones without monitoring is feasible in the three networks studied. - The PEHT+MP can be applied to several types of sag indices, such as: SARFI-X, SARFI-Curve, SEI, etc. D. Optimal location of voltage sag monitors in power systems: Two methods for strategically locating the sag monitoring system are implemented for a generic network. The first proposal is a methodological development of the optimal location of sag monitors based on the observability criterion (LOM + OBS); the second proposal is a method that determines the sag monitor location according to the correlation area criterion (LOM+COR). Each proposed method of optimal location of sag monitors has a specific goal. In the case of LOM+OBS, the purpose of the method is to determine the optimal set of sag monitors to record all faults that originate voltage sags in the network. On the other hand, the LOM+COR method attempts to define the optimal location of sag monitors to estimate the sag indices in all the assessed network with the PEHT+MP application. From the development of the case studies of these methods of optimal location of sag monitors in the three networks raised, the most relevant observations are described below: - As the generation of voltage sag pseudo-measurements of the optimal location methods (LOM+OBS and LOM+COR) are obtained by applying the algorithm PEHT, the formulation of the optimization criterion is performed based on a realistic sag pseudo-monitoring, which considers the random nature of voltage sags through the five stochastic variables modeled in PEHT. This feature of the database of sag pseudo-measurements of the LOM+OBS and LOM+COR methods provides a greater reliability of the optimal set of monitors calculated when compared to similar methods in the bibliography. - The optimal set of sag monitors is determined by the network operator need. That is, if the goal is to record all faults that originate from voltage sags in the system, the observability criterion is used to determine the optimal location of sag monitors (LOM+OBS). Moreover, if the objective is to define a monitoring system that allows establishing the sag severity of the system from taken from information based on a limited set of sag monitors, the correlation area criterion would be appropriate (LOM+COR). Specifically, in the case of the LOM+OBS method (based on the observability criterion), the following properties were observed in the case studies: - By increasing the size of the network, there was observed a reduction in the percentage of monitored system busbars required. For example, to monitor all the faults which cause sags in the IEEE-24 network, then 100% of the system busbars are required for monitoring. In the case of the IEEE-118 and EC-357 networks, the method LOM+OBS determines that with monitoring 89.5 % and 65.3 % of the system, respectively, the observability criterion of the method would be fulfilled. - The LOM+OBS method calculates the probability of using the optimal set of sag monitors in the long term, establishing a relevance criterion of each sag monitor considered as optimal in the network. With this, the level of accuracy or observability (100%, 95%, etc.) can be determined, with which the faults that caused sags in the studied network are detected. That is, when the accuracy level for detecting faults that cause sags in the system is increased, a larger number of sag monitors is expected when calculating the optimal set of monitors. - The LOM + OBS method is demonstrated to be a technique applicable to any type of electrical system (radial or mesh), ensuring the detection of faults that cause voltage sags in a system according to the observability level raised. In the case of the optimal localization of sag monitors based on the criterion of correlation area (LOM+COR), several tests showed the following conclusions: - The procedure of LOM+COR method combines the implemented algorithms of voltage sag estimation (PEHT and PEHT+MP) with linear optimization techniques to define the optimal location of the sag monitors in a network. That is, the PEHT is used to generate the voltage sag pseudo-records, and, from the proposed optimization criterion (correlation area), the LOM+COR formulates and analytically calculates the optimal set of sag monitors of the network in the long term. From the information recorded by the optimal set of sag monitors, an accurate prediction of the voltage sag severity at all the busbars of the system is guaranteed with the PEHT+MP. - The LOM + COR method is shown to be a versatile optimization procedure, which reduces the size of the sag monitoring system both at radial as meshed grids. Due to its characteristics, this optimal location method allows emulation of complete system sag monitoring through the records of a small optimal set of sag monitors. Therefore, this new optimization method would be applicable to network operators that looks to reduce the installation and operation costs of the voltage sag monitoring system.
Resumo:
Históricamente la fractura ha sido considerada siempre como un efecto indeseado entre los materiales, dado que su aparición supone un cese del material en servicio, puesto que un material fracturado carece de importancia desde el punto de vista comercial. Consecuentemente, la Mecánica de Fractura ha experimentado un desarrollo importante en las últimas décadas como no lo hizo en toda la historia de los materiales. El desarrollo de nuevos campos a nivel científico y técnico han estado de la mano con el desarrollo de nuevos materiales que satisfagan las necesidades particulares de cada sector o aplicación. Este requerimiento se ve acentuado cuando se incorpora el aspecto económico, dado que, así como se necesitan materiales con mayor resistencia a la fractura, corrosión etc, también se necesita que su precio en el mercado sea accesible y que permita una aplicación rentable. En los últimos 70 años, desde los requerimientos de nuevos materiales resistentes a la fractura con los buques Liberty hasta el boom petrolero, pasando por las aplicaciones aeroespaciales se han desarrollado diversas teorías que explican el comportamiento de los materiales, en cuando a la tenacidad a la fractura en distintas temperaturas, composiciones químicas, materiales compuestos etc. Uno de los sectores que más ha demandado un desarrollo, por su amplitud en cuanto a requerimientos y consumo global, así como su impacto en la economía mundial, es el sector de gas, petróleo y petroquímica. Muchos de los proyectos que se intentaron desarrollar hasta hace menos de 25 años eran inviables por su elevado coste de ejecución y su bajo retorno de inversión debido a la caída de los precios del petróleo. Con una demanda creciente a nivel mundial y unos precios que apuntan hacia la estabilización o alza moderada, nuevos sistemas de trasporte por tuberías han sido necesarios desarrollar, desde el punto de vista de ingeniería, con el menos coste posible y de un modo seguro. Muchas de estas aplicaciones se vieron incrementadas cuando nuevos requerimientos en cuanto a resistencia a la corrosión fueron necesarios: demanda de materiales que no se corroan, con prestaciones seguras a nivel mecánico y un bajo coste. Esta nueva etapa se conoce como Aleaciones Resistentes a la Corrosión (CRA´s por sus siglas en inglés) en las cuales uno de los factores de diseño seguro recaían indiscutiblemente en la mecánica de fractura. Por estas razones era necesario entender como influía en la resistencia a la fractura las aportaciones que podrían hacerse sobre una superficie metálica. Al realizar el presente estudio se comenzó analizando la influencia que tenían modificaciones en el rango iónico sobre aceros al carbono. Estudios previos sobre láminas de acero ferrítico usadas en reactores de fisión nuclear demostraron que aportes de iones, en este particular el Helio, influían en el comportamiento de la tenacidad a la fractura en función de la temperatura. De este modo, un primer análisis fue hecho sobre la influencia de iones de nitrógeno aportados sobre superficies de acero al carbono y como modificaban su tenacidad a la fractura. Este primer análisis sirvió para comprobar el impacto que tenían pequeñas dosis de iones de nitrógeno en la tenacidad a la fractura. Otro desarrollo con una mayor aplicación industrial fue hecho sobre superficies de acero al carbono con aporte por soldadura de los materiales más usados para evitar la corrosión. El análisis se centró fundamentalmente en la influencia que tenían distintos materiales aportados como el MONEL 400, DUPLEX 928, INCONEL 625 y STAINLESS-STEEL 316 en referencia a características de diseño como la tensión elástica y la tensión a la rotura. Este análisis permitió conocer el impacto de los materiales aportados en los ensayos de tracción en probetas de acero al carbono. Una explicación acerca del comportamiento fue soportada por el análisis macrofractográfico de los perfiles fracturados y las macro deformaciones en la superficie de las probetas. Un posterior desarrollo teórico permitió modelar matemáticamente la fractura de las probetas aportadas por soldadura en la región elástica por medio de la Ley de Hooke, así como la teoría de Plasticidad de Hill para la región de deformación plástica. ABSTRACT Fracture mechanics has been extensively studied in the last 70 years by the constant requirements of new materials with low costs. These requirements have allowed surface modified welded materials in which it is necessary to know the influence of design fundamentals with the material surface welded. Several specimens have been studied for ductile fracture in longitudinal tensile tests for carbon steel surface-modified by weld overlay MONEL 400, DUPLEX 928, INCONEL 625 and STAINLESS-STEEL 316. Similarly of macro photographic analyzes to level the fractured surfaces that explain the behavior curves obtained in Tensile – displacement charts. The contribution of weld overlay material shows a significant impact on the yield and tensile stress of the specimens which was modeled according to Hooke's law for elastic area and Hill´s theory of plasticity to the plastic one.
Resumo:
La presente Tesis muestra una visión en conjunto de la evolución de la cartografía geológica en España desde sus orígenes hasta el año 1864, cuando aparecieron, de forma simultánea, los dos mapas geológicos completos de España. El estudio se divide en doce capítulos. El primero es una introducción, con los objetivos y metodología del trabajo, así como en los antecedentes de estos trabajos. El segundo capítulo aborda la representación temprana del paisaje y de los elementos geológicos, desde las piedras grabadas de Abauntz, de hace 13.000 años, que se han interpretado como un mapa geomorfológico y de recursos naturales o el mapa con el volcán Çatalhöyuc en Turquía de 6.600 a.C., hasta las primeras representaciones cartográficas que surgieron con el desarrollo de las primigenias sociedades urbanas. El Papiro de Turín es un mapa del 1.150 a.C. con contenido geológico real que muestra con precisión la distribución geográfica de los distintos tipos de roca en la que se incluye información sobre minería. El tercer capítulo trata sobre cómo se establecieron las bases para la representación científica de la superficie terrestre en el Mundo clásico. Se hace un somero repaso a como se desarrollaron sus concepciones filosóficas sobre la naturaleza y de la cartografía en la Antigua Grecia y el Imperio Romano. En el cuarto capítulo se sintetiza la evolución de los conceptos cartográficos en el mundo medieval, desde las interpretaciones teológicas del mundo en los mapamundis en O-T de Las Etimologías del siglo VIII, o los Beatos, al nacimiento de una representación cartográfica verdaderamente científica en los siglos XIII y XIV, como son los portulanos, destacando el especial interés de la "Escuela Mallorquina". En el quinto capítulo se estudia el Renacimiento y la Edad Moderna, incidiendo en la importancia de la cartografía en los viajes de los descubrimientos, que marcan el mayor avance conceptual en la comprensión de la Tierra. La carta de Juan de la Cosa (1500) es la primera representación de América y además es el primer exponente de la cartografía producida por la Casa de la Contratación de Sevilla. Se presta especial atención a la representación de fenómenos volcánicos, con el ejemplo de las observaciones geológicas que realizó Gonzalo Fernández de Oviedo (1478-1557), en las que se encuentran varios croquis sobre los volcanes de Nicaragua. Finalmente, se estudian las representaciones del subsuelo en la minería, que en esa época inauguraron un nuevo lenguaje pictórico, y las técnicas y saberes mineros en el ámbito hispanoamericano. El capítulo sexto es muy amplio, estudia el contexto científico internacional donde nacieron los primeros mapas geológicos, desde los primeros cortes geológicos realizados a principios del siglo XVIII, hasta el primer mapa geológico del mundo de Amí Boué (1843). En este estudio se estudian también los distintos avances científicos que se fueron produciendo y que permitieron que se levantaran los mapas geológicos. Se analiza la importancia del desarrollo de la cartografía topográfica, que permitió que se pudieran representar distintos elementos geológicos sobre ellos, dando lugar a los primeros mapas temáticos, como por ejemplo, el mapa de los recursos mineros del obispado de Salzburgo (1716). Se dedica un amplio capítulo a la influencia de la Academia de Minas de Freiberg, dónde Abraham G. Werner (1749-1817) impartía clases. Werner sistematizó los materiales geológicos que componen el edificio terrestre dividiéndolo en grandes unidades, de este modo se sentaron las bases que propiciaron la representación cartográfica. A partir de este momento se levantaron un buen número de mapas geognósticos. A principios del siglo XIX, las teorías de Werner empezaron a perder aceptación internacional, incluso entre sus discípulos, como Leopold von Buch (1774-1853) que desarrolló una teoría sobre el levantamiento de las montañas a partir del empuje causado por intrusiones ígneas. Desde la historiografía de la cartografía geológica, se considera un hito la aparición del mapa geológico de Inglaterra, Gales y Escocia, Smith (1815), sin embargo, desde el punto de vista conceptual, el mapa de Cuvier y Brogniart (1808) representa un verdadero mapa geológico con un claro relato histórico. Después se repasan las distintas ideas sobre los mecanismos orogénicos, en especial las de Élie de Beaumont, que ejercieron una gran influencia entre los geólogos de nuestro país. A continuación se trata la figura de Lyell y el desarrollo del actualismo. Finalmente se analiza el primer mapa geológico del mundo, obra de Boué (1843). El capítulo séptimo trata sobre las primeras representaciones gráficas de la Geología española que tuvieron lugar en la época del Reformismo Borbónico. Se empieza con un repaso al estado de la Geología en España en esa época a la que sigue un estudio de los principales hitos en la representación cartográfica con indicaciones geológicas. De este modo se analizan los escasos planos mineros realizados en América que representen los filones, los cortes mineros de Guadalcanal y Cazalla de Hoppensack, (1796) y la utilización de la cartografía en la remediación de los desastres naturales. Los cortes geológicos de Teruel al Collado de la Plata, Herrgen y Thalacker (1800), suponen la primera descripción moderna de un terreno que se realizó en España. A continuación, se menciona la importancia de las cartografías geognósticas, financiadas por la Corona española, realizadas en los Alpes por Carlos de Gimbernat a principios del siglo XIX. Por último, se estudian los caracteres geológicos de los planos para la investigación del carbón en Mallorca, de Taverns (1811). El capítulo octavo constituye el núcleo principal de la presente tesis, y se ha titulado la Época Histórica de la Geología española, en el que se estudian el desarrollo de la cartografía geológica en nuestro país, en el periodo comprendido entre la promulgación de la Ley de Minas de 1825, hasta la constitución de la Carta Geológica de Madrid y General del Reino, en 1849. Se hace primero un repaso a las circunstancias políticas del país, a continuación se sintetiza el estado de la Geología en España en dicho periodo, las instituciones, y las publicaciones. Después se estudia la contribución de los autores extranjeros al conocimiento de la Geología en España, como Charpentier, que en su mapa de los Pirineos está cartografiando parte del territorio español, o Leopold von Buch, Lyell, Silvertop, Cook, Haussmann, entre otros. A continuación se estudia ya la cartografía de distintas cuencas mineras o regiones de España. Se analizan los mapas por separado, estudiando las memorias que las acompañan y la biografía de sus autores. Se empieza por las tempranas contribuciones con estudios de las cuencas carboníferas en los que ya se encuentran cortes geológicos formales. Se incide con mucho mayor detalle en el análisis de las tres cartografías geológicas que aparecieron simultáneamente hacia 1834: las de La Mármora en Baleares, de Le Play en Extremadura y de Schulz en Galicia, tres productos muy distintos, pero que fueron los pilares fundantes de esta disciplina en España. Por una parte, la primera tiene un interés exclusivamente científico, mientras que las otras dos, se enmarcan en un proyecto de cartografía geológica nacional, de un carácter más aplicado. A continuación se aborda el estudio del conjunto de cartografías que van apareciendo sobre la Geología de España, empezando por la de Naranjo (1841) en Burgos, de Collette (1848) en Vizcaya, de Prado (1848) en el Noreste de León; Rodríguez (1849) en Teruel y de Luxan (1850) en el Suroeste de España. La última parte del capítulo analiza dos cartografías (todavía parciales) del conjunto del país, que aparecieron en Alemania hacia 1850: la de Ezquerra (1851) y la de Willkomm (1852). El capítulo noveno trata sobre la institucionalización de la cartografía geológica en España, que se inicia con la fundación de una comisión, en 1849, para levantar el mapa geológico del Reino. Durante este periodo, de todas formas, la Comisión sufrió diversos avatares, aunque, en resumen se puede considerar que se produjeron tres proyectos de cartografía: el primero es la serie de cartografías geológicas provinciales a escala 1:400.000, que se iniciaron con la de Madrid; el segundo son los estudios de cuencas carboníferas, gracias a los cuales se levantaron mapas geológicos en Sant Joan de les Abadeses, Maestre, (1855) y el Norte de la provincia de Palencia, Prado (1861), el tercero y último es el mapa geológico general de España, Maestre (1865). De todas formas, en este periodo también aparecieron cartografías geológicas realizadas por la Dirección General de Minas. El hito cartográfico final de esta tesis es doble, entre 1864 y 1865, se publicaron, por fin, dos mapas geológico completos de España: el de Verneuil y Collomb (1864) y el de Maestre (1865). Finalmente, en el décimo y último capítulo se analizan en conjunto todas las producciones cartográficas que se han ido estudiando a lo largo del trabajo y se exponen, a modo de conclusiones, las principales aportaciones de esta Tesis.
Resumo:
Desde los comienzos de la enseñanza, siempre se han buscado formas innovadoras para transmitir el conocimiento de profesor a alumno. Desde recursos materiales hasta sistemas de enseñanza complejos, todos juegan un papel esencial en el aprendizaje del alumno. Durante el siglo XVII comienzan a desarrollarse nuevas corrientes de enseñanza cuyo objetivo era el aprendizaje ameno del individuo. Hoy en día pueden utilizarse multitud de medios para desarrollar estos métodos pedagógicos, entre ellos, los juegos interactivos. Con el boom de la tecnología y el desarrollo de las tecnologías de la información, los tutores encuentran en los dispositivos electrónicos todo un apoyo para realizar esta tarea, lo cual viene acompañado de una revolución inminente en la enseñanza. El objetivo de este proyecto es la creación de un videojuego educativo que permita tanto aprender más fácilmente a los alumnos como evaluar los conocimientos adquiridos por éstos a los profesores. Se ha creado Ludomática, un videojuego de tipo juego de mesa donde los jugadores tendrán que utilizar sus conocimientos en determinados temas para ganar la partida. El videojuego puede ser configurado con distintas preguntas del tema que se desee y en tres niveles de dificultad. Además, cuenta con la posibilidad de configurar el número de jugadores, de preguntas y de puntuación máxima, con objeto de crear partidas más o menos largas. Ludomática se constituye como una herramienta educativa completa y personalizable, además de atractiva, mediante la cual los profesores pueden innovar su forma de enseñanza y los alumnos pueden aprender divirtiéndose---ABSTRACT---Since the beginning of teaching, professors have always looked for innovative ways to transmit knowledge from teacher to student. From material resources to teaching complex systems, they all play a vital role in student learning. The development of new forms of education aimed to create enjoyable ways to teach started during the XVII century. Nowadays, It’s easy to find multiple elements to develop this pedagogical methods, including interactive games. Because of the “tech boom” and the rise of the Information and Communication Technologies, teachers can have a lot of support in electronic devices to carry out this task, which comes with an inminent revolution of teaching. The objective of this project is to create an educational video game that allows not only learn much more easily for students, but also evaluate the knowledge acquired by these for teachers. Ludomática has been created as a board videogame where players have to use their knowledge in specific topics to win the game. The game can be configured with different questions of the topic desired and three difficulty levels. It also has the ability to set the number of players, questions and maximum score, in order to control the duration of the game. Ludomática constitutes a complete and customizable educational tool, also attractive, whereby teachers can innovate their teaching forms and students can learn while having fun.