235 resultados para generadores
Resumo:
Las pruebas de software (Testing) son en la actualidad la técnica más utilizada para la validación y la evaluación de la calidad de un programa. El testing está integrado en todas las metodologías prácticas de desarrollo de software y juega un papel crucial en el éxito de cualquier proyecto de software. Desde las unidades de código más pequeñas a los componentes más complejos, su integración en un sistema de software y su despliegue a producción, todas las piezas de un producto de software deben ser probadas a fondo antes de que el producto de software pueda ser liberado a un entorno de producción. La mayor limitación del testing de software es que continúa siendo un conjunto de tareas manuales, representando una buena parte del coste total de desarrollo. En este escenario, la automatización resulta fundamental para aliviar estos altos costes. La generación automática de casos de pruebas (TCG, del inglés test case generation) es el proceso de generar automáticamente casos de prueba que logren un alto recubrimiento del programa. Entre la gran variedad de enfoques hacia la TCG, esta tesis se centra en un enfoque estructural de caja blanca, y más concretamente en una de las técnicas más utilizadas actualmente, la ejecución simbólica. En ejecución simbólica, el programa bajo pruebas es ejecutado con expresiones simbólicas como argumentos de entrada en lugar de valores concretos. Esta tesis se basa en un marco general para la generación automática de casos de prueba dirigido a programas imperativos orientados a objetos (Java, por ejemplo) y basado en programación lógica con restricciones (CLP, del inglés constraint logic programming). En este marco general, el programa imperativo bajo pruebas es primeramente traducido a un programa CLP equivalente, y luego dicho programa CLP es ejecutado simbólicamente utilizando los mecanismos de evaluación estándar de CLP, extendidos con operaciones especiales para el tratamiento de estructuras de datos dinámicas. Mejorar la escalabilidad y la eficiencia de la ejecución simbólica constituye un reto muy importante. Es bien sabido que la ejecución simbólica resulta impracticable debido al gran número de caminos de ejecución que deben ser explorados y a tamaño de las restricciones que se deben manipular. Además, la generación de casos de prueba mediante ejecución simbólica tiende a producir un número innecesariamente grande de casos de prueba cuando es aplicada a programas de tamaño medio o grande. Las contribuciones de esta tesis pueden ser resumidas como sigue. (1) Se desarrolla un enfoque composicional basado en CLP para la generación de casos de prueba, el cual busca aliviar el problema de la explosión de caminos interprocedimiento analizando de forma separada cada componente (p.ej. método) del programa bajo pruebas, almacenando los resultados y reutilizándolos incrementalmente hasta obtener resultados para el programa completo. También se ha desarrollado un enfoque composicional basado en especialización de programas (evaluación parcial) para la herramienta de ejecución simbólica Symbolic PathFinder (SPF). (2) Se propone una metodología para usar información del consumo de recursos del programa bajo pruebas para guiar la ejecución simbólica hacia aquellas partes del programa que satisfacen una determinada política de recursos, evitando la exploración de aquellas partes del programa que violan dicha política. (3) Se propone una metodología genérica para guiar la ejecución simbólica hacia las partes más interesantes del programa, la cual utiliza abstracciones como generadores de trazas para guiar la ejecución de acuerdo a criterios de selección estructurales. (4) Se propone un nuevo resolutor de restricciones, el cual maneja eficientemente restricciones sobre el uso de la memoria dinámica global (heap) durante ejecución simbólica, el cual mejora considerablemente el rendimiento de la técnica estándar utilizada para este propósito, la \lazy initialization". (5) Todas las técnicas propuestas han sido implementadas en el sistema PET (el enfoque composicional ha sido también implementado en la herramienta SPF). Mediante evaluación experimental se ha confirmado que todas ellas mejoran considerablemente la escalabilidad y eficiencia de la ejecución simbólica y la generación de casos de prueba. ABSTRACT Testing is nowadays the most used technique to validate software and assess its quality. It is integrated into all practical software development methodologies and plays a crucial role towards the success of any software project. From the smallest units of code to the most complex components and their integration into a software system and later deployment; all pieces of a software product must be tested thoroughly before a software product can be released. The main limitation of software testing is that it remains a mostly manual task, representing a large fraction of the total development cost. In this scenario, test automation is paramount to alleviate such high costs. Test case generation (TCG) is the process of automatically generating test inputs that achieve high coverage of the system under test. Among a wide variety of approaches to TCG, this thesis focuses on structural (white-box) TCG, where one of the most successful enabling techniques is symbolic execution. In symbolic execution, the program under test is executed with its input arguments being symbolic expressions rather than concrete values. This thesis relies on a previously developed constraint-based TCG framework for imperative object-oriented programs (e.g., Java), in which the imperative program under test is first translated into an equivalent constraint logic program, and then such translated program is symbolically executed by relying on standard evaluation mechanisms of Constraint Logic Programming (CLP), extended with special treatment for dynamically allocated data structures. Improving the scalability and efficiency of symbolic execution constitutes a major challenge. It is well known that symbolic execution quickly becomes impractical due to the large number of paths that must be explored and the size of the constraints that must be handled. Moreover, symbolic execution-based TCG tends to produce an unnecessarily large number of test cases when applied to medium or large programs. The contributions of this dissertation can be summarized as follows. (1) A compositional approach to CLP-based TCG is developed which overcomes the inter-procedural path explosion by separately analyzing each component (method) in a program under test, stowing the results as method summaries and incrementally reusing them to obtain whole-program results. A similar compositional strategy that relies on program specialization is also developed for the state-of-the-art symbolic execution tool Symbolic PathFinder (SPF). (2) Resource-driven TCG is proposed as a methodology to use resource consumption information to drive symbolic execution towards those parts of the program under test that comply with a user-provided resource policy, avoiding the exploration of those parts of the program that violate such policy. (3) A generic methodology to guide symbolic execution towards the most interesting parts of a program is proposed, which uses abstractions as oracles to steer symbolic execution through those parts of the program under test that interest the programmer/tester most. (4) A new heap-constraint solver is proposed, which efficiently handles heap-related constraints and aliasing of references during symbolic execution and greatly outperforms the state-of-the-art standard technique known as lazy initialization. (5) All techniques above have been implemented in the PET system (and some of them in the SPF tool). Experimental evaluation has confirmed that they considerably help towards a more scalable and efficient symbolic execution and TCG.
Resumo:
En los últimos años se ha producido un aumento constante en la potencia fotovoltaica instalada a nivel mundial. Este crecimiento, acompañado de crecimientos similares en el resto de energías renovables, está motivado por la necesidad de dar respuesta a varios de los retos que planteados al sector energético: creciente preocupación por los efectos en el medioambiente de las emisiones de gases de efecto invernadero, entre los que cabe destacar el cambio climático (IPCC 2011); el inevitable agotamiento de algunas fuentes tradicionales de energía eléctrica, basadas en combustibles fósiles, que llevara aparejado en las próximas décadas un aumento en el coste asociado a producir energía eléctrica mediante estas fuentes como indican Bentley (2002), Gori (2007), Kjastard (2009), Owen (2010) y Hughes (2011), y la necesidad para algunos países de asegurar su independencia energética, factor especialmente crítico para los países europeos debido a su escasez en reservas naturales de combustibles fósiles. La energía solar fotovoltaica, al igual que el resto de energías renovables, proporciona energía eléctrica de manera limpia y segura y plantea soluciones a los problemas mencionados. Asimismo, las energías renovables también presentan beneficios sociales como la creación de empleo cualificado en actividades de ingeniería, fabricación, instalación y mantenimiento, así como en la investigación, desarrollo e innovación. Es por estos motivos que las energías renovables se han visto beneficiadas a lo largo de las últimas décadas de mecanismos favorables, subvenciones y primas a la producción, conducentes a su implantación y desarrollo. La Figura 1.1 muestra la evolución de la potencia total instalada a nivel mundial y su tasa de crecimiento del 2000 al 2012, de acuerdo con datos proporcionados por la Agencia Internacional de la Energía: IEA (2012a, 2013). Los datos incluidos en la Figura 1.1 solo incluyen a los países que pertenecen a la Agencia Internacional de la Energía: Alemania, Australia, Austria, Bélgica, Canadá, China, Corea, Dinamarca, España, Estados Unidos, Finlandia, Francia, Holanda, Israel, Italia, Japón, Malasia, México, Noruega, Portugal, Reino Unido, Suecia, Suiza y Turquía. La potencia instalada muestra un crecimiento de tipo exponencial, incrementándose cada año un 41,6% de media. A los 88,5 GWP de potencia fotovoltaica instalada en todos los países miembros de la IEA a finales de 2012 habría que añadir, siempre según la IEA (2013), 7 GWP adicionales repartidos en seis países que no pertenecen a este organismo: Republica Checa, Grecia, Bulgaria, Eslovaquia, Ucrania y Tailandia. Esta tendencia en la tasa de crecimiento se mantiene incluso en los últimos años del periodo cuando varios países han reducido los incentivos a las energías renovables. Como consecuencia de este crecimiento en algunos países la proporción de energía eléctrica total de origen fotovoltaico empieza a ser apreciable. Para los casos de España, Alemania e Italia, el porcentaje de energía eléctrica final producida sistemas fotovoltaicos conectados a la red (SFCR) fue, respectivamente, de 3,1% y 4,7% en 2012 y de 3,1% en 2011 en Italia. La potencia instalada, la energía producida y la demanda total en estos países desde el año 2006 al 2012, de acuerdo con REE (2012, 2012, 2013), BMU (2013) y TERNA (2013), se recoge en la Tabla 1.1. Para el caso de Italia se incluyen únicamente datos hasta el año 2011 por no encontrarse disponibles datos para 2012. A medida que el nivel de penetración de la energía solar fotovoltaica en los sistemas eléctricos aumenta la necesidad de que este tipo de energía se integre de manera efectiva en dichos sistemas aumenta. La integración efectiva de un generador en el sistema eléctrico requiere que su producción sea conocida de antemano para poder incluirlo en la planificación del sistema eléctrico con el objetivo de que la producción programada para los distintos generadores iguale a la demanda esperada. Esta planificación del sistema eléctrico se suele hacer a escala diaria. Asimismo, además de equilibrar la generación con la demanda esperada un generador eléctrico debe ser capaz de proporcionar servicios auxiliares al sistema eléctrico como compensación de desequilibrios entre generación y consumo, regulación de tensión o inyección de potencia reactiva, entre otros. Por ejemplo, los sistemas fotovoltaicos cuya potencia sea superior a 2 MWP deben contribuir en España desde el 2010 a garantizar la continuidad del suministro eléctrico frente a huecos de tensión (España, 2010), aplicándose a estos sistemas fotovoltaicos el mismo procedimiento de operación – PO 12.3, REE(2006) – que ya se aplicó en su día a los generadores eólicos (España, 2007). La energía fotovoltaica, junto a otras energías renovables como la eólica, ha sido considerada tradicionalmente una fuente de energía no regulable. En consecuencia, no ha sido tenida en cuenta por los operadores de los sistemas eléctricos como una fuente de energía fiable. Esta consideración de la fotovoltaica como fuente de energía no fiable se debe a su dependencia de las condiciones meteorológicas, radiación y temperatura, para producir energía. Si la producción de un sistema fotovoltaico pudiese conocerse con exactitud y con la suficiente antelación se facilitaría su integración en los sistemas eléctricos. Sin embargo, la mera predicción de cuanta energía producirá un sistema fotovoltaico, aun cuando esta predicción se haga sin error, puede no ser suficiente; la energía producida por el sistema fotovoltaico sigue estando limitada por las condiciones meteorológicas y no es posible regular esta producción de energía. Como ya se ha comentado, la capacidad por parte de un generador eléctrico de regular su potencia de salida, tanto anticipadamente como en tiempo real, es crucial a la hora de su integración en el sistema eléctrico.
Resumo:
La energía basada en turbinas hidráulicas de reducida potencia es, a menudo, un ejemplo- modelo dentro del campo de las energías renovables desde su aparición a finales del S. XIX, aunque los ingenios precursores surgen mucho antes. Entre los testimonios más antiguos destacan la saqia o rueda persa y la rueda hidráulica romana que había sido previamente implementada en Extremo Oriente, y que después llega a Europa a través de Egipto. Más tarde, durante la Edad Media y el Renacimiento, se generaliza el uso de los molinos hidráulicos, además de los eólicos. Ejemplos de ello son las norias de Alepo (Siria) y de Córdoba (España). Otro caso interesante es el de los molinos de regolfo en la Península Ibérica e Iberoamérica, muy cercanos en su forma y fundamentos a las turbinas hidráulicas. Algunos de estos ingenios siguen activos en los ríos de España. Posteriormente los estudios de Euler, Burdin y Fourneyron prepararon las bases para el definitivo avance de Pelton, Kaplan, Francis, y otros, pero ya como máquinas motrices de los generadores eléctricos. En la actualidad, se admite como límite superior para minihidráulica aquellas centrales con una potencia instalada de 5000 kW, y considerando que cuando las potencias son inferiores a 100 kW se denomina micro hidráulica, aunque en Latinoamérica este límite se fija en 20 kW. El estudio del recurso hídrico, ayudado del geotécnico, constituyen la base sobre la que podremos proyectar el aprovechamiento hidroeléctrico: selección del tipo de central dentro de la tipología disponible, diseño y cálculos de la turbina, obra civil necesaria (azud, presa, canal, tubería forzada, edificio, aspiración, desagüe, etc.) y equipo electromecánico. El proyecto tecnológico se complementa con el estudio de impacto ambiental y de viabilidad económica. Muchos de estos proyectos tratan de reducir la falta de acceso a la energía en poblaciones desfavorecidas, entendida esta carencia como un factor determinante de la pobreza. Así la energía mini y micro-hidráulica adquiere un nuevo valor como tecnología para el desarrollo humano.
Resumo:
El mercado ibérico de futuros de energía eléctrica gestionado por OMIP (“Operador do Mercado Ibérico de Energia, Pólo Português”, con sede en Lisboa), también conocido como el mercado ibérico de derivados de energía, comenzó a funcionar el 3 de julio de 2006. Se analiza la eficiencia de este mercado organizado, por lo que se estudia la precisión con la que sus precios de futuros predicen el precio de contado. En dicho mercado coexisten dos modos de negociación: el mercado continuo (modo por defecto) y la contratación mediante subasta. En la negociación en continuo, las órdenes anónimas de compra y de venta interactúan de manera inmediata e individual con órdenes contrarias, dando lugar a operaciones con un número indeterminado de precios para cada contrato. En la negociación a través de subasta, un precio único de equilibrio maximiza el volumen negociado, liquidándose todas las operaciones a ese precio. Adicionalmente, los miembros negociadores de OMIP pueden liquidar operaciones “Over-The-Counter” (OTC) a través de la cámara de compensación de OMIP (OMIClear). Las cinco mayores empresas españolas de distribución de energía eléctrica tenían la obligación de comprar electricidad hasta julio de 2009 en subastas en OMIP, para cubrir parte de sus suministros regulados. De igual manera, el suministrador de último recurso portugués mantuvo tal obligación hasta julio de 2010. Los precios de equilibrio de esas subastas no han resultado óptimos a efectos retributivos de tales suministros regulados dado que dichos precios tienden a situarse ligeramente sesgados al alza. La prima de riesgo ex-post, definida como la diferencia entre los precios a plazo y de contado en el periodo de entrega, se emplea para medir su eficiencia de precio. El mercado de contado, gestionado por OMIE (“Operador de Mercado Ibérico de la Energía”, conocido tradicionalmente como “OMEL”), tiene su sede en Madrid. Durante los dos primeros años del mercado de futuros, la prima de riesgo media tiende a resultar positiva, al igual que en otros mercados europeos de energía eléctrica y gas natural. En ese periodo, la prima de riesgo ex-post tiende a ser negativa en los mercados de petróleo y carbón. Los mercados de energía tienden a mostrar niveles limitados de eficiencia de mercado. La eficiencia de precio del mercado de futuros aumenta con el desarrollo de otros mecanismos coexistentes dentro del mercado ibérico de electricidad (conocido como “MIBEL”) –es decir, el mercado dominante OTC, las subastas de centrales virtuales de generación conocidas en España como Emisiones Primarias de Energía, y las subastas para cubrir parte de los suministros de último recurso conocidas en España como subastas CESUR– y con una mayor integración de los mercados regionales europeos de energía eléctrica. Se construye un modelo de regresión para analizar la evolución de los volúmenes negociados en el mercado continuo durante sus cuatro primeros años como una función de doce indicadores potenciales de liquidez. Los únicos indicadores significativos son los volúmenes negociados en las subastas obligatorias gestionadas por OMIP, los volúmenes negociados en el mercado OTC y los volúmenes OTC compensados por OMIClear. El número de creadores de mercado, la incorporación de agentes financieros y compañías de generación pertenecientes a grupos integrados con suministradores de último recurso, y los volúmenes OTC compensados por OMIClear muestran una fuerte correlación con los volúmenes negociados en el mercado continuo. La liquidez de OMIP está aún lejos de los niveles alcanzados por los mercados europeos más maduros (localizados en los países nórdicos (Nasdaq OMX Commodities) y Alemania (EEX)). El operador de mercado y su cámara de compensación podrían desarrollar acciones eficientes de marketing para atraer nuevos agentes activos en el mercado de contado (p.ej. industrias consumidoras intensivas de energía, suministradores, pequeños productores, compañías energéticas internacionales y empresas de energías renovables) y agentes financieros, captar volúmenes del opaco OTC, y mejorar el funcionamiento de los productos existentes aún no líquidos. Resultaría de gran utilidad para tales acciones un diálogo activo con todos los agentes (participantes en el mercado, operador de mercado de contado, y autoridades supervisoras). Durante sus primeros cinco años y medio, el mercado continuo presenta un crecimento de liquidez estable. Se mide el desempeño de sus funciones de cobertura mediante la ratio de posición neta obtenida al dividir la posición abierta final de un contrato de derivados mensual entre su volumen acumulado en la cámara de compensación. Los futuros carga base muestran la ratio más baja debido a su buena liquidez. Los futuros carga punta muestran una mayor ratio al producirse su menor liquidez a través de contadas subastas fijadas por regulación portuguesa. Las permutas carga base liquidadas en la cámara de compensación ubicada en Madrid –MEFF Power, activa desde el 21 de marzo de 2011– muestran inicialmente valores altos debido a bajos volúmenes registrados, dado que esta cámara se emplea principalmente para vencimientos pequeños (diario y semanal). Dicha ratio puede ser una poderosa herramienta de supervisión para los reguladores energéticos cuando accedan a todas las transacciones de derivados en virtud del Reglamento Europeo sobre Integridad y Transparencia de los Mercados de Energía (“REMIT”), en vigor desde el 28 de diciembre de 2011. La prima de riesgo ex-post tiende a ser positiva en todos los mecanismos (futuros en OMIP, mercado OTC y subastas CESUR) y disminuye debido a la curvas de aprendizaje y al efecto, desde el año 2011, del precio fijo para la retribución de la generación con carbón autóctono. Se realiza una comparativa con los costes a plazo de generación con gas natural (diferencial “clean spark spread”) obtenido como la diferencia entre el precio del futuro eléctrico y el coste a plazo de generación con ciclo combinado internalizando los costes de emisión de CO2. Los futuros eléctricos tienen una elevada correlación con los precios de gas europeos. Los diferenciales de contratos con vencimiento inmediato tienden a ser positivos. Los mayores diferenciales se dan para los contratos mensuales, seguidos de los trimestrales y anuales. Los generadores eléctricos con gas pueden maximizar beneficios con contratos de menor vencimiento. Los informes de monitorización por el operador de mercado que proporcionan transparencia post-operacional, el acceso a datos OTC por el regulador energético, y la valoración del riesgo regulatorio pueden contribuir a ganancias de eficiencia. Estas recomendaciones son también válidas para un potencial mercado ibérico de futuros de gas, una vez que el hub ibérico de gas –actualmente en fase de diseño, con reuniones mensuales de los agentes desde enero de 2013 en el grupo de trabajo liderado por el regulador energético español– esté operativo. El hub ibérico de gas proporcionará transparencia al atraer más agentes y mejorar la competencia, incrementando su eficiencia, dado que en el mercado OTC actual no se revela precio alguno de gas. ABSTRACT The Iberian Power Futures Market, managed by OMIP (“Operador do Mercado Ibérico de Energia, Pólo Português”, located in Lisbon), also known as the Iberian Energy Derivatives Market, started operations on 3 July 2006. The market efficiency, regarding how well the future price predicts the spot price, is analysed for this energy derivatives exchange. There are two trading modes coexisting within OMIP: the continuous market (default mode) and the call auction. In the continuous trading, anonymous buy and sell orders interact immediately and individually with opposite side orders, generating trades with an undetermined number of prices for each contract. In the call auction trading, a single price auction maximizes the traded volume, being all trades settled at the same price (equilibrium price). Additionally, OMIP trading members may settle Over-the-Counter (OTC) trades through OMIP clearing house (OMIClear). The five largest Spanish distribution companies have been obliged to purchase in auctions managed by OMIP until July 2009, in order to partly cover their portfolios of end users’ regulated supplies. Likewise, the Portuguese last resort supplier kept that obligation until July 2010. The auction equilibrium prices are not optimal for remuneration purposes of regulated supplies as such prices seem to be slightly upward biased. The ex-post forward risk premium, defined as the difference between the forward and spot prices in the delivery period, is used to measure its price efficiency. The spot market, managed by OMIE (Market Operator of the Iberian Energy Market, Spanish Pool, known traditionally as “OMEL”), is located in Madrid. During the first two years of the futures market, the average forward risk premium tends to be positive, as it occurs with other European power and natural gas markets. In that period, the ex-post forward risk premium tends to be negative in oil and coal markets. Energy markets tend to show limited levels of market efficiency. The price efficiency of the Iberian Power Futures Market improves with the market development of all the coexistent forward contracting mechanisms within the Iberian Electricity Market (known as “MIBEL”) – namely, the dominant OTC market, the Virtual Power Plant Auctions known in Spain as Energy Primary Emissions, and the auctions catering for part of the last resort supplies known in Spain as CESUR auctions – and with further integration of European Regional Electricity Markets. A regression model tracking the evolution of the traded volumes in the continuous market during its first four years is built as a function of twelve potential liquidity drivers. The only significant drivers are the traded volumes in OMIP compulsory auctions, the traded volumes in the OTC market, and the OTC cleared volumes by OMIClear. The amount of market makers, the enrolment of financial members and generation companies belonging to the integrated group of last resort suppliers, and the OTC cleared volume by OMIClear show strong correlation with the traded volumes in the continuous market. OMIP liquidity is still far from the levels reached by the most mature European markets (located in the Nordic countries (Nasdaq OMX Commodities) and Germany (EEX)). The market operator and its clearing house could develop efficient marketing actions to attract new entrants active in the spot market (e.g. energy intensive industries, suppliers, small producers, international energy companies and renewable generation companies) and financial agents as well as volumes from the opaque OTC market, and to improve the performance of existing illiquid products. An active dialogue with all the stakeholders (market participants, spot market operator, and supervisory authorities) will help to implement such actions. During its firs five and a half years, the continuous market shows steady liquidity growth. The hedging performance is measured through a net position ratio obtained from the final open interest of a month derivatives contract divided by its accumulated cleared volume. The base load futures in the Iberian energy derivatives exchange show the lowest ratios due to good liquidity. The peak futures show bigger ratios as their reduced liquidity is produced by auctions fixed by Portuguese regulation. The base load swaps settled in the clearing house located in Spain – MEFF Power, operating since 21 March 2011, with a new denomination (BME Clearing) since 9 September 2013 – show initially large values due to low registered volumes, as this clearing house is mainly used for short maturity (daily and weekly swaps). The net position ratio can be a powerful oversight tool for energy regulators when accessing to all the derivatives transactions as envisaged by European regulation on Energy Market Integrity and Transparency (“REMIT”), in force since 28 December 2011. The ex-post forward risk premium tends to be positive in all existing mechanisms (OMIP futures, OTC market and CESUR auctions) and diminishes due to the learning curve and the effect – since year 2011 – of the fixed price retributing the indigenous coal fired generation. Comparison with the forward generation costs from natural gas (“clean spark spread”) – obtained as the difference between the power futures price and the forward generation cost with a gas fired combined cycle plant taking into account the CO2 emission rates – is also performed. The power futures are strongly correlated with European gas prices. The clean spark spreads built with prompt contracts tend to be positive. The biggest clean spark spreads are for the month contract, followed by the quarter contract and then by the year contract. Therefore, gas fired generation companies can maximize profits trading with contracts of shorter maturity. Market monitoring reports by the market operator providing post-trade transparency, OTC data access by the energy regulator, and assessment of the regulatory risk can contribute to efficiency gains. The same recommendations are also valid for a potential Iberian gas futures market, once an Iberian gas hub – currently in a design phase, with monthly meetings amongst the stakeholders in a Working Group led by the Spanish energy regulatory authority since January 2013 – is operating. The Iberian gas hub would bring transparency attracting more shippers and improving competition and thus its efficiency, as no gas price is currently disclosed in the existing OTC market.
Resumo:
En este artículo se expone cómo un hecho de gran trascendencia mediática, como es la celebración de un cónclave para la elección del Papa de la Iglesia Católica, puede utilizarse para promover la motivación hacia el estudio de la química. En concreto, la información sobre la preparación de fumatas de color blanco o negro, asociadas de forma anecdótica a un cónclave, puede servir para el tratamiento de cuestiones sobre formulación (en español y en otros idiomas), diferencia entre sustancias orgánicas e inorgánicas, características y aplicaciones de los fumígenos (generadores de humo), y el fenómeno de la combustión. También se destaca una breve reflexión sobre la relación entre ciencia y religión, cuestión que suele inquietar a buen número de alumnos de distintos niveles educativos.
Resumo:
El objetivo de esta investigación es el análisis del método utilizado en los proyectos de Julio Cano Lasso y la búsqueda de relaciones de su obra con referencias externas a ella que ejemplifiquen lo que hemos denominado "método referencial" dentro de su metodología proyectual global. Este método referencial, que se relaciona claramente con modelos no lineales de creación como el "Atlas Mnemosyne" de Aby Warburg, los "PassagenWerk" de Walter Benjamin o el Teatro de la Memoria? de Giulio Camillo, es utilizado por el arquitecto no sólo de forma icónica, como catalizador del proyecto, sino también de forma instrumental, extrayendo de la referencia en cuestión estrategias válidas para su aplicación en la actividad proyectual. Para este fin, se utiliza el análisis comparativo a distintos niveles entre las herramientas usadas por Julio Cano Lasso en los sucesivos proyectos realizados, junto con Juan Antonio Ridruejo, entre los años 1968 y 1976 para las Oficinas Centrales de Telefónica en Fuentelarreina, Madrid. Estos tres proyectos, con un programa que va variando con el tiempo en distintas localizaciones dentro de una extensa parcela, se desarrollan partiendo de esquemas organizativos completamente diferentes. Paradójicamente, es debido a la aplicación de los mismos instrumentos proyectuales, obtenidos de la referencia a las ciudades históricas y a la arquitectura popular, como son la gradación en la tensión entre fragmentación y unidad, la dialéctica entre el edificio y el paisaje y la sustentabilidad como herramienta proyectual, por lo que resultan completamente diversos en el nivel morfológico. Los sucesivos proyectos presentan opciones antagónicas en el tratamiento de espacios abiertos y volúmenes construidos, en las posibilidades y formas de ampliación, en la materialidad, en la relación entre el interior y el exterior del propio edificio, en su diálogo con el contexto físico y en su orden geométrico. En cambio resultan completamente convergentes en su lectura exterior como edificios-ciudad y en su tratamiento de los sistemas de acondicionamiento climático tanto pasivos, derivados de la referencia a la arquitectura popular, como basados en la técnica, como principales generadores de la forma arquitectónica. Estas características, refiriéndonos a proyectos de esa época, fortalecen su vigencia como precursores del actual auge del paradigma termodinámico en arquitectura. Además, este tipo de referencia dentro de los "campos semánticos" manejados por Julio Cano Lasso, tiene la característica especial de utilizar un elemento mediador; la elaboración de los dibujos, que presentan distintos momentos de desarrollo en el tiempo de varias ciudades históricas. Los dibujos realizados a lo largo de sus años de ejercicio profesional, muchos de ellos publicados en su libro ?La ciudad y su paisaje? se convierten en el verdadero icono referencial del proyecto, pasando éste a ser un caso único de elaboración de la propia referencia por parte del arquitecto.
Resumo:
Un modelo térmico de una caja de engranajes brinda la oportunidad de realizar un estudio más profundo sobre el calor disipado, relacionado con la pérdida de rendimiento en la transmisión por engranajes, hasta ahora sólo conocido indirectamente a través de ciertos ensayos. Un programa basado en un sistema de ecuaciones diferenciales ordinarias fue desarrollado en MATLAB para hacer el modelado térmico de una caja de ensayos de engranajes FZG. Dependiendo de las condiciones de funcionamiento del equipo, como son el nivel de precarga aplicada a los engranajes, el nivel de aceite usado en lubricación por barbotaje, la velocidad de la rueda y el tipo de acabado de los engranajes, se obtendrá distintos resultados. El modelo está basado en una red térmica en la cual cada nodo representa un elemento del equipo. Con las resistencias térmicas, los valores de las pérdidas de potencia (generadores de calor) y la inercia térmica de cada elemento, la evolución de la temperatura en el tiempo fue obtenida aplicando el primer principio de la termodinámica a cada nodo en cada instante de tiempo. Gracias a esto, la transferencia de calor entre los distintos elementos, las pérdidas de potencia, las resistencias térmicas y otros posibles parámetros (ratio del calor transmitido de las ruedas al aceite sobre las pérdidas por fricción) fueron también estimados en cada instante de tiempo en forma de matrices o vectores. Los resultados muestran una amplia capacidad y versatilidad del programa en términos de análisis térmico: el sentido y magnitud del flujo calorífico, herramientas visuales como la animación de la red térmica y de los elementos de la caja conforme se va calentando y la posibilidad de análisis térmico para diferentes condiciones de funcionamiento con sólo cambiar ciertas variables en el programa. Con estas funciones es posible dar un enfoque y abordar el estudio de la mínima cantidad de lubricante necesaria y otras maneras de amortiguar el sobrecalentamiento, además de conocer la temperatura de contacto entre engranajes. Esta temperatura, que es imposible de determinar experimentalmente, supondría un gran avance para tratar el desgaste superficial de engranajes.
Resumo:
Los algoritmos basados en registros de desplazamiento con realimentación (en inglés FSR) se han utilizado como generadores de flujos pseudoaleatorios en aplicaciones con recursos limitados como los sistemas de apertura sin llave. Se considera canal primario a aquel que se utiliza para realizar una transmisión de información. La aparición de los ataques de canal auxiliar (en inglés SCA), que explotan información filtrada inintencionadamente a través de canales laterales como el consumo, las emisiones electromagnéticas o el tiempo empleado, supone una grave amenaza para estas aplicaciones, dado que los dispositivos son accesibles por un atacante. El objetivo de esta tesis es proporcionar un conjunto de protecciones que se puedan aplicar de forma automática y que utilicen recursos ya disponibles, evitando un incremento sustancial en los costes y alargando la vida útil de aplicaciones que puedan estar desplegadas. Explotamos el paralelismo existente en algoritmos FSR, ya que sólo hay 1 bit de diferencia entre estados de rondas consecutivas. Realizamos aportaciones en tres niveles: a nivel de sistema, utilizando un coprocesador reconfigurable, a través del compilador y a nivel de bit, aprovechando los recursos disponibles en el procesador. Proponemos un marco de trabajo que nos permite evaluar implementaciones de un algoritmo incluyendo los efectos introducidos por el compilador considerando que el atacante es experto. En el campo de los ataques, hemos propuesto un nuevo ataque diferencial que se adapta mejor a las condiciones de las implementaciones software de FSR, en las que el consumo entre rondas es muy similar. SORU2 es un co-procesador vectorial reconfigurable propuesto para reducir el consumo energético en aplicaciones con paralelismo y basadas en el uso de bucles. Proponemos el uso de SORU2, además, para ejecutar algoritmos basados en FSR de forma segura. Al ser reconfigurable, no supone un sobrecoste en recursos, ya que no está dedicado en exclusiva al algoritmo de cifrado. Proponemos una configuración que ejecuta múltiples algoritmos de cifrado similares de forma simultánea, con distintas implementaciones y claves. A partir de una implementación sin protecciones, que demostramos que es completamente vulnerable ante SCA, obtenemos una implementación segura a los ataques que hemos realizado. A nivel de compilador, proponemos un mecanismo para evaluar los efectos de las secuencias de optimización del compilador sobre una implementación. El número de posibles secuencias de optimizaciones de compilador es extremadamente alto. El marco de trabajo propuesto incluye un algoritmo para la selección de las secuencias de optimización a considerar. Debido a que las optimizaciones del compilador transforman las implementaciones, se pueden generar automáticamente implementaciones diferentes combinamos para incrementar la seguridad ante SCA. Proponemos 2 mecanismos de aplicación de estas contramedidas, que aumentan la seguridad de la implementación original sin poder considerarse seguras. Finalmente hemos propuesto la ejecución paralela a nivel de bit del algoritmo en un procesador. Utilizamos la forma algebraica normal del algoritmo, que automáticamente se paraleliza. La implementación sobre el algoritmo evaluado mejora en rendimiento y evita que se filtre información por una ejecución dependiente de datos. Sin embargo, es más vulnerable ante ataques diferenciales que la implementación original. Proponemos una modificación del algoritmo para obtener una implementación segura, descartando parcialmente ejecuciones del algoritmo, de forma aleatoria. Esta implementación no introduce una sobrecarga en rendimiento comparada con las implementaciones originales. En definitiva, hemos propuesto varios mecanismos originales a distintos niveles para introducir aleatoridad en implementaciones de algoritmos FSR sin incrementar sustancialmente los recursos necesarios. ABSTRACT Feedback Shift Registers (FSR) have been traditionally used to implement pseudorandom sequence generators. These generators are used in Stream ciphers in systems with tight resource constraints, such as Remote Keyless Entry. When communicating electronic devices, the primary channel is the one used to transmit the information. Side-Channel Attack (SCA) use additional information leaking from the actual implementation, including power consumption, electromagnetic emissions or timing information. Side-Channel Attacks (SCA) are a serious threat to FSR-based applications, as an attacker usually has physical access to the devices. The main objective of this Ph.D. thesis is to provide a set of countermeasures that can be applied automatically using the available resources, avoiding a significant cost overhead and extending the useful life of deployed systems. If possible, we propose to take advantage of the inherent parallelism of FSR-based algorithms, as the state of a FSR differs from previous values only in 1-bit. We have contributed in three different levels: architecture (using a reconfigurable co-processor), using compiler optimizations, and at bit level, making the most of the resources available at the processor. We have developed a framework to evaluate implementations of an algorithm including the effects introduced by the compiler. We consider the presence of an expert attacker with great knowledge on the application and the device. Regarding SCA, we have presented a new differential SCA that performs better than traditional SCA on software FSR-based algorithms, where the leaked values are similar between rounds. SORU2 is a reconfigurable vector co-processor. It has been developed to reduce energy consumption in loop-based applications with parallelism. In addition, we propose its use for secure implementations of FSR-based algorithms. The cost overhead is discarded as the co-processor is not exclusively dedicated to the encryption algorithm. We present a co-processor configuration that executes multiple simultaneous encryptions, using different implementations and keys. From a basic implementation, which is proved to be vulnerable to SCA, we obtain an implementation where the SCA applied were unsuccessful. At compiler level, we use the framework to evaluate the effect of sequences of compiler optimization passes on a software implementation. There are many optimization passes available. The optimization sequences are combinations of the available passes. The amount of sequences is extremely high. The framework includes an algorithm for the selection of interesting sequences that require detailed evaluation. As existing compiler optimizations transform the software implementation, using different optimization sequences we can automatically generate different implementations. We propose to randomly switch between the generated implementations to increase the resistance against SCA.We propose two countermeasures. The results show that, although they increase the resistance against SCA, the resulting implementations are not secure. At bit level, we propose to exploit bit level parallelism of FSR-based implementations using pseudo bitslice implementation in a wireless node processor. The bitslice implementation is automatically obtained from the Algebraic Normal Form of the algorithm. The results show a performance improvement, avoiding timing information leakage, but increasing the vulnerability against differential SCA.We provide a secure version of the algorithm by randomly discarding part of the data obtained. The overhead in performance is negligible when compared to the original implementations. To summarize, we have proposed a set of original countermeasures at different levels that introduce randomness in FSR-based algorithms avoiding a heavy overhead on the resources required.
Resumo:
Uno de los defectos más frecuentes en los generadores síncronos son los defectos a tierra tanto en el devanado estatórico, como de excitación. Se produce un defecto cuando el aislamiento eléctrico entre las partes activas de cualquiera de estos devanados y tierra se reduce considerablemente o desaparece. La detección de los defectos a tierra en ambos devanados es un tema ampliamente estudiado a nivel industrial. Tras la detección y confirmación de la existencia del defecto, dicha falta debe ser localizada a lo largo del devanado para su reparación, para lo que habitualmente el rotor debe ser extraído del estator. Esta operación resulta especialmente compleja y cara. Además, el hecho de limitar la corriente de defecto en ambos devanados provoca que el defecto no sea localizable visualmente, pues apenas existe daño en el generador. Por ello, se deben aplicar técnicas muy laboriosas para localizar exactamente el defecto y poder así reparar el devanado. De cara a reducir el tiempo de reparación, y con ello el tiempo en que el generador esta fuera de servicio, cualquier información por parte del relé de protección acerca de la localización del defecto resultaría de gran utilidad. El principal objetivo de esta tesis doctoral ha sido el desarrollo de nuevos algoritmos que permitan la estimación de la localización de los defectos a tierra tanto en el devanado rotórico como estatórico de máquinas síncronas. Respecto al devanado de excitación, se ha presentado un nuevo método de localización de defectos a tierra para generadores con excitación estática. Este método permite incluso distinguir si el defecto se ha producido en el devanado de excitación, o en cualquiera de los componentes del sistema de excitación, esto es, transformador de excitación, conductores de alimentación del rectificador controlado, etc. En caso de defecto a tierra en del devanado rotórico, este método proporciona una estimación de su localización. Sin embargo, para poder obtener la localización del defecto, se precisa conocer el valor de resistencia de defecto. Por ello, en este trabajo se presenta además un nuevo método para la estimación de este parámetro de forma precisa. Finalmente, se presenta un nuevo método de detección de defectos a tierra, basado en el criterio direccional, que complementa el método de localización, permitiendo tener en cuenta la influencia de las capacidades a tierra del sistema. Estas capacidades resultan determinantes a la hora de localizar el defecto de forma adecuada. En relación con el devanado estatórico, en esta tesis doctoral se presenta un nuevo algoritmo de localización de defectos a tierra para generadores que dispongan de la protección de faltas a tierra basada en la inyección de baja frecuencia. Se ha propuesto un método general, que tiene en cuenta todos los parámetros del sistema, así como una versión simplificada del método para generadores con capacidades a tierra muy reducida, que podría resultar de fácil implementación en relés de protección comercial. Los algoritmos y métodos presentados se han validado mediante ensayos experimentales en un generador de laboratorio de 5 kVA, así como en un generador comercial de 106 MVA con resultados satisfactorios y prometedores. ABSTRACT One of the most common faults in synchronous generators is the ground fault in both the stator winding and the excitation winding. In case of fault, the insulation level between the active part of any of these windings and ground lowers considerably, or even disappears. The detection of ground faults in both windings is a very researched topic. The fault current is typically limited intentionally to a reduced level. This allows to detect easily the ground faults, and therefore to avoid damage in the generator. After the detection and confirmation of the existence of a ground fault, it should be located along the winding in order to repair of the machine. Then, the rotor has to be extracted, which is a very complex and expensive operation. Moreover, the fact of limiting the fault current makes that the insulation failure is not visually detectable, because there is no visible damage in the generator. Therefore, some laborious techniques have to apply to locate accurately the fault. In order to reduce the repair time, and therefore the time that the generator is out of service, any information about the approximate location of the fault would be very useful. The main objective of this doctoral thesis has been the development of new algorithms and methods to estimate the location of ground faults in the stator and in the rotor winding of synchronous generators. Regarding the excitation winding, a new location method of ground faults in excitation winding of synchronous machines with static excitation has been presented. This method allows even to detect if the fault is at the excitation winding, or in any other component of the excitation system: controlled rectifier, excitation transformer, etc. In case of ground fault in the rotor winding, this method provides an estimation of the fault location. However, in order to calculate the location, the value of fault resistance is necessary. Therefore, a new fault-resistance estimation algorithm is presented in this text. Finally, a new fault detection algorithm based on directional criterion is described to complement the fault location method. This algorithm takes into account the influence of the capacitance-to-ground of the system, which has a remarkable impact in the accuracy of the fault location. Regarding the stator winding, a new fault-location algorithm has been presented for stator winding of synchronous generators. This algorithm is applicable to generators with ground-fault protection based in low-frequency injection. A general algorithm, which takes every parameter of the system into account, has been presented. Moreover, a simplified version of the algorithm has been proposed for generators with especially low value of capacitance to ground. This simplified algorithm might be easily implementable in protective relays. The proposed methods and algorithms have been tested in a 5 kVA laboratory generator, as well as in a 106 MVA synchronous generator with satisfactory and promising results.
Resumo:
Esta tesis desarrolla una metodología para comparar la viabilidad económica de distintas tecnologías de suministro energético para el bombeo de agua de riego en invernaderos tanto en España, Cuba o Pakistán (países con diferentes estados de desarrollo). En concreto, se analiza el bombeo directo eólico, el bombeo solar fotovoltaico, el bombeo con generadores diesel, y mediante conexión a la red eléctrica. El análisis tuvo en cuenta los recursos eólicos y solar, la altura de elevación, el tamaño de invernadero, la distancia al punto de conexión a la red, las necesidades de almacenamiento de agua y las fechas de siembra. Las comparaciones se realizaron usando un criterio técnico-económico basado en el coste normalizado de la energía de cada tecnología. En los tres países, el bombeo directo eólico no sería económicamente recomendable, en el caso de existir una conexión a la red. Allí donde no existe conexión a la red, la distancia a la red y los recursos eólico y solar disponibles son los factores clave a tener en cuenta a la hora de decidir entre las diferentes tecnologías. Por otro lado, la altura del bombeo del agua tiene una gran influencia sobre la viabilidad económica del bombeo directo eólico, mucho más que, por ejemplo, en el caso del bombeo solar fotovoltaico. En general, los resultados revelan que los factores críticos a tener en cuenta a la hora de elegir la solución energética óptima son diferentes en cada uno de los países. En el caso de España, la proximidad a los puntos de conexión de la red eléctrica determina que ésta sea la mejor opción. El limitado potencial eólico es el factor limitante en Pakistán. En Cuba, la altura del bombeo, la distancia al punto de conexión de la red eléctrica y el almacenamiento de agua necesario son los factores críticos para determinar la tecnología más apropiada para el bombeo al disponer de buenos recursos solar y eólico. ABSTRACT This thesis develops a methodology for comparing the economic feasibility of wind pump technology, solar photovoltaic pumping, diesel generators, and connection to the electrical grid to provide energy for pumping irrigation water in commercial greenhouses in Spain, Cuba and Pakistan (countries with different developmental backgrounds). The analysis studied the importance of the wind and solar resource, the water elevation, the greenhouse size, the distance to the grid, the pumping elevation, the water storage tank volume requirements, and the planting dates. Comparisons were made in terms of the levelised cost of energy associated with each technology. For all three countries, if a grid connection was already in place, installing wind pumps would be economically unwise. Where no grid connection exists, the distance to the grid and the wind and solar resources available are key factors to be taken into consideration when deciding between options. Finally, the water elevation has a major influence on the economic feasibility of wind pump technology, much more than, for example, on solar photovoltaic pumping technology. The results reveal that, generally, the critical factors to consider when making energy management decisions differ depending between countries. In Spain, the proximity of the electrical grid makes the connection to it the best option. In Pakistan, scarce wind resources are a serious limiting factor. Cuba, however, has good wind and solar resources; water elevation, distance to the grid, and water storage needed are the critical factors when determining the economic feasibility of wind pumping.
Resumo:
En la Comunidad de Madrid el modelo de ocupación del territorio en las dos últimas décadas ha obedecido a factores de oferta del mercado y no a las necesidades de la población, ello provoca un consumo de suelo y de recursos que conducen a una sobrexplotación insostenible. Las metrópolis globales están experimentando rápidas e intensas transformaciones, basadas en los paradigmas emergentes de la globalización, la gobernanza, la metropolizacion y la dispersión de las actividades en el territorio y a través de ellos se abordan los planes de Londres, París y las tentativas de Madrid. La globalización provoca la pérdida de soberanía de las administraciones publicas y la competitividad entre las ciudades globales en Europa, Londres, Paris y Madrid, son centros de poder, de concentración y crecimiento donde se produce la dualización del espacio y donde la desigualdad participa de la restructuración urbana, concentración de pobreza frente a espacios de la nueva clase emergente en donde dominan los sectores de servicios y las tecnologías de la información. Frente al desarrollo urbano neoliberal de regulación a través del mercado y basada en criterios de eficiencia de la Nueva Gestión Pública, se vislumbra la posibilidad de que la sociedad se administre a si misma por medio de acciones voluntarias y responsables que promuevan los intereses colectivos mediante el reconocimiento de su propia identidad, introduciendo el concepto de gobernanza. Frente, a la explotación del territorio por parte de la sociedad extractiva que genera corrupcion, se propone un modelo de cooperación público-privada basado en la confianza mutua, un marco regulador estable, la transparencia y la información a cuyo flujo más homogéneo contribuirán sin duda las TICs. En todo este proceso, las regiones metropolitanas en Europa se erigen como motores del crecimiento, donde los límites administrativos son superados, en un territorio cada vez más extendido y donde los gobiernos locales tienen que organizarse mediante un proceso de cooperación en la provisión de servicios que ayuden a evitar los desequilibrios territoriales. El fenómeno de la dispersión urbana en desarrollos de baja densidad, los centros comerciales periféricos, la expulsión hacia la periferia de las actividades de menor valor añadido y la concentración de funciones directivas en el centro, conducen a una fragmentación del territorio en islas dependientes del automóvil y a procesos de exclusión social por la huida de las rentas altas y la expulsión de las rentas bajas de los centros urbanos. Se crean fragmentos monofuncionales y discontinuos, apoyados en las autovías, lugares carentes de identidad y generadores de despilfarro de recursos y una falta de sostenibilidad ambiental, económica y social. El estudio de la cultura de la planificación en Europa ayuda a comprender los diferentes enfoques en la ordenación del territorio y el proceso de convergencia entre las diferentes regiones. Los documentos de la UE se basan en la necesidad de la competitividad para el crecimiento europeo y la cohesión social y en relación al territorio en los desarrollos policéntricos, la resolución del dualismo campo-ciudad, el acceso equilibrado a las infraestructuras, la gestión prudente de la naturaleza, el patrimonio y el fomento de la identidad. Se proponen dos niveles de estudio uno actual, los últimos planes de Londres y Paris y el otro la evolución de las tentativas de planes en la Región madrileña siempre en relación a los paradigmas emergentes señalados y su reflejo en los documentos. El Plan de Londres es estratégico, con una visión a largo plazo, donde se confiere un gran interés al proceso, al papel del alcalde como líder y su adaptación a las circunstancias cambiantes, sujeto a las incertidumbres de una ciudad global. El desarrollo del mismo se concibe a través de la colaboración y cooperación entre las administraciones y actores. La estructura del documento es flexible, establece orientaciones y guías indicativas, para la redacción de los planes locales, no siendo las mismas vinculantes y con escasa representación grafica. El Plan de París es más un plan físico, similar al de otros centros europeos, trabaja sobre los sectores y sobre los territorios, con información extensa, con características de “Plan Latino” por la fuerza de la expresión gráfica, pero al mismo tiempo contiene una visión estratégica. Es vinculante en sus determinaciones y normativas, se plantea fomentar, pero también prohibir. Ambos planes tratan la competitividad internacional de sus centros urbanos, la igualdad social, la inclusión de todos los grupos sociales y la vivienda como una cuestión de dignidad humana. Londres plantea la gobernanza como cooperación entre sector público-privado y la necesaria cooperación con las regiones limítrofes, en París las relaciones están más institucionalizadas resaltando la colaboración vertical entre administraciones. Ambos plantean la densificación de nodos servidos por transporte público, modos blandos y el uso los TODs y la preservación de la infraestructura verde jerarquizada, la potenciación de la red azul y la mejora del paisaje de las periferias. En las “tentativas” de planes territoriales de Madrid se constata que estuvieron sujetas a los ciclos económicos. El primer Documento las DOT del año 1984, no planteaba crecimiento, ni económico ni demográfico, a medio plazo y por ello no proponía una modificación del modelo radio concéntrico. Se trataba de un Plan rígido volcado en la recuperación del medio rural, de la ciudad, el dimensionamiento de los crecimientos en función de las dotaciones e infraestructuras existentes. Aboga por la intervención de la administración pública y la promoción del pequeño comercio. Destaca el desequilibrio social en función de la renta, la marginación de determinados grupos sociales, el desequilibrio residencia/empleo y la excesiva densidad. Incide en la necesidad de viviendas para los más desfavorecidos mediante el alquiler, la promoción suelo público y la promoción del ferrocarril para dar accesibilidad al espacio central. Aboga por el equipamiento de proximidad y de pequeño tamaño, el tratamiento paisajístico de los límites urbanos de los núcleos y el control de las actividades ilegales señalando orientaciones para el planeamiento urbano. Las Estrategias (1989) contienen una visión: la modificación del modelo territorial, mediante la intervención pública a través de proyectos. Plantea la reestructuración económica del territorio, la reconversión del aparato productivo, la deslocalización de actividades de escaso valor añadido y una mayor ubicuidad de la actividad económica. Incide en la difusión de la centralidad hacia el territorio del sur, equilibrándolo con el norte, tratando de recomponer empleo y residencia, integrando al desarrollo económico las periferias entre sí y con el centro. Las actuaciones de transporte consolidarían las actuaciones, modificando el modelo radio concéntrico facilitando la movilidad mediante la red de cercanías y la intermodalidad. El plan se basaba en el liderazgo del Consejero, no integrando sectores como el medio ambiente, ni estableciendo un documento de seguimiento de las actuaciones que evaluara los efectos de las políticas y su aportación al equilibrio territorial, a través de los proyectos realizados. El Documento Preparatorio de las Bases (1995), es más de un compendio o plan de planes, recoge análisis y propuestas de los documentos anteriores y de planes sectoriales de otros departamentos. Presenta una doble estructura: un plan físico integrador clásico, que abarca los sectores y territorios, y recoge las Estrategias previas añadiendo puntos fuertes, como el malestar urbano y la rehabilitación el centro. Plantea la consecución del equilibrio ambiental mediante el crecimiento de las ciudades existentes, la vertebración territorial basada en la movilidad y en la potenciación de nuevas centralidades, la mejora de la habitabilidad y rehabilitación integral del Centro Urbano de Madrid, y la modernización del tejido productivo existente. No existe una idea-fuerza que aglutine todo el documento, parte del reconocimiento de un modelo existente concentrado y congestivo, un centro urbano dual y dos periferias al este y sur con un declive urbano y obsolescencia productiva y al oeste y norte con una dispersión que amenaza al equilibrio medioambiental. Señala como aspectos relevantes, la creciente polarización y segregación social, la deslocalización industrial, la aparición de las actividades de servicios a las empresas instaladas en las áreas metropolitanas, y la dispersión de las actividades económicas en el territorio por la banalización del uso del automóvil. Se plantea el reto de hacer ciudad de la extensión suburbana y su conexión con el sistema metropolitano, mediante una red de ciudades integrada y complementaria, en búsqueda de un mayor equilibrio y solidaridad territorial. Las Bases del PRET (1997) tenían como propósito iniciar el proceso de concertación en que debe basarse la elaboración del Plan. Parte de la ciudad mediterránea compacta, y diversa, y de la necesidad de que las actividades económicas, los servicios y la residencia estén en proximidad, resolviéndolo mediante una potente red de transporte público que permitiese una accesibilidad integrada al territorio. El flujo de residencia hacia la periferia, con un modelo ajeno de vivienda unifamiliar y la concentración del empleo en el centro producen desequilibrio territorial. Madrid manifiesta siempre apostó por la densificación del espacio central urbanizado, produciendo su congestión, frente al desarrollo de nuevos suelos que permitieran su expansión territorial. Precisa que es necesario preservar los valores de centralidad de Madrid, como generador de riqueza, canalizando toda aquella demanda de centralidad, hacia espacios más periféricos. El problema de la vivienda no lo ve solo como social, sino como económico, debido a la pérdida de empleos que supone su paralización. Observa ya los crecimientos residenciales en el borde de la region por el menor valor del suelo. Plantea como la política de oferta ha dado lugar a un modelo de crecimiento fragmentado, desequilibrado, desestructurado, con fuertes déficits dotacionales y de equipamiento, que inciden en la segregación espacial de las rentas, agravando el proceso de falta de identidad morfológica y de desarraigo de los valores urbanos. El plan señalaba que la presión sobre el territorio creaba su densificación por las limitaciones de espacio, Incidía en limitar el peso de la intervención pública, no planteando propuestas de cooperación público-privado. La mayor incoherencia estriba en que los objetivos eran innovadores y coinciden en su mayoría con las propuestas estudiadas de Londres o Paris, pero se intentan implementar a través de un cambio hacia un modelo reticulado homogéneo, expansivo sobre el territorio, que supone un consumo de suelo y de infraestructuras para solucionar un problema inexistente, la gestión de la densidad. Durante las dos últimas décadas en ausencia de un plan regional, la postura neoliberal fue la de un exclusivo control de legalidad del planeamiento, los municipios entraron en un proceso de competencia para aprovechar las iniciales ventajas económicas de los crecimientos detectados, que proporcionaban una base económica “sólida” a unos municipios con escasos recursos en sus presupuestos municipales. La legislación se modifica a requerimiento de grupos interesados, no existiendo un marco estable. Se pierde la figura del plan no solo a nivel regional, si no en los sectores y el planeamiento municipal donde los municipios tiende a basarse en modificaciones puntuales con la subsiguiente pérdida del modelo urbanístico. La protección ambiental se estructura mediante un extenso nivel de figuras, con diversidad de competencias que impide su efectiva protección y control. Este proceso produce un despilfarro en la ocupación del suelo, apoyada en las infraestructuras viarias, y un crecimiento disperso y de baja densidad, cada vez más periférico, produciéndose una segmentación social por dualización del espacio en función de niveles de renta. Al amparo del boom inmobiliario, se produce una falta de política social de vivienda pública, más basada en la dinamización del mercado con producción de viviendas para rentas medias que en políticas de alquiler para determinados grupos concentrándose estas en los barrios desfavorecidos y en la periferia sur. Se produce un incremento de la vivienda unifamiliar, muchas veces amparada en políticas públicas, la misma se localiza en el oeste principalmente, en espacios de valor como el entorno del Guadarrama o con viviendas más baratas por la popularización de la tipología en la frontera de la Región. El territorio se especializa a modo de islas monofuncionales, las actividades financieras y de servicios avanzados a las empresas se localizan en el norte y oeste próximo, se pierde actividad industrial que se dispersa más al sur, muchas veces fuera de la región. Se incrementan los grandes centros comerciales colgados de las autovías y sin población en su entorno. Todo este proceso ha provocado una pérdida de utilización del transporte público y un aumento significativo del uso del vehículo privado. En la dos últimas décadas se ha producido en la región de Madrid desequilibrio territorial y segmentación social, falta de implicación de la sociedad en el territorio, dispersión del crecimiento y un incremento de los costes ambientales, sociales y económicos, situación, que solo, a través del uso racional del territorio se puede reconducir, apoyado en una planificación integrada sensible y participativa. ABSTRACT In Madrid the model of land occupation in the past two decades has been driven by market supply factors rather than the needs of the population. This results in a consumption of land and resources that leads to unsustainable overexploitation. Addressing this issue must be done through sensitive and participatory integrated planning. Global cities are experiencing rapid and intense change based on the emerging paradigms of globalization, governance, metropolization and the dispersion of activities in the territory. Through this context, a closer look will be taken at the London and Paris plans as well as the tentative plans of Madrid. Globalization causes the loss of state sovereignty and the competitiveness among global cities in Europe; London, Paris and Madrid. These are centres of power, concentration and growth where the duality of space is produced, and where inequality plays a part in urban restructuration. There are concentrated areas of poverty versus areas with a new emerging class where the services sector and information technologies are dominant. The introduction of ICTs contributes to a more homogeneous flow of information leading, us to the concept of governance. Against neoliberal urban development based on free market regulations and efficiency criteria as established by the “New Public Management”, emerge new ways where society administers itself through voluntary and responsible actions to promote collective interests by recognizing their own identity. A new model of public-private partnerships surfaces that is based on mutual trust, transparency, information and a stable regulatory framework in light of territorial exploitation by the “extractive society” that generates corruption. Throughout this process, European metropolitan regions become motors of growth where administrative boundaries are overcome in an ever expanding territory where government is organized through cooperative processes to provide services that protect against regional imbalances. Urban sprawl or low-density development as seen in peripheral shopping centres, the off-shoring of low added-value activities to the periphery, and the concentration of business and top management functions in the centre, leads to a fragmentation of the territory in automobile dependent islands and a process of social exclusion brought on by the disappearance of high incomes. Another effect is the elimination of low income populations from urban centres. In consequence, discontinuous expansions and mono-functional places that lack identity materialize supported by a highway network and high resource consumption. Studying the culture of urban planning in Europe provides better insight into different approaches to spatial planning and the process of convergence between different regions. EU documents are based on the need of competitiveness for European growth and social cohesion. In relation to polycentric development territory they are based on a necessity to solve the dualism between field and city, balanced access to infrastructures, prudent management of nature and solidifying heritage and identity Two levels of study unfold, the first being the current plans of London and Île-de-France and the second being the evolution of tentative plans for the Madrid region as related to emerging paradigms and how this is reflected in documents. The London Plan is strategic with a long-term vision that focuses on operation, the role of the mayor as a pivotal leader, and the adaptability to changing circumstances brought on by the uncertainties of a global city. Its development is conceived through collaboration and cooperation between governments and stakeholders. The document structure is flexible, providing guidance and indicative guidelines on how to draft local plans so they are not binding, and it contains scarce graphic representation. The Plan of Paris takes on a more physical form and is similar to plans of other European centres. It emphasizes sectors and territories, using extensive information, and is more characteristic of a “Latin Plan” as seen in its detailed graphic expression. However, it also contains a strategic vision. Binding in its determinations and policy, it proposes advancement but also prohibition. Both plans address the international competitiveness of urban centres, social equality, inclusion of all social groups and housing as issues of human dignity. London raises governance and cooperation between public and private sector and the need for cooperation with neighbouring regions. In Paris, the relations are more institutionalized highlighting vertical collaboration between administrations. Both propose nodes of densification served by public transportation, soft modes and the use of TOD, the preservation of a hierarchical green infrastructure, and enhancing the landscape in urban peripheries. The tentative territorial plans for the Madrid region provide evidence that they were subject to economic cycles. The first document of master guidelines (1984) does not address either economic or demographic growth in the mid term and therefore does not propose the modification of the radio-concentric model. It is a rigid plan focused on rural and urban recovery and the dimensioning of growth that depends on endowments and infrastructures. It advocates government intervention and promotes small business. The plan emphasizes social imbalance in terms of income, marginalization of certain social groups, the imbalance of residence/employment and excessive density. It stresses the need for social rent housing for the underprivileged, promotes public land, and the supports rail accessibility to the central area. It backs facilities of proximity and small size, enhancing the landscaping of city borders, controlling illegal activities and draws out guidelines for urban planning. The strategies (1989) contain a vision: Changing the territorial model through public intervention by means of projects. They bring to light economic restructuring of territory, the reconversion of the productive apparatus, relocation of low value-added activities, and greater ubiquity of economic activity. They also propose the diffusion of centrality towards southern territories, balancing it with the north in an attempt to reset employment and residence that integrates peripheral economic development both in the periphery and the centre. Transport would consolidate the project, changing the radius-concentric model and facilitating mobility through a commuter and inter-modality network. The plan derives itself from the leadership of the minister and does not integrate sectors such as environment. It also does not incorporate the existence of a written document that monitors performance to evaluate the effects of policies and their contribution to the territorial balance. The Preparatory Document of the Bases, (1995) is more a compendium, or plan of plans, that compiles analysis and proposals from previous documents and sectorial plans from other departments. It has a dual structure: An integrating physical plan covering the sectors and territories that includes the previous strategies while adding some strengths. One such point is the urban discomfort and the rehabilitation of the centre. It also poses the achievement of environmental balance through the growth of existing cities, the territorial linking based on mobility, strengthening new centres, improving the liveability and comprehensive rehabilitation of downtown Madrid, and the modernization of the existing production network. There is no one powerful idea that binds this document. This is due to the recognition of an existing concentrate and congestive model, a dual urban centre, two eastern and southern suburbs suffering from urban decay, and an obsolescent productive north and west whose dispersion threatens the environmental balance. Relevant aspects the document highlights are increasing polarization and social segregation, industrial relocation, the emergence of service activities to centralized companies in metropolitan areas and the dispersion of economic activities in the territory by the trivialization of car use. It proposes making the city from the suburban sprawl and its connection to the metropolitan system through a network of integrated and complementary cities in search of a better balance and territorial solidarity. The Bases of PRET (1997) aims to start the consultation process that must underpin the development of the plan. It stems from a compact and diverse Mediterranean city along with the need for economic activities, services and residences that are close. To resolve the issue, it presents a powerful network of public transport that allows integrated accessibility to the territory. The flow of residence to the periphery based on a foreign model of detached housing and an employment concentration in the centre produces territorial imbalance. Madrid always opted for the densification of the central space, producing its congestion, against the development of new land that would allow its territorial expansion. The document states that the necessity to preserve the values of the housing problem is not only viewed as social, but also economic due to the loss of jobs resulting from their paralysis. It notes the residential growth in the regional border due to the low price of land and argues that the policy of supply has led to a fragmented model of growth that is unbalanced, unstructured, with strong infrastructure and facility deficits that affect the spatial segregation of income and aggravate the lack of morphological identity, uprooting urban values. The pressure on the territory caused its densification due to space limitation; the proposed grid model causes land consumption and infrastructure to solve a non-problem, density. Focusing on limiting the weight of public intervention, it does not raise proposals for public-private cooperation. The biggest discrepancy is that the targets were innovative and mostly align with the proposals in London and Paris. However, it proposes to be implemented through a shift towards a uniform gridded model that is expansive over territory. During the last two decades, due to the absence of a regional plan, a neoliberal stance held exclusive control of the legality of urban planning. The municipalities entered a competition process to take advantage of initial economic benefits of such growth. This provided a “solid” economic base for some municipalities with limited resources in their municipal budgets. The law was amended without a legal stable framework at the request of stakeholders. The character of the plan is lost not only regionally, but also in the sectors and municipal planning. This tends to be based on specific changes with the loss of an urban model. Environmental protection is organized through an extensive number of protection figures with diverse competencies that prevent its effective protection. This process squanders the use of the land, backed by increasing road infrastructure, dispersed occupations with low-density growth causing a social segmentation due to space duality based on income levels. During the housing boom, there is a reduction in social public housing policy mostly due to a boost in the market of housing production for average incomes than in rental policies for needy social groups that focus on disadvantaged neighbourhoods and southern suburbs. As a result, there is an increase in single-family housing, often protected by public policy. This is located primarily in the west in areas of high environmental value such as Guadarrama. There is also cheaper housing due to the popularization of typology in the border region. There, territory works as a mono-functional islands. Financial activities and advanced services for companies are located to the north and west where industrial activity is lost as it migrates south, often outside the region. The number of large shopping centres hanging off the highway infrastructure with little to no surrounding population increases. This process leads to the loss of dependency on public transport and a significant increase in the use of private vehicles. The absence of regional planning has produced more imbalance, more social segmentation, more dispersed growth and a lot of environmental, social and economic costs that can only be redirected through rational territorial.
Resumo:
El transporte es crucial para impulsar el crecimiento económico y su rol en lograr un desarrollo sostenible1 es cada vez más evidente. El transporte, además, puede tener un papel clave en combatir el cambio climático a través de la reducción de emisiones de gases de efecto invernadero (GEI), puesto que el sector tiene relevante participación en las GEI mundiales. El transporte urbano, en particular, genera externalidades negativas y beneficios con una potencialidad de afectar a un volumen muy elevado de la población mundial. Debido a la relevancia que el sector analizado tiene desde la perspectiva de las emisiones de GEI y de otros gases y partículas generadores de contaminación local, también dicho sector ofrece un alto potencial para incorporar medidas de mitigación al cambio climático. Así, este trabajo se enmarca en las medidas de mitigación del cambio climático para el transporte urbano. Para ello, la investigación ha centrado su observación en la región de América Latina (AL), una de las regiones más urbanizadas del planeta y donde el transporte urbano es particularmente relevante por diversos factores entre los que se incluyen algunos de carácter económico, social, ambiental y tecnológico. El sector ofrece buenas oportunidades para contribuir eficazmente a los objetivos de reducción de emisiones de GEI en la región, emisiones que se estima que van a doblar su participación en las emisiones globales en veinte años. También se ha considerado que las medidas de reducción de emisiones podrían apoyar una transformación del transporte urbano orientándolo hacia una mayor sostenibilidad, toda vez que las actuales tendencias en AL indican un fuerte aumento del uso de modos de transporte no sostenible en los últimos años...
Resumo:
La investigación se centra en el proceso de construcción de la identidad española en las grandes exposiciones universales del siglo XIX (Londres, 1851, 1862), París (1855, 1867, 1878, 1889, 1900), Viena (1873), Filadelfia (1876) y Chicago (1893) analizando el modo en que estos concursos internacionales contribuyeron tanto a la percepción de un orden mundial jerarquizado según criterios políticos, económicos, sociales, religiosos y culturales; como a la proyección de la imagen exterior de España. En este sentido, la investigación no ha subestimado –si bien a menor escala– el impacto de la Exposición Universal de Barcelona de 1888, al ofrecer el contrapunto de una imagen nacional de prestigio industrial frente a la generalizada idea romántica del país que habitualmente se forjó en el resto de exposiciones. Estas ferias internacionales promovieron importantes hábitos sociales que contribuyeron a conformar las representaciones cognitivas de todos los colectivos y naciones del planeta. Uno de los más destacados fue el incipiente desarrollo de los medios de comunicación, las artes gráficas y la escenografía, sin olvidar el de las tradicionales muestras de Bellas Artes y la mercadotecnia turística. Sea como fuere, desde 1851, las exposiciones universales se presentan como prolíficos generadores de imágenes listas para un consumo visual no exento de connotación ideológica. Consecuentemente, la cultura visual en la tradición expositiva demuestra ser un interesante campo de investigación, en el que se hace necesario profundizar para poder esclarecer los vínculos recíprocos que se establecen entre la codificación de imaginarios y la construcción de identidades. Tomando en consideración lo expuesto, la investigación ha atendido a la relación establecida entre la cultura visual española y la formación de una identidad nacional que se emplaza en la encrucijada entre Oriente y Occidente, analizando su componente exótico, las implicaciones de la oposición dialéctica entre centro y periferia, así como la pretensión legitimadora de convertir a España en nexo de unión entre Europa y América. Con respecto a la metodología, esta tesis doctoral se apoya fundamentalmente en el análisis de la documentación de época conservada en archivos de prestigio internacional, reuniendo textos e imágenes originales a los que se suma tanto el estudio de la literatura coetánea como de la teoría crítica actual desarrollada durante los casi cuarenta últimos años. Los resultados confirman que la delegación española expuso esencialmente productos naturales, careciendo de una destacada representación manufacturera. El retraso económico, pero también la falta de una cultura empresarial expositiva, fueron causa de este pobre resultado que, asociado a la imagen exótica que los viajeros occidentales habían configurado desde tiempo atrás, proyectó la imagen de un pueblo anclado en un mundo pretérito. Esta fue precisamente la visión que los artistas extranjeros recrearon en sus obras, confirmando que imaginario visual y condicionamiento cultural influyen en la cristalización plástica y constante reinvención de los estereotipos culturales. Sin embargo, muchos españoles también fijaron esta imagen romántica: la de una nación sometida alternativamente a la idea dicotómica de un país luminoso, radiante y alegre y la de un territorio sombrío, absolutista y fanático; en definitiva, la de un pueblo apasionado varado en un pasado poético donde ninguna evidencia de modernidad tecnológica o contaminación cultural podían darse. Incluso, los espectáculos y actuaciones que especuladores foráneos y locales promovieron, se sirvieron de esta imagen exótica en pro del rédito económico. Así, la cultura visual viene a confirmar la constante interpretación reduccionista y simplista de la realidad heterogénea y plural del estado español...
Resumo:
Aunque no cabe identificar el desarrollo con el mero crecimiento económico, la ampliación de las capacidades productivas de un país constituye una dimensión obligada de toda senda sostenible de progreso social. Ampliar las capacidades productivas exige, a su vez, la promoción del tejido productivo y empresarial en los países en desarrollo, potenciando la capacidad de la sociedad para convertir las iniciativas creativas en emprendimientos generadores de renta y empleo. Es esta convicción la que convierte a este sector en una de las obligadas prioridades de las políticas de desarrollo.
Resumo:
Los insectos, el grupo de organismos vivos con la más alta biodiversidad conocida, agrupa el 55% de todas las especies descritas y se encuentran en todos los ecosistemas terrestres y de agua dulce donde ocupan una gran variedad de nichos, participando en todos los procesos ecológicos. Este grupo de animales presenta una alta diversidad de hábitos tróficos, pudiendo ser fitófagos, saprófagos, descomponedores, depredadores o parasitoides, siendo los principales responsables del reciclaje de más del 20% de la biomasa vegetal terrestre (Samways, 1994, 2005), y uno de los principales degradadores de restos de origen animal (Galante & Marcos-García, 2004a). Por otra parte, los insectos son imprescindibles como mantenedores y generadores de biodiversidad vegetal ya que más del 75% de las plantas con flores de todo el mundo dependen de la acción polinizadora de los insectos (Tepedino & Griwold, 1990; Fontaine et al., 2006).