634 resultados para Entails


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Electrical Protection systems and Automatic Voltage Regulators (AVR) are essential components of actual power plants. Its installation and setting is performed during the commissioning, and it needs extensive experience since any failure in this process or in the setting, may entails some risk not only for the generator of the power plant, but also for the reliability of the power grid. In this paper, a real time power plant simulation platform is presented as a tool for improving the training and learning process on electrical protections and automatic voltage regulators. The activities of the commissioning procedure which can be practiced are described, and the applicability of this tool for improving the comprehension of this important part of the power plants is discussed. A commercial AVR and a multifunction protective relay have been tested with satisfactory results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los últimos años, las sociedades industrializadas han tomado una mayor conciencia sobre el problema que suponen las emisiones indiscriminadas de gases de efecto invernadero a la atmósfera. El hormigón, cuyo principal componente es el cemento, es probablemente el material más utilizado en construcción. En la actualidad, las emisiones globales de CO2 debidas a la combustión del CaCO3 del cemento Pórtland representan entre el 5% y el 10% respecto del total. Estos valores son de gran interés si se considera que el compromiso aceptado al firmar el Protocolo de Kioto es de una reducción del 5% antes del año 2020, sobre el total de gases producidos. El principal objetivo del presente trabajo es el estudio microestructural y de los procesos de hidratación de los cementos con adiciones. Para ello se propone contribuir a la investigación sobre nuevos productos cementicios basados en micropartículas esféricas vítreas que pueden adicionarse al cemento antes del proceso de amasado. Los resultados obtenidos se han contrastado con las adiciones convencionales de más uso en la actualidad. El nuevo material basa su composición en la química del aluminio y el silicio. Al disminuir la cantidad de CaCO3, se contribuye al desarrollo sostenible y a la reducción de emisiones de CO2. La patente creada por el Grupo Cementos Pórtland Valderrivas (GCPV), describe el proceso de producción de las cemesferas (WO 2009/007470, 2010). Los productos que forman la materia prima para la elaboración de las cemesferas son arcillas, calizas, margas o productos o subproductos industriales, que tras su molienda, son fundidos mediante un fluido gaseoso a elevada temperatura (entre 1250ºC y 1600ºC). Este proceso permite obtener un producto final en forma esférica maciza o microesfera, que tras estabilizarse mediante un enfriamiento rápido, consigue una alta vitrificación idónea para su reactividad química, con una mínima superficie específica en relación a su masa. El producto final obtenido presenta prácticamente la finura requerida y no precisa ser molido, lo que reduce las emisiones de CO2 por el ahorro de combustible durante el proceso de molienda. El proceso descrito permite obtener un amplio abanico de materiales cementantes que, no solo pueden dar respuesta a los problemas generados por las emisiones de CO2, sino también a la disponibilidad de materiales en países donde hasta el momento no se puede fabricar cemento debido a la falta de calizas. Complementariamente se ha optimizado el método de cálculo del grado de hidratación a partir de los resultados del ensayo de ATD-TG en base a los modelos de cálculo de Bhatty y Pane. El método propuesto permite interpretar el comportamiento futuro del material a partir de la interpolación numérica de la cantidad de agua químicamente enlazada. La evolución del grado de hidratación tiene una relación directa con el desarrollo de la resistencia mecánica del material. Con el fin de caracterizar los materiales de base cemento, se ha llevado a cabo una amplia campaña experimental en pasta de cemento, mortero y hormigón. La investigación abarca tres niveles: caracterización microestructural, macroestructural y caracterización del comportamiento a largo plazo, fundamentalmente durabilidad. En total se han evaluado ocho adiciones diferentes: cuatro adiciones convencionales y cuatro tipos de cemesferas con diferente composición química. Los ensayos a escala microscópica comprenden la caracterización química, granulométrica y de la superficie específica BET de los materiales anhidros, análisis térmico diferencial y termogravimétrico en pasta de cemento y mortero, resonancia magnética de silicio en pasta de cemento, difracción de rayos X de los materiales anhidros y de las probetas de pasta, microscopía electrónica de barrido con analizador de energía dispersiva por rayos X en pasta y mortero, y porosimetría por intrusión de mercurio en mortero. La caracterización macroscópica del material comprende ensayos de determinación del agua de consistencia normal y de los tiempos de inicio y fin de fraguado en pasta de cemento, ensayos de resistencia mecánica a flexión y compresión en probetas prismáticas de mortero, y ensayos de resistencia a compresión en probetas de hormigón. Para caracterizar la durabilidad se han desarrollado ensayos de determinación del coeficiente de migración de cloruros y ensayos de resistividad eléctrica en probetas de mortero. Todos los ensayos enumerados permiten clarificar el comportamiento de las cemesferas y compararlo con las distintas adiciones de uso convencional. Los resultados reflejan un buen comportamiento resistente y durable de los materiales con adición de cemesferas. La caracterización microscópica refleja su relación con las propiedades mesoscópicas y permite comprender mejor la evolución en los procesos de hidratación de las cemesferas. In recent years industrialised societies have become increasingly aware of the problem posed by indiscriminate emission of greenhouse gases into the atmosphere. Concrete, with a main component being cement, is arguably the most widely used construction material. At present, global emissions of CO2 due to the combustion of CaCO3 from Portland cement represent between 5% and 10% of the total. If the requirement of the Kyoto Protocol of a reduction of 5% of the total gas produced before 2020 is considered, then such values are of significant interest. The main objective of this work is the assessment of the microstructure and the hydration processes of cements with additions. Such an examination proposes research into new cementitious products based on vitreous spherical microparticles that may be added to the cement before the mixing process. The results are compared with the most commonly used conventional additions. The new material bases its composition on the chemistry of aluminium and silicates. By decreasing the amount of CaCO3, it is possible both to contribute to sustainable development and reduce CO2 emissions. The patent created by Grupo Cementos Portland Valderrivas (GCPV) describes the production process of microspheres (WO 2009/007470, 2010). The products that form the raw material for manufacture are clays, lime-stone, marl and industrial products or by-products that melt after being ground and fed into a gaseous fluid at high temperatures (1250°C and 1600°C). This process allows the obtaining of a product with a solid-spherical or micro-spherical shape and which, after being stabilised in a solid state by rapid cooling, obtains a high vitrification suitable for chemical reactivity, having a minimal surface in relation to its mass. Given that the final product has the fineness required, it prevents grinding that reduces CO2 emissions by saving fuel during this process. The process, which allows a wide range of cementitious materials to be obtained, not only addresses the problems caused by CO2 emissions but also enhances the availability of materials in countries that until the time of writing have not produced cement due to a lack of limestone. In addition, the calculation of the degree of hydration from the test results of DTA-TG is optimised and based on Bhatty and Pane calculation models. The proposed method allows prediction of the performance of the material from numerical interpolation of the amount of chemically bound water. The degree of hydration has a direct relationship with the development of material mechanical strength. In order to characterise the cement-based materials, an extensive experimental campaign in cement paste, concrete and mortar is conducted. The research comprises three levels: micro-structural characterisation, macro-structural and long-term behaviour (mainly durability). In total, eight additions are assessed: four conventional additions and four types of microspheres with different chemical compositions. The micro-scale tests include characterisation of chemical composition, particle size distribution and the BET specific surface area of anhydrous material, differential thermal and thermogravimetric analysis in cement paste and mortar, silicon-29 nuclear magnetic resonance in cement paste, X-ray diffraction of the anhydrous materials and paste specimens, scanning of electron microscopy with energy dispersive X-ray analyser in cement paste and mortar, and mercury intrusion porosimetry in mortar. The macroscopic material characterisation entails determination of water demand for normal consistency, and initial and final setting times of cement paste, flexural and compressive mechanical strength tests in prismatic mortar specimens, and compressive strength tests in concrete specimens. Tests for determining the chloride migration coefficient are performed to characterise durability, together with electrical resistivity tests in mortar specimens. All the tests listed allow clarification of the behaviour of the microspheres and comparison with the various additions of conventional use. The results show good resistance and durable behaviour of materials with a microsphere addition. Microscopic characterisation reflects their relationship with mesoscopic properties and provides insights into the hydration processes of the microspheres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Electricity price forecasting is an interesting problem for all the agents involved in electricity market operation. For instance, every profit maximisation strategy is based on the computation of accurate one-day-ahead forecasts, which is why electricity price forecasting has been a growing field of research in recent years. In addition, the increasing concern about environmental issues has led to a high penetration of renewable energies, particularly wind. In some European countries such as Spain, Germany and Denmark, renewable energy is having a deep impact on the local power markets. In this paper, we propose an optimal model from the perspective of forecasting accuracy, and it consists of a combination of several univariate and multivariate time series methods that account for the amount of energy produced with clean energies, particularly wind and hydro, which are the most relevant renewable energy sources in the Iberian Market. This market is used to illustrate the proposed methodology, as it is one of those markets in which wind power production is more relevant in terms of its percentage of the total demand, but of course our method can be applied to any other liberalised power market. As far as our contribution is concerned, first, the methodology proposed by García-Martos et al(2007 and 2012) is generalised twofold: we allow the incorporation of wind power production and hydro reservoirs, and we do not impose the restriction of using the same model for 24h. A computational experiment and a Design of Experiments (DOE) are performed for this purpose. Then, for those hours in which there are two or more models without statistically significant differences in terms of their forecasting accuracy, a combination of forecasts is proposed by weighting the best models(according to the DOE) and minimising the Mean Absolute Percentage Error (MAPE). The MAPE is the most popular accuracy metric for comparing electricity price forecasting models. We construct the combi nation of forecasts by solving several nonlinear optimisation problems that allow computation of the optimal weights for building the combination of forecasts. The results are obtained by a large computational experiment that entails calculating out-of-sample forecasts for every hour in every day in the period from January 2007 to Decem ber 2009. In addition, to reinforce the value of our methodology, we compare our results with those that appear in recent published works in the field. This comparison shows the superiority of our methodology in terms of forecasting accuracy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This article reviews all the experimental tests carried out to analyze the performance of a FluidReflex photovoltaic concentrator. This novel concentrator concept consists of a single reflective stage immersed in an optical fluid. The presence of the fluid entails significant advantages. It not only allows a high system optical efficiency and increases the attainable concentration but also enhances the heat dissipation from the cell. In addition, the electrical insulation is improved, and the problem of water vapor condensation inside the module is avoided. A complete characterization is addressed in this paper. Among the experimental results, a measured optical efficiency of 83.5% for a concentration of 1035× stands out

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The hot-spot phenomenon is a relatively frequent problem in current photovoltaic generators. It entails both a risk for the photovoltaic module's lifetime and a decrease in its operational efficiency. Nevertheless, there is still a lack of widely accepted procedures for dealing with them in practice. This paper presents the IES UPM observations on 200 affected modules. Visual and infrared inspection, electroluminescence, peak power and operating voltage tests have been accomplished. Hot-spot observation procedures and well defined acceptance and rejection criteria are proposed, addressing both the lifetime and the operational efficiency of the modules. The operating voltage has come out as the best parameter to control effective efficiency losses for the affected modules. This procedure is oriented to its possible application in contractual frameworks.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis estudia la reducción plena (‘full reduction’ en inglés) en distintos cálculos lambda. 1 En esencia, la reducción plena consiste en evaluar los cuerpos de las funciones en los lenguajes de programación funcional con ligaduras. Se toma el cálculo lambda clásico (i.e., puro y sin tipos) como el sistema formal que modela el paradigma de programación funcional. La reducción plena es una técnica fundamental cuando se considera a los programas como datos, por ejemplo para la optimización de programas mediante evaluación parcial, o cuando algún atributo del programa se representa a su vez por un programa, como el tipo en los demostradores automáticos de teoremas actuales. Muchas semánticas operacionales que realizan reducción plena tienen naturaleza híbrida. Se introduce formalmente la noción de naturaleza híbrida, que constituye el hilo conductor de todo el trabajo. En el cálculo lambda la naturaleza híbrida se manifiesta como una ‘distinción de fase’ en el tratamiento de las abstracciones, ya sean consideradas desde fuera o desde dentro de si mismas. Esta distinción de fase conlleva una estructura en capas en la que una semántica híbrida depende de una o más semánticas subsidiarias. Desde el punto de vista de los lenguajes de programación, la tesis muestra como derivar, mediante técnicas de transformación de programas, implementaciones de semánticas operacionales que reducen plenamente a partir de sus especificaciones. Las técnicas de transformación de programas consisten en transformaciones sintácticas que preservan la equivalencia semántica de los programas. Se ajustan las técnicas de transformación de programas existentes para trabajar con implementaciones de semánticas híbridas. Además, se muestra el impacto que tiene la reducción plena en las implementaciones que utilizan entornos. Los entornos son un ingrediente fundamental en las implementaciones realistas de una máquina abstracta. Desde el punto de vista de los sistemas formales, la tesis desvela una teoría novedosa para el cálculo lambda con paso por valor (‘call-by-value lambda calculus’ en inglés) que es consistente con la reducción plena. Dicha teoría induce una noción de equivalencia observacional que distingue más puntos que las teorías existentes para dicho cálculo. Esta contribución ayuda a establecer una ‘teoría estándar’ en el cálculo lambda con paso por valor que es análoga a la ‘teoría estándar’ del cálculo lambda clásico propugnada por Barendregt. Se presentan resultados de teoría de la demostración, y se sugiere como abordar el estudio de teoría de modelos. ABSTRACT This thesis studies full reduction in lambda calculi. In a nutshell, full reduction consists in evaluating the body of the functions in a functional programming language with binders. The classical (i.e., pure untyped) lambda calculus is set as the formal system that models the functional paradigm. Full reduction is a prominent technique when programs are treated as data objects, for instance when performing optimisations by partial evaluation, or when some attribute of the program is represented by a program itself, like the type in modern proof assistants. A notable feature of many full-reducing operational semantics is its hybrid nature, which is introduced and which constitutes the guiding theme of the thesis. In the lambda calculus, the hybrid nature amounts to a ‘phase distinction’ in the treatment of abstractions when considered either from outside or from inside themselves. This distinction entails a layered structure in which a hybrid semantics depends on one or more subsidiary semantics. From a programming languages standpoint, the thesis shows how to derive implementations of full-reducing operational semantics from their specifications, by using program transformations techniques. The program transformation techniques are syntactical transformations which preserve the semantic equivalence of programs. The existing program transformation techniques are adjusted to work with implementations of hybrid semantics. The thesis also shows how full reduction impacts the implementations that use the environment technique. The environment technique is a key ingredient of real-world implementations of abstract machines which helps to circumvent the issue with binders. From a formal systems standpoint, the thesis discloses a novel consistent theory for the call-by-value variant of the lambda calculus which accounts for full reduction. This novel theory entails a notion of observational equivalence which distinguishes more points than other existing theories for the call-by-value lambda calculus. This contribution helps to establish a ‘standard theory’ in that calculus which constitutes the analogous of the ‘standard theory’ advocated by Barendregt in the classical lambda calculus. Some prooftheoretical results are presented, and insights on the model-theoretical study are given.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tesis aborda los problemas de eficiencia de las redes eléctrica desde el punto de vista del consumo. En particular, dicha eficiencia es mejorada mediante el suavizado de la curva de consumo agregado. Este objetivo de suavizado de consumo implica dos grandes mejoras en el uso de las redes eléctricas: i) a corto plazo, un mejor uso de la infraestructura existente y ii) a largo plazo, la reducción de la infraestructura necesaria para suplir las mismas necesidades energéticas. Además, esta Tesis se enfrenta a un nuevo paradigma energético, donde la presencia de generación distribuida está muy extendida en las redes eléctricas, en particular, la generación fotovoltaica (FV). Este tipo de fuente energética afecta al funcionamiento de la red, incrementando su variabilidad. Esto implica que altas tasas de penetración de electricidad de origen fotovoltaico es perjudicial para la estabilidad de la red eléctrica. Esta Tesis trata de suavizar la curva de consumo agregado considerando esta fuente energética. Por lo tanto, no sólo se mejora la eficiencia de la red eléctrica, sino que también puede ser aumentada la penetración de electricidad de origen fotovoltaico en la red. Esta propuesta conlleva grandes beneficios en los campos económicos, social y ambiental. Las acciones que influyen en el modo en que los consumidores hacen uso de la electricidad con el objetivo producir un ahorro energético o un aumento de eficiencia son llamadas Gestión de la Demanda Eléctrica (GDE). Esta Tesis propone dos algoritmos de GDE diferentes para cumplir con el objetivo de suavizado de la curva de consumo agregado. La diferencia entre ambos algoritmos de GDE reside en el marco en el cual estos tienen lugar: el marco local y el marco de red. Dependiendo de este marco de GDE, el objetivo energético y la forma en la que se alcanza este objetivo son diferentes. En el marco local, el algoritmo de GDE sólo usa información local. Este no tiene en cuenta a otros consumidores o a la curva de consumo agregado de la red eléctrica. Aunque esta afirmación pueda diferir de la definición general de GDE, esta vuelve a tomar sentido en instalaciones locales equipadas con Recursos Energéticos Distribuidos (REDs). En este caso, la GDE está enfocada en la maximización del uso de la energía local, reduciéndose la dependencia con la red. El algoritmo de GDE propuesto mejora significativamente el auto-consumo del generador FV local. Experimentos simulados y reales muestran que el auto-consumo es una importante estrategia de gestión energética, reduciendo el transporte de electricidad y alentando al usuario a controlar su comportamiento energético. Sin embargo, a pesar de todas las ventajas del aumento de auto-consumo, éstas no contribuyen al suavizado del consumo agregado. Se han estudiado los efectos de las instalaciones locales en la red eléctrica cuando el algoritmo de GDE está enfocado en el aumento del auto-consumo. Este enfoque puede tener efectos no deseados, incrementando la variabilidad en el consumo agregado en vez de reducirlo. Este efecto se produce porque el algoritmo de GDE sólo considera variables locales en el marco local. Los resultados sugieren que se requiere una coordinación entre las instalaciones. A través de esta coordinación, el consumo debe ser modificado teniendo en cuenta otros elementos de la red y buscando el suavizado del consumo agregado. En el marco de la red, el algoritmo de GDE tiene en cuenta tanto información local como de la red eléctrica. En esta Tesis se ha desarrollado un algoritmo autoorganizado para controlar el consumo de la red eléctrica de manera distribuida. El objetivo de este algoritmo es el suavizado del consumo agregado, como en las implementaciones clásicas de GDE. El enfoque distribuido significa que la GDE se realiza desde el lado de los consumidores sin seguir órdenes directas emitidas por una entidad central. Por lo tanto, esta Tesis propone una estructura de gestión paralela en lugar de una jerárquica como en las redes eléctricas clásicas. Esto implica que se requiere un mecanismo de coordinación entre instalaciones. Esta Tesis pretende minimizar la cantidad de información necesaria para esta coordinación. Para lograr este objetivo, se han utilizado dos técnicas de coordinación colectiva: osciladores acoplados e inteligencia de enjambre. La combinación de estas técnicas para llevar a cabo la coordinación de un sistema con las características de la red eléctrica es en sí mismo un enfoque novedoso. Por lo tanto, este objetivo de coordinación no es sólo una contribución en el campo de la gestión energética, sino también en el campo de los sistemas colectivos. Los resultados muestran que el algoritmo de GDE propuesto reduce la diferencia entre máximos y mínimos de la red eléctrica en proporción a la cantidad de energía controlada por el algoritmo. Por lo tanto, conforme mayor es la cantidad de energía controlada por el algoritmo, mayor es la mejora de eficiencia en la red eléctrica. Además de las ventajas resultantes del suavizado del consumo agregado, otras ventajas surgen de la solución distribuida seguida en esta Tesis. Estas ventajas se resumen en las siguientes características del algoritmo de GDE propuesto: • Robustez: en un sistema centralizado, un fallo o rotura del nodo central provoca un mal funcionamiento de todo el sistema. La gestión de una red desde un punto de vista distribuido implica que no existe un nodo de control central. Un fallo en cualquier instalación no afecta el funcionamiento global de la red. • Privacidad de datos: el uso de una topología distribuida causa de que no hay un nodo central con información sensible de todos los consumidores. Esta Tesis va más allá y el algoritmo propuesto de GDE no utiliza información específica acerca de los comportamientos de los consumidores, siendo la coordinación entre las instalaciones completamente anónimos. • Escalabilidad: el algoritmo propuesto de GDE opera con cualquier número de instalaciones. Esto implica que se permite la incorporación de nuevas instalaciones sin afectar a su funcionamiento. • Bajo coste: el algoritmo de GDE propuesto se adapta a las redes actuales sin requisitos topológicos. Además, todas las instalaciones calculan su propia gestión con un bajo requerimiento computacional. Por lo tanto, no se requiere un nodo central con un alto poder de cómputo. • Rápido despliegue: las características de escalabilidad y bajo coste de los algoritmos de GDE propuestos permiten una implementación rápida. No se requiere una planificación compleja para el despliegue de este sistema. ABSTRACT This Thesis addresses the efficiency problems of the electrical grids from the consumption point of view. In particular, such efficiency is improved by means of the aggregated consumption smoothing. This objective of consumption smoothing entails two major improvements in the use of electrical grids: i) in the short term, a better use of the existing infrastructure and ii) in long term, the reduction of the required infrastructure to supply the same energy needs. In addition, this Thesis faces a new energy paradigm, where the presence of distributed generation is widespread over the electrical grids, in particular, the Photovoltaic (PV) generation. This kind of energy source affects to the operation of the grid by increasing its variability. This implies that a high penetration rate of photovoltaic electricity is pernicious for the electrical grid stability. This Thesis seeks to smooth the aggregated consumption considering this energy source. Therefore, not only the efficiency of the electrical grid is improved, but also the penetration of photovoltaic electricity into the grid can be increased. This proposal brings great benefits in the economic, social and environmental fields. The actions that influence the way that consumers use electricity in order to achieve energy savings or higher efficiency in energy use are called Demand-Side Management (DSM). This Thesis proposes two different DSM algorithms to meet the aggregated consumption smoothing objective. The difference between both DSM algorithms lie in the framework in which they take place: the local framework and the grid framework. Depending on the DSM framework, the energy goal and the procedure to reach this goal are different. In the local framework, the DSM algorithm only uses local information. It does not take into account other consumers or the aggregated consumption of the electrical grid. Although this statement may differ from the general definition of DSM, it makes sense in local facilities equipped with Distributed Energy Resources (DERs). In this case, the DSM is focused on the maximization of the local energy use, reducing the grid dependence. The proposed DSM algorithm significantly improves the self-consumption of the local PV generator. Simulated and real experiments show that self-consumption serves as an important energy management strategy, reducing the electricity transport and encouraging the user to control his energy behavior. However, despite all the advantages of the self-consumption increase, they do not contribute to the smooth of the aggregated consumption. The effects of the local facilities on the electrical grid are studied when the DSM algorithm is focused on self-consumption maximization. This approach may have undesirable effects, increasing the variability in the aggregated consumption instead of reducing it. This effect occurs because the algorithm only considers local variables in the local framework. The results suggest that coordination between these facilities is required. Through this coordination, the consumption should be modified by taking into account other elements of the grid and seeking for an aggregated consumption smoothing. In the grid framework, the DSM algorithm takes into account both local and grid information. This Thesis develops a self-organized algorithm to manage the consumption of an electrical grid in a distributed way. The goal of this algorithm is the aggregated consumption smoothing, as the classical DSM implementations. The distributed approach means that the DSM is performed from the consumers side without following direct commands issued by a central entity. Therefore, this Thesis proposes a parallel management structure rather than a hierarchical one as in the classical electrical grids. This implies that a coordination mechanism between facilities is required. This Thesis seeks for minimizing the amount of information necessary for this coordination. To achieve this objective, two collective coordination techniques have been used: coupled oscillators and swarm intelligence. The combination of these techniques to perform the coordination of a system with the characteristics of the electric grid is itself a novel approach. Therefore, this coordination objective is not only a contribution in the energy management field, but in the collective systems too. Results show that the proposed DSM algorithm reduces the difference between the maximums and minimums of the electrical grid proportionally to the amount of energy controlled by the system. Thus, the greater the amount of energy controlled by the algorithm, the greater the improvement of the efficiency of the electrical grid. In addition to the advantages resulting from the smoothing of the aggregated consumption, other advantages arise from the distributed approach followed in this Thesis. These advantages are summarized in the following features of the proposed DSM algorithm: • Robustness: in a centralized system, a failure or breakage of the central node causes a malfunction of the whole system. The management of a grid from a distributed point of view implies that there is not a central control node. A failure in any facility does not affect the overall operation of the grid. • Data privacy: the use of a distributed topology causes that there is not a central node with sensitive information of all consumers. This Thesis goes a step further and the proposed DSM algorithm does not use specific information about the consumer behaviors, being the coordination between facilities completely anonymous. • Scalability: the proposed DSM algorithm operates with any number of facilities. This implies that it allows the incorporation of new facilities without affecting its operation. • Low cost: the proposed DSM algorithm adapts to the current grids without any topological requirements. In addition, every facility calculates its own management with low computational requirements. Thus, a central computational node with a high computational power is not required. • Quick deployment: the scalability and low cost features of the proposed DSM algorithms allow a quick deployment. A complex schedule of the deployment of this system is not required.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El interés por el estudio de la problemática del ruido en las escuelas y sus efectos sobre los estudiantes a nivel universitarios, es un tema que no ha sido estudiado debidamente. Desgraciadamente, en el ámbito educativo universitario, no existen regulaciones específicas que permitan determinar parámetros preventivos, ni procedimientos de evaluación de ruido dentro de este tipo de instalaciones educativas. Debido a la importancia de los efectos que el ruido tiene sobre la salud y la calidad de vida de los estudiantes universitarios, y consecuentemente en el rendimiento académico; es de suma importancia desarrollar mecanismos que estudien y planteen soluciones que ayuden a garantizar la mejora de la calidad de vida de la población estudiantil. En este trabajo se ha presentado un extenso trabajo que incluye el estudio de los ambientes sonoros a los que los estudiantes universitarios se ven expuestos día a día y se proponen acciones que ayudan a mejorar la calidad acústica en instalaciones educativas. Así mismo se evidencian los efectos que tiene este contaminante sobre la salud psicológica y por consecuencia en el desarrollo intelectual de los estudiantes. Por un lado, se incluye una propuesta de metodología que ayuda a la correcta caracterización de los ambientes sonoros en los cuales se desarrollan los estudiantes a nivel universitario. Esta se realizó haciendo un completo registro de los niveles sonoros durante sus actividades diarias. Así mismo, una encuesta fue aplicada a estudiantes para conocer la percepción que se tiene sobre las condiciones sonoras en ambientes universitarios. Así mismo, se realizó un estudio de la calidad sonora en instalaciones universitarias, el cual deriva la valoración de la molestia al ruido. Se propone una escala de valoración de molestia al ruido, la cual deriva el diseño de una propuesta con acciones de bajo coste frente al ruido. Por otro lado, se evidencian los trastornos que ocasiona este contaminante sobre la salud psicológica de los estudiantes y que afectan el desarrollo académico de estos. Se realizó primeramente la valoración de la atención y la memoria por medio de test psicométricos estandarizados y otros diseñados para este estudio en particular. Por último, con la finalidad de obtener datos objetivos y confiables que permitieron relacionar la influencia negativa del ruido de fondo sobre procesos cognitivos básicos como la atención y la memoria, se llevó a cabo un estudio de la actividad cerebral. Para llevar a cabo esta evaluación se utilizó como principal herramienta el electroencefalograma (EEG), enfocándose en los cambios producidos con y sin exposición a ruido de fondo, específicamente en las bandas de frecuencia relacionadas con procesos cognitivos básicos como los son la atención y la memoria, en este caso la banda theta (4-7 Hz) y la banda beta (13-30 Hz). ABSTRACT The interest in the study of the problem of noise in schools and its impact on students at university level is a topic that has not been properly studied. Unfortunately, there are no specific regulations for determining preventive parameters or noise assessment procedures in university facilities. Due to the importance of the effects that noise has on health and on the quality of life of university students, and consequently on academic performance; is very important to develop mechanisms to evaluate and design solutions that help ensure an improvement in the quality of life of the student population. This thesis has presented an extensive work, which includes the study of the state of the art on the problem of noise in the sound environments to which university students are exposed every day, and the effects on students mainly on attention aspects. On one hand, a general study of the common noise environments of life of university students was carried out, where a methodological proposal is included and that helps in the correct characterization of the sound environments in which university students grow. This proposal includes the assessment of noise exposure, noise dose and a recording of the characteristic sound levels during their daily activities in and out spaces dedicated to their education. Also, a survey was conducted to know the perception that students have on noise conditions in university environments. Also, a method for evaluation of the noise annoyance is proposed, this is through the correlation of two known methods of evaluation. The first method is based on psychoacoustic parameters that allow the evaluation of the sound quality. These parameters were related, obtaining as a result the parameter known as psychoacoustics annoyance. The second method is based on a questionnaire in conjunction with listening tests in specific sound environments. Derived from the correlation of these two methods, a series of indicators of noise annoyance are proposed, which entails the design of a noise annoyance indicator. Furthermore, the effects of this pollutant on psychological health and therefore in the intellectual development of students has been shown. First, an evaluation of attention and memory using standardized psychometric tests were performed and others designed for this particular study. Because it has been evidenced that the use of these psychometric tests are not very reliable, we sought to obtain another objective and reliable data to show the relationship between the negative influence of background noise on basic cognitive processes such as attention and memory. This was achieved by carrying out a study of the brain activity. To carry out this evaluation the electroencephalogram (EEG) was used as the main tool, focusing on the changes produced with and without exposure to background noise, specifically in the frequency bands related to basic cognitive processes such as attention and are memory. In this case the band theta (4-7 Hz) and beta band (13-30 Hz) were studied. The purpose of this thesis is to establish the bases for future studies that allow go deep in the study of the sound conditions in school environments, and enable the design of strategies and measures against noise and the correct evaluation of the effects of noise on aspects for improving the psychological quality of life and academic performance of students.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In an environment where there is no communication between different social levels and which is suffering an increasing demand in agricultural production, agribusiness and quality, trade, as a regulator of the supply and demand, has a strong impact on the economic and environmental areas as well as on the farmers quality of life. This entails the need to find a sustainable and fair balance between the different parties (farmers and traders). This paper seeks to find this balance through the integration of trade with prosperity, understood not from a purely economic point of view, but as an improvement in life quality. This proposal is framed within Working With People (WWP) as the main conceptual base for achieving concrete actions that will promote a rapprochement between the parties that will lead to the sector?s sustainable resilience. This will be achieved through a exhaustive review of scientific literature in order to analyze and develop the state of the art of the concepts involved. The result is a conceptual proposal presented from the three dimensions of the WWP model: technical-entrepeneurial, ethical-social, political-contextual"

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The competence evaluation promoted by the European High Education Area entails a very important methodological change that requires guiding support to help lecturers carry out this new and complex task. In this regard, the Technical University of Madrid (UPM, by its Spanish acronym) has financed a series of coordinated projects with the objective of developing a model for teaching and evaluating core competences and providing support to lecturers. This paper deals with the problem solving competence. The first step has been to elaborate a guide for teachers to provide an homogeneous way to asses this competence. This guide considers several levels of acquisition of the competence and provided the rubrics to be applied for each one. The guide has been subsequently validated with several pilot experiences. In this paper we will explain the problem-solving assessment guide for teachers and will show the pilot experiences that has been carried out. We will finally justify the validity of the method to assess the problem solving competence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una técnica de refuerzo de elementos flectados en general y, en particular, de vigas y forjados de hormigón armado, consiste en la disposición de perfiles metálicos por debajo de los elementos a reforzar y retacados a ellos. En muchos casos este refuerzo se diseña con un planteamiento pasivo, es decir, los perfiles no entran en carga hasta que no se incrementan las acciones sobre el elemento reforzado, o lo hacen sólo ligeramente y de forma cuantitativamente no controlada efectuando el retacado mediante cuñas metálicas. En el presente trabajo se estudia la alternativa del refuerzo de vigas de hormigón armado frente a momentos flectores con un planteamiento activo, introduciendo unas fuerzas (por ejemplo, mediante gatos o barras roscadas) entre el perfil y el elemento a reforzar, y retacando posteriormente el perfil a la viga en los puntos de introducción de las fuerzas, mediante cuñas metálicas, mortero, etc. La propuesta que formulamos en el presente trabajo de investigación para el control de las fuerzas introducidas consiste en la medida de las flechas que se producen en el perfil metálico al hacerlo reaccionar contra la viga. Esto permite el empleo de procedimientos sencillos para la predeformación del perfil que no dispongan de dispositivos de medida de la carga introducida, o bien controlar la veracidad de las medidas de las fuerzas que dan tales dispositivos. La gran fiabilidad que tiene el cálculo de flechas en jácenas metálicas hace que con este procedimiento se puedan conocer con gran precisión las fuerzas introducidas. Las medidas de las flechas se pueden llevar a cabo mediante los procedimientos de instrumentación habituales en pruebas de carga, con una precisión más que suficiente para conocer y controlar con fiabilidad el valor de las fuerzas que el perfil ejerce sobre la viga. Los perfiles necesarios para el refuerzo con esta técnica son netamente inferiores a los que se precisarían con el planteamiento pasivo antes indicado. En el trabajo de investigación se recoge un estudio sobre el número, posición y valor de las fuerzas de refuerzo a introducir, en función de la carga para la que se diseña el refuerzo y la capacidad resistente del elemento a reforzar, y se analizan los valores máximos que pueden tener dichas fuerzas, en función de la capacidad de la pieza frente a momentos de signo contrario a los debidos a las cargas gravitatorias. A continuación se analiza la interacción viga-perfil al incrementarse las cargas sobre la viga desde el instante de la ejecución del refuerzo, interacción que hace variar el valor de las fuerzas que el perfil ejerce sobre la viga. Esta variación permite contar con un incremento en las fuerzas de refuerzo si, con las cargas permanentes presentes al reforzar, no podemos introducirlas inicialmente con el valor necesario, o si se producen pérdidas en las propias fuerzas. Este es uno de los criterios a la hora de seleccionar las características del perfil. Por el contrario, dicha variación puede suponer que en algunos puntos a lo largo del vano se supere la capacidad a flexión frente a momentos de signo contrario a los debidos a las cargas gravitatorias, lo que también debe ser tenido en cuenta. Seguidamente se analizan diferentes aspectos que producen una variación en el valor de las fuerzas de refuerzo, como son las deformaciones diferidas del hormigón (fluencia y retracción), los gradientes de temperatura en la pieza, o la actuación de sobrecargas en los vanos adyacentes. Se concluye los efectos de estos fenómenos, que en ocasiones tienen gran influencia, pueden ser cuantificados por el proyectista, recogiéndose propuestas sencillas para su consideración en casos habituales. Posteriormente recogemos una propuesta de metodología de comprobación del refuerzo, en cuanto a cómo considerar la fisuración y evolución del módulo de deformación de la viga, la introducción de la seguridad, la influencia de las tolerancias de laminación en el perfil sobre el valor calculado de las flechas necesarias en el perfil para introducir las fuerzas iniciales proyectadas, o la situación accidental de fuego, entre otros aspectos. Por último, se exponen las conclusiones más relevantes de la investigación realizada, y se proponen futuras líneas de investigación. One technique for strengthening flexural members in general, and reinforced concrete beams and slabs in particular, entails caulking the underside of these members with steel shapes. This sort of strengthening is often designed from a passive approach; i.e., until the load is increased, the shapes are either not loaded or are only slightly loaded to some unquantified extent by caulking with steel shims. The present study explored the possibility of actively strengthening the capacity of reinforced concrete beams to resist bending moments by applying forces (with jacks or threaded bars, for instance) between the shape and the member to be strengthened. The shape is subsequently caulked under the beam at the points where the forces are applied with steel shims, mortar or similar. The proposal put forward in the present study to monitor the forces applied consists in measuring the deflection on the steel shape as it reacts against the beam. With this technique, the shape can be pre-strained using simple procedures that do not call for devices to measure the force applied, or the accurancy of the respective measurements can be verified. As deflection calculations in steel girders are extremely reliable, the forces applied with this procedure can be very precisely determined. Standard instrumental procedures for load testing can be used to measure deflection with more than sufficient precision to reliably determine and monitor the value of the forces exerted on the beam by the shape. Moreover, the shapes required to strengthen members with this technique are substantially smaller than the ones needed in the aforementioned passive approach. This study addressed the number, position and value of the strengthening forces to be applied in terms of the load for which strengthening was designed and the bearing capacity of the member to be strengthened. The maximum value of such forces was also analysed as a function of the capacity of the member to resist counter-gravity moments. An analysis was then conducted of beam-shape interaction when the load on the beam raises since the instant that strengthening is applied, interaction that alters the forces applied to the beam by the shape. This variation can provide an increment in the forces if we cannot introduce them initially with the value calculated as necessary because they were limited by the permanent loads existing when strengthening, or if losses occur in the forces themselves. This is one of the criteria for defining shape specifications. Conversely, such variation may cause the forces to exceed beam counter-gravity bending strength at some points in the span, a development that must also be taken into consideration. Other factors inducing variations in the strengthening force values were then analysed, including deferred concrete strain (creep and shrinkage), temperature gradients in the member and the live loads acting on adjacent spans. The inference drawn was that these developments, which may on occasion have a heavy impact, can be quantified by the design engineer, particularly in ordinary situations, for which simple procedures are proposed. Methodology is likewise proposed for verifying strength in terms of how to appraise beam's cracking and variations in modulus of deformation; safety concerns; the effect of shape lamination tolerance on the calculated deflection necessary for the shape to apply the design forces; and fire-induced situations, among others. Lastly, the most prominent conclusions are discussed and future lines of research are suggested.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The hot-spot phenomenon is a relatively frequent problem occurring in current photovoltaic generators. It entails both a risk for the photovoltaic module’s lifetime and a decrease in its operational efficiency. Nevertheless, there is still a lack of widely accepted procedures for dealing with them in practice. This paper presents the IES–UPM observations on 200 affected photovoltaic modules. Visual and infrared inspection, as well as electroluminescence, peak power rating and operating voltage tests have been carried out. Thermography under steady state conditions and photovoltaic module operating voltage, both at normal photovoltaic system operating conditions, are the selected methods to deal in practice with hot-spots. The temperature difference between the hot-spot and its surroundings, and the operating voltage differences between affected and non-affected photovoltaic modules are the base for establishing defective criteria, at the lights of both lifetime and operating efficiency considerations. Hot-spots temperature gradients larger than 20 °C, in any case, and larger than 10 °C when, at the same time, voltage operating losses are larger than the allowable power losses fixed at the photovoltaic module warranties, are proposed as rejecting conditions for routine inspections under contractual frameworks. The upper threshold of 20 °C is deduced for temperate climates from the basic criterion of keeping absolute hot-spot temperatures below 20 °C.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bridge building is a highly uncertain endeavour that entails considerable risk, as attested to by the succession of construction-related incidents and accidents recently reported in Spain and elsewhere. While efforts are being made to improve on-site safety, many issues are still outstanding, such as the establishment of reliability requirements for the ancillary systems used. The problems that must be dealt with in everyday practice, however, are more elementary and often attributable to human error. The overall organisation of the use of bridge construction equipment is in need of improvement. Close cooperation between the bridge engineers responsible for construction planning and ancillary element suppliers is imperative, for flawed interaction between building equipment and the bridge under construction may generate structural vulnerability. External quality assurance should likewise be mandatory

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Business information has become a critical asset for companies and it has even more value when obtained and exploited in real time. This paper analyses how to integrate this information into an existing banking Enterprise Architecture, following an event-driven approach, and entails the study of three main issues: the definition of business events, the specification of a reference architecture, which identifies the specific integration points, and the description of a governance approach to manage the new elements. All the proposed solutions have been validated with a proof-of-concept test bed in an open source environment. It is based on a case study of the banking sector that allows an operational validation to be carried out, as well as ensuring compliance with non-functional requirements. We have focused these requirements on performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En paralelo a la superficie cotidiana de la ciudad moderna, discurre otra "ciudad invisible" o "caja negra" tecnológica, que opera, de manera silenciosa e imperceptible, al servicio de los ciudadanos. Paradójicamente, en este espacio invisible, se toman decisiones de la máxima relevancia para la ciudad: en la "caja negra", las ciudades pactan sus relaciones con la naturaleza; a través de ella, se produce la administración y distribución de los recursos que componen su metabolismo urbano. En definitiva, la "caja negra" es el conjunto de las arquitecturas donde se urbaniza la naturaleza, donde ésta pasa a ser ciudad. Y, sin embargo, ha tendido a permanecer invisible. No obstante, en el último tercio del siglo XX, se ha "abierto la caja negra" urbana y lo que era invisible ha dejado de serlo o, al menos, ha alterado su estatuto de visibilidad. El objetivo de esta tesis doctoral es evaluar las repercusiones arquitectónicas, urbanísticas y ecológicas, que conlleva este reciente fenómeno urbano que, desde hace unas décadas, está teniendo lugar en muchas de las ciudades herederas de las grandes reformas urbanas acometidas en las metrópolis europeas durante el siglo XIX, bajo el paradigma simbólico de un proyecto moderno "prometeico" y emancipador. Para abordar dicho análisis, se pondrán en relación dos parámetros urbanos elementales que han tendido a ser estudiados por separado. Por un lado, la "ecología política urbana", es decir, la red de relaciones socio-ecológicas que acontecen en la ciudad. Por otro lado, la "economía de la visibilidad", es decir, las formas de articular lo visible y lo invisible, en relación a los marcos de gobernanza. La intersección entre la "ecología política urbana" y la "economía de la visibilidad" proporciona un marco de análisis efectivo para comprender el fenómeno de la "apertura de la caja negra" y conlleva un cuestionamiento de algunas nociones dominantes en la teoría urbana y arquitectónica clásicas, como la segregación de la naturaleza, las infraestructuras y la sociedad o como las formas tradicionales de explotación ecológica del medio. Además, ofrece un criterio de análisis privilegiado para la comprensión del proceso de deslegitimación (filosófica, arquitectónica, económica, así como desde perspectivas ecológicas, sociales, de género o queer) de los modelos urbanísticos integrales modernos, herederos de los marcos antropocéntricos del siglo XIX. Por último, proporciona algunas herramientas arquitectónicas para afrontar los desafíos ecosistémicos del siglo XXI. A través del estudio de autores relevantes que han analizado esta problemática para la arquitectura, así como del estudio de casos arquitectónicos que han marcado hitos fundamentales en la consolidación urbana de los procesos asociados a la "caja negra", se concluirá que, en términos ecológicos, la ciudad moderna ha movilizado una "ecología política urbana" basada en fórmulas de sometimiento del entorno, a partir de operaciones arquitectónicas y tecnológicas invisibles. En esta tesis doctoral se estudiará la organización arquitectónica de las arquitecturas de la "caja negra" y se evaluará si el fenómeno de la "apertura de la caja negra" puede ser considerado como un síntoma de la alteración en la "ecología política urbana". 'Abriremos la caja negra" para estudiar cómo se integran en el espacio urbano los dispositivos tecnológicos de escala urbana, toda vez éstos han dejado de ser invisibles. Cómo participan, como un actor más, en la configuración de otros marcos de cohabitación, dentro de la ciudad contemporánea. ABSTRACT An 'invisible city' or technological 'black box' runs parallel to the day-to-day surface of modern cities, remaining silent, unnoticed, at the service of the citizenry. Paradoxically, this invisible space is where some of the most relevant decisions concerning the city are made: the 'black box' is where cities agree on their relationships with nature; it is used to manage and distribute the resources that form its urban metabolism. In short, the 'black box' is the collection of architectures where nature is urbanised, where it becomes a city. And in spite of all this, it has mostly remained invisible. Nevertheless, this urban 'black box' was opened during the last third of the 20th century, so what used to be invisible is invisible no more, or at least the laws governing its visibility have been altered. The purpose of this doctoral thesis is to evaluate the architectural, urban planning and ecological repercussions of this recent urban phenomenon that has been taking place for several decades in many of the cities that followed in the footsteps of the large European metropolises of the 19th century, under the symbolic paradigm of a modern 'prometheic' and emancipating project. This analysis shall be done by juxtaposing two basic urban parameters that in general have been studied separately: frstly the ‘urban political ecology', that is, the network of socio-ecological relationships within the city. Secondly, the 'economy of visibility', that is, the way the visible and invisible spheres are structured in relation with the governance frameworks. The intersection between the 'urban political ecology' and the 'economy of visibility' provides an effective analysis framework to understand the phenomenon of the 'opening of the black box'. It entails calling into question some of the predominant notions in classical urban and architectural theory, such as the segregation of nature, infrastructures and society, or the traditional forms of ecological usage of the environment. It also offers an exceptional analysis criterion to understand the discrediting process (from a philosophical, architectural, economic perspective, but also from the point of view of ecology, society, gender or queerness) of modern all-encompassing urban models that draw from the anthropocentric frameworks of the 19th century. Finally, it provides some architectural tools to tackle 21st-century ecosystemic challenges. The study of relevant authors that have analysed these problems for architecture, as well as the study of milestone architectural cases for the urban consolidation of processes associated to the 'black box', shall serve to reach the conclusion that, in ecological terms, modern cities have mobilised an 'urban political ecology' based on formulas of subjugation of the environment, through invisible architectural and technological operations. This thesis shall present an evaluation of whether the phenomenon of the 'opening of the black box' can be considered a symptom of the alteration of the 'urban political ecology'. We shall 'open the black box' to study the integration of the various urbanscale technological devices within the urban landscape, now that they have ceased to be invisible. We shall see how they participate, like any other actor, in the confguration of other cohabitation frameworks within today's cities.