232 resultados para Instalación


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La finalidad de este proyecto es la de estudiar las alternativas empleadas hoy en día para asegurar y garantizar el correcto acceso a infraestructuras sensibles, evitando el uso de las clásicas passwords por los problemas que acarrean, detallados en el apartado 2.2. Autenticación mediante passwords y problemas en su uso. Se analizarán y estudiarán algunas de las soluciones más factibles para garantizar un correcto acceso a sistemas sensibles, destacando las ventajas y problemas de cada una de las soluciones. Con esto se quiere decir que no se tratará de solucionar los problemas de seguridad y gestión de acceso a la hora de acceder a las diversas plataformas web, como puedan ser redes sociales o sistemas de pago y/o transacciones. El estudio se va a limitar al caso dado en el centro de supercomputación CeSViMa, pudiéndose extender a cualquier infraestructura física, siempre y cuando se tenga en cuenta que para el acceso a la infraestructura se pueden necesitar medios o periféricos hardware que, obviamente, serán controlados por la empresa o sistema alojado en dicha infraestructura. Tras dicho estudio, se procederá al diseño de la que se considere mejor opción en una instalación real. El estudio del sistema se llevará a cabo, tal y como se ha mencionado, en el centro de supercomputación CeSViMa ubicado en el Campus Montegancedo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo del presente Trabajo Fin de Máster es estudiar la precisión de los resultados obtenidos en la medición del coeficiente de absorción acústica en tubo de impedancia, según la norma UNE-EN ISO 10534-2 “Determinación del coeficiente de absorción acústica y de la impedancia acústica en tubos de impedancia. Parte 2: Método de la función de transferencia”. En primer lugar, se han estudiado los fundamentos teóricos relacionados con el método de ensayo. A continuación, se ha detallado dicho método y se ha aplicado a un caso práctico con la instrumentación disponible en el laboratorio de Acústica de la Escuela. En relación a la precisión del método se ha analizado si la preparación e instalación de la muestra son causas de imprecisión. Para ello, se han realizado varios ensayos con dos tipos de materiales acústicos, con el fin de estudiar la dispersión entre los resultados que produce tanto el corte de la muestra, realizado en el proceso de confección, como su colocación en el tubo de impedancia. Además, se ha estudiado si desviaciones en la medida de la temperatura y de la distancia entre los micrófonos influyen en los valores del coeficiente de absorción acústica medido y de su incertidumbre asociada. Puesto que el resultado de un ensayo únicamente se halla completo cuando está acompañado de una declaración acerca de la incertidumbre de dicho resultado, en el presente trabajo se ha aplicado a este método de ensayo un procedimiento para estimar la incertidumbre empleando el método de Monte Carlo. ABSTRACT The objective of this project is studying the precision of the measurements of sound absorption coefficient in impedance tube, according to standard UNE-EN ISO 10534-2 “Determination of sound absorption coefficient and impedance in impedance tubes. Part 2: Transfer-function method”. Firstly, theoretical basis related to the test method have been studied. Furthermore, this method has been defined and applied to a particular case with the instrumentation available in the Acoustics laboratory of the College. In relation to the precision of the method, the preparation and installation of the test sample have been analyzed as possible causes of imprecision. For this purpose, two types of acoustic materials have been tested in order to study the deviation between the results produced by the cutting of the test sample and the collocation in impedance tube. In addition, it has been studied if deviations in the measurement of the temperature and distance between microphones may influence the sound absorption coefficient measured and its associated uncertainty. The test result must be accompanied by a statement of the uncertainty of the result. For this reason, in this project a procedure for estimating uncertainty of the result of this test method has been applied using the Monte Carlo method.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El continuo desarrollo que está teniendo el mundo de las telecomunicaciones móviles hace que la red móvil esté sufriendo progresivos cambios para adaptarse a las nuevas tecnologías móviles que ofrecen un mejor servicio. El cambio en la red móvil no solo se produce por el desarrollo de las nuevas generaciones móviles. La red móvil se adapta también a la demanda de usuarios la cual no deja de incrementar a lo largo de los últimos años. Por tanto, los operadores tienen que ampliar su red instalando nodos que tengan las nuevas tecnologías y también las anteriores. Aparte de crear nuevos nodos también tienen que modificar sus nodos antiguos y convertirlos en nodos que soporten mayor número de usuarios. Hoy en día, en España, se están instalando nuevos nodos con 2G, 3G y 4G y además se están realizando ampliaciones de portadora para 3G. Este proyecto se divide en cuatro partes, la primera de ella se centra en explicar el proceso a seguir para la instalación de un nuevo nodo urbano. Este proceso es muy parecido para instalar un nodo con una tecnología u otra, en el caso del proyecto se explicarán los pasos a seguir para la instalación de un nodo con 2G y 3G. Posteriormente se explicará cómo se realizan las medidas para corroborar el correcto funcionamiento de un nodo rural y se compararán a las medidas de zona urbana mediante capturas de un nodo específico. En la penúltima parte del proyecto se estudia la cobertura en interiores y las diversas soluciones que se toman normalmente para mejorar dicha cobertura en edificios, almacenes y centros comerciales. Por último aparecen las conclusiones del proyecto y los trabajos futuros en donde se realiza una visión de posibles estudios relacionados con este proyecto y una visión de cómo puede quedar formada la red en unos años. ABSTRACT. Due to the continuous development of mobile telecommunications the mobile networks have undergone rapid changes to adapt to new mobile technologies that offer a better service. The mobile network change hasn´t only occurred because of the development of new generations of mobile radio-communications. The mobile network adapts itself to user demand, which has been growing over the last few years faster than expected. Therefore, mobile operators have to enlarge its network by installing nodes that share the old and new technologies. Apart from creating new nodes, the operators have to modify the old ones and turn them into nodes that support an increasing number of users. Nowadays, in Spain new nodes with 2G 3G and 4G are being installed, and carrier extensions for 3G are being made as well. This project is divided into four parts. The first chapter focuses on explaining the process that should be followed to install a new urban node. This process is similar to install a node with any of the technologies available. In the case of this project, the steps to follow in setting up a wireless node with 2G and 3G will be detailed. Afterwards, in the second chapter the document continues explaining the measurements that should be carried out to ensure proper performance of a rural node. Then, those measurements will be compared with the ones of an urban node. In the third part of the project it is explained how coverage indoor studies are performed, and the different solutions that are usually proposed to improve coverage in buildings, stores and shopping centers. The last chapter explains the conclusions that have been reached and future works. It is provided a widespread view of possible studies related to this project and how the mobile will improve in the following years.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El desarrollo del presente trabajo sigue, tanto una línea cronológica de las tareas realizadas, como una lógica, en la que se parte de un conocimiento mínimo de los sistemas espaciales hasta llegar al diseño completo de un Módulo de Cálculo de Potencia Eléctrica de un satélite para su aplicación en una instalación de diseño concurrente o CDF.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tendencia actual de las redes de telecomunicaciones conduce a pensar en un futuro basado en el concepto emergente de las Smart Cities¸ que tienen como objetivo el desarrollo urbano basado en un modelo de sostenibilidad que responda a las necesidades crecientes de las ciudades. Dentro de las Smart Cities podemos incluir el concepto de Smart Grid, el cual está referido a sistemas de administración y producción de energía eficientes, que permitan un sistema energético sostenible, y que den cabida a las fuentes de energía renovables. Sistemas de este tipo se muestran a los usuarios como un conjunto de servicios con los que interactuar sin ser tan sólo un mero cliente, sino un agente más del entorno energético. Por otro lado, los sistemas de software distribuidos son cada vez más comunes en una infraestructura de telecomunicaciones cada vez más extensa y con más capacidades. Dentro de este ámbito tecnológico, las arquitecturas orientadas a servicios han crecido exponencialmente sobre todo en el sector empresarial. Con sistemas basados en estas arquitecturas, se pueden ofrecer a empresas y usuarios sistemas software basados en el concepto de servicio. Con la progresión del hardware actual, la miniaturización de los equipos es cada vez mayor, sin renunciar por ello a la potencia que podemos encontrar en sistemas de mayor tamaño. Un ejemplo es el dispositivo Raspberry Pi, que contiene un ordenador plenamente funcional contenido en el tamaño de una cajetilla de tabaco, y con un coste muy reducido. En este proyecto se pretenden aunar los tres conceptos expuestos. De esta forma, se busca utilizar el dispositivo Raspberry Pi como elemento de despliegue integrado en una arquitectura de Smart Grid orientada a servicios. En los trabajos realizados se ha utilizado la propuesta definida por el proyecto de I+D europeo e-GOTHAM, con cuya infraestructura se ha tenido ocasión de realizar diferentes pruebas de las descritas en esta memoria. Aunque esta arquitectura está orientada a la creación de una Smart Grid, lo experimentado en este PFG podría encajar en otro tipo de aplicaciones. Dentro del estudio sobre las soluciones software actuales, se ha trabajado en la evaluación de la posibilidad de instalar un Enterprise Service Bus en el Raspberry Pi y en la optimización de la citada instalación. Una vez conseguida una instalación operativa, se ha desarrollado un controlador de un dispositivo físico (sensor/actuador), denominado Dispositivo Lógico, a modo de prueba de la viabilidad del uso del Raspberry Pi para actuar como elemento en el que instalar aplicaciones en entornos de Smart Grid o Smart Home. El éxito logrado con esta experimentación refuerza la idea de considerar al Raspberry Pi, como un importante elemento a tener en cuenta para el despliegue de servicios de Smart Cities o incluso en otros ámbitos tecnológicos. ABSTRACT. The current trend of telecommunication networks lead to think in a future based on the emerging concept of Smart Cities, whose objective is to ensure the urban development based on a sustainable model to respond the new necessities of the cities. Within the Smart cites we can include the concept of Smart Grid, which is based on management systems and efficient energy production, allowing a sustainable energy producing system, and that includes renewable energy sources. Systems of this type are shown to users as a set of services that allow users to interact with the system not only as a single customer, but also as other energy environment agent. Furthermore, distributed software systems are increasingly common in a telecommunications infrastructure more extensive and with more capabilities. Within this area of technology, service-oriented architectures have grown exponentially especially in the business sector. With systems based on these architectures, can be offered to businesses and users software systems based on the concept of service. With the progression of the actual hardware, the miniaturization of computers is increasing, without sacrificing the power of larger systems. An example is the Raspberry Pi, which contains a fully functional computer contained in the size of a pack of cigarettes, and with a very low cost. This PFG (Proyecto Fin de Grado) tries to combine the three concepts presented. Thus, it is intended to use the Raspberry Pi device as a deployment element integrated into a service oriented Smart Grid architecture. In this PFG, the one proposed in the European R&D e-GOTHAM project has been observed. In addition several tests described herein have been carried out using the infrastructure of that project. Although this architecture is oriented to the creation of a Smart Grid, the experiences reported in this document could fit into other applications. Within the study on current software solutions, it have been working on assessing the possibility of installing an Enterprise Service Bus in the Raspberry Pi and optimizing that facility. Having achieved an operating installation, it has been developed a driver for a physical device (sensor / actuator), called logical device, for testing the feasibility of using the Raspberry Pi to act as an element in which to install applications in Smart Grid and Smart Home Environments. The success of this experiment reinforces the idea of considering the Raspberry Pi as an important element to take into account in the deployment of Smart Cities services or even in other technological fields.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Existe una creciente necesidad de hacer el mejor uso del agua para regadío. Una alternativa eficiente consiste en la monitorización del contenido volumétrico de agua (θ), utilizando sensores de humedad. A pesar de existir una gran diversidad de sensores y tecnologías disponibles, actualmente ninguna de ellas permite obtener medidas distribuidas en perfiles verticales de un metro y en escalas laterales de 0.1-1,000 m. En este sentido, es necesario buscar tecnologías alternativas que sirvan de puente entre las medidas puntuales y las escalas intermedias. Esta tesis doctoral se basa en el uso de Fibra Óptica (FO) con sistema de medida de temperatura distribuida (DTS), una tecnología alternativa de reciente creación que ha levantado gran expectación en las últimas dos décadas. Específicamente utilizamos el método de fibra calentada, en inglés Actively Heated Fiber Optic (AHFO), en la cual los cables de Fibra Óptica se utilizan como sondas de calor mediante la aplicación de corriente eléctrica a través de la camisa de acero inoxidable, o de un conductor eléctrico simétricamente posicionado, envuelto, alrededor del haz de fibra óptica. El uso de fibra calentada se basa en la utilización de la teoría de los pulsos de calor, en inglés Heated Pulsed Theory (HPP), por la cual el conductor se aproxima a una fuente de calor lineal e infinitesimal que introduce calor en el suelo. Mediante el análisis del tiempo de ocurrencia y magnitud de la respuesta térmica ante un pulso de calor, es posible estimar algunas propiedades específicas del suelo, tales como el contenido de humedad, calor específico (C) y conductividad térmica. Estos parámetros pueden ser estimados utilizando un sensor de temperatura adyacente a la sonda de calor [método simple, en inglés single heated pulsed probes (SHPP)], ó a una distancia radial r [método doble, en inglés dual heated pulsed probes (DHPP)]. Esta tesis doctoral pretende probar la idoneidad de los sistemas de fibra óptica calentada para la aplicación de la teoría clásica de sondas calentadas. Para ello, se desarrollarán dos sistemas FO-DTS. El primero se sitúa en un campo agrícola de La Nava de Arévalo (Ávila, España), en el cual se aplica la teoría SHPP para estimar θ. El segundo sistema se desarrolla en laboratorio y emplea la teoría DHPP para medir tanto θ como C. La teoría SHPP puede ser implementada con fibra óptica calentada para obtener medidas distribuidas de θ, mediante la utilización de sistemas FO-DTS y el uso de curvas de calibración específicas para cada suelo. Sin embargo, la mayoría de aplicaciones AHFO se han desarrollado exclusivamente en laboratorio utilizando medios porosos homogéneos. En esta tesis se utiliza el programa Hydrus 2D/3D para definir tales curvas de calibración. El modelo propuesto es validado en un segmento de cable enterrado en una instalación de fibra óptica y es capaz de predecir la respuesta térmica del suelo en puntos concretos de la instalación una vez que las propiedades físicas y térmicas de éste son definidas. La exactitud de la metodología para predecir θ frente a medidas puntuales tomadas con sensores de humedad comerciales fue de 0.001 a 0.022 m3 m-3 La implementación de la teoría DHPP con AHFO para medir C y θ suponen una oportunidad sin precedentes para aplicaciones medioambientales. En esta tesis se emplean diferentes combinaciones de cables y fuentes emisoras de calor, que se colocan en paralelo y utilizan un rango variado de espaciamientos, todo ello en el laboratorio. La amplitud de la señal y el tiempo de llegada se han observado como funciones del calor específico del suelo. Medidas de C, utilizando esta metodología y ante un rango variado de contenidos de humedad, sugirieron la idoneidad del método, aunque también se observaron importantes errores en contenidos bajos de humedad de hasta un 22%. La mejora del método requerirá otros modelos más precisos que tengan en cuenta el diámetro del cable, así como la posible influencia térmica del mismo. ABSTRACT There is an increasing need to make the most efficient use of water for irrigation. A good approach to make irrigation as efficient as possible is to monitor soil water content (θ) using soil moisture sensors. Although, there is a broad range of different sensors and technologies, currently, none of them can practically and accurately provide vertical and lateral moisture profiles spanning 0-1 m depth and 0.1-1,000 m lateral scales. In this regard, further research to fulfill the intermediate scale and to bridge single-point measurement with the broaden scales is still needed. This dissertation is based on the use of Fiber Optics with Distributed Temperature Sensing (FO-DTS), a novel approach which has been receiving growing interest in the last two decades. Specifically, we employ the so called Actively Heated Fiber Optic (AHFO) method, in which FO cables are employed as heat probe conductors by applying electricity to the stainless steel armoring jacket or an added conductor symmetrically positioned (wrapped) about the FO cable. AHFO is based on the classic Heated Pulsed Theory (HPP) which usually employs a heat probe conductor that approximates to an infinite line heat source which injects heat into the soil. Observation of the timing and magnitude of the thermal response to the energy input provide enough information to derive certain specific soil thermal characteristics such as the soil heat capacity, soil thermal conductivity or soil water content. These parameters can be estimated by capturing the soil thermal response (using a thermal sensor) adjacent to the heat source (the heating and the thermal sources are mounted together in the so called single heated pulsed probe (SHPP)), or separated at a certain distance, r (dual heated pulsed method (DHPP) This dissertation aims to test the feasibility of heated fiber optics to implement the HPP theory. Specifically, we focus on measuring soil water content (θ) and soil heat capacity (C) by employing two types of FO-DTS systems. The first one is located in an agricultural field in La Nava de Arévalo (Ávila, Spain) and employ the SHPP theory to estimate θ. The second one is developed in the laboratory using the procedures described in the DHPP theory, and focuses on estimating both C and θ. The SHPP theory can be implemented with actively heated fiber optics (AHFO) to obtain distributed measurements of soil water content (θ) by using reported soil thermal responses in Distributed Temperature Sensing (DTS) and with a soil-specific calibration relationship. However, most reported AHFO applications have been calibrated under laboratory homogeneous soil conditions, while inexpensive efficient calibration procedures useful in heterogeneous soils are lacking. In this PhD thesis, we employ the Hydrus 2D/3D code to define these soil-specific calibration curves. The model is then validated at a selected FO transect of the DTS installation. The model was able to predict the soil thermal response at specific locations of the fiber optic cable once the surrounding soil hydraulic and thermal properties were known. Results using electromagnetic moisture sensors at the same specific locations demonstrate the feasibility of the model to detect θ within an accuracy of 0.001 to 0.022 m3 m-3. Implementation of the Dual Heated Pulsed Probe (DPHP) theory for measurement of volumetric heat capacity (C) and water content (θ) with Distributed Temperature Sensing (DTS) heated fiber optic (FO) systems presents an unprecedented opportunity for environmental monitoring. We test the method using different combinations of FO cables and heat sources at a range of spacings in a laboratory setting. The amplitude and phase-shift in the heat signal with distance was found to be a function of the soil volumetric heat capacity (referred, here, to as Cs). Estimations of Cs at a range of θ suggest feasibility via responsiveness to the changes in θ (we observed a linear relationship in all FO combinations), though observed bias with decreasing soil water contents (up to 22%) was also reported. Optimization will require further models to account for the finite radius and thermal influence of the FO cables, employed here as “needle probes”. Also, consideration of the range of soil conditions and cable spacing and jacket configurations, suggested here to be valuable subjects of further study and development.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo es una contribución a los sistemas fotovoltaicos (FV) con seguimiento distribuido del punto de máxima potencia (DMPPT), una topología que se caracteriza porque lleva a cabo el MPPT a nivel de módulo, al contrario de las topologías más tradicionales que llevan a cabo el MPPT para un número más elevado de módulos, pudiendo ser hasta cientos de módulos. Las dos tecnologías DMPPT que existen en el mercado son conocidos como microinversores y optimizadores de potencia, y ofrecen ciertas ventajas sobre sistemas de MPPT central como: mayor producción en situaciones de mismatch, monitorización individual de cada módulo, flexibilidad de diseño, mayor seguridad del sistema, etc. Aunque los sistemas DMPPT no están limitados a los entornos urbanos, se ha enfatizado en el título ya que es su mercado natural, siendo difícil una justificación de su sobrecoste en grandes huertas solares en suelo. Desde el año 2010 el mercado de estos sistemas ha incrementado notablemente y sigue creciendo de una forma continuada. Sin embargo, todavía falta un conocimiento profundo de cómo funcionan estos sistemas, especialmente en el caso de los optimizadores de potencia, de las ganancias energéticas esperables en condiciones de mismatch y de las posibilidades avanzadas de diagnóstico de fallos. El principal objetivo de esta tesis es presentar un estudio completo de cómo funcionan los sistemas DMPPT, sus límites y sus ventajas, así como experimentos varios que verifican la teoría y el desarrollo de herramientas para valorar las ventajas de utilizar DMPPT en cada instalación. Las ecuaciones que modelan el funcionamiento de los sistemas FVs con optimizadores de potencia se han desarrollado y utilizado para resaltar los límites de los mismos a la hora de resolver ciertas situaciones de mismatch. Se presenta un estudio profundo sobre el efecto de las sombras en los sistemas FVs: en la curva I-V y en los algoritmos MPPT. Se han llevado a cabo experimentos sobre el funcionamiento de los algoritmos MPPT en situaciones de sombreado, señalando su ineficiencia en estas situaciones. Un análisis de la ventaja del uso de DMPPT frente a los puntos calientes es presentado y verificado. También se presenta un análisis sobre las posibles ganancias en potencia y energía con el uso de DMPPT en condiciones de sombreado y este también es verificado experimentalmente, así como un breve estudio de su viabilidad económica. Para ayudar a llevar a cabo todos los análisis y experimentos descritos previamente se han desarrollado una serie de herramientas software. Una siendo un programa en LabView para controlar un simulador solar y almacenar las medidas. También se ha desarrollado un programa que simula curvas I-V de módulos y generador FVs afectados por sombras y este se ha verificado experimentalmente. Este mismo programa se ha utilizado para desarrollar un programa todavía más completo que estima las pérdidas anuales y las ganancias obtenidas con DMPPT en instalaciones FVs afectadas por sombras. Finalmente, se han desarrollado y verificado unos algoritmos para diagnosticar fallos en sistemas FVs con DMPPT. Esta herramienta puede diagnosticar los siguientes fallos: sombras debido a objetos fijos (con estimación de la distancia al objeto), suciedad localizada, suciedad general, posible punto caliente, degradación de módulos y pérdidas en el cableado de DC. Además, alerta al usuario de las pérdidas producidas por cada fallo y no requiere del uso de sensores de irradiancia y temperatura. ABSTRACT This work is a contribution to photovoltaic (PV) systems with distributed maximum power point tracking (DMPPT), a system topology characterized by performing the MPPT at module level, instead of the more traditional topologies which perform MPPT for a larger number of modules. The two DMPPT technologies available at the moment are known as microinverters and power optimizers, also known as module level power electronics (MLPE), and they provide certain advantages over central MPPT systems like: higher energy production in mismatch situations, monitoring of each individual module, system design flexibility, higher system safety, etc. Although DMPPT is not limited to urban environments, it has been emphasized in the title as it is their natural market, since in large ground-mounted PV plants the extra cost is difficult to justify. Since 2010 MLPE have increased their market share steadily and continuing to grow steadily. However, there still lacks a profound understanding of how they work, especially in the case of power optimizers, the achievable energy gains with their use and the possibilities in failure diagnosis. The main objective of this thesis is to provide a complete understanding of DMPPT technologies: how they function, their limitations and their advantages. A series of equations used to model PV arrays with power optimizers have been derived and used to point out limitations in solving certain mismatch situation. Because one of the most emphasized benefits of DMPPT is their ability to mitigate shading losses, an extensive study on the effects of shadows on PV systems is presented; both on the I-V curve and on MPPT algorithms. Experimental tests have been performed on the MPPT algorithms of central inverters and MLPE, highlighting their inefficiency in I-V curves with local maxima. An analysis of the possible mitigation of hot-spots with DMPPT is discussed and experimentally verified. And a theoretical analysis of the possible power and energy gains is presented as well as experiments in real PV systems. A short economic analysis of the benefits of DMPPT has also been performed. In order to aide in the previous task, a program which simulates I-V curves under shaded conditions has been developed and experimentally verified. This same program has been used to develop a software tool especially designed for PV systems affected by shading, which estimates the losses due to shading and the energy gains obtained with DMPPT. Finally, a set of algorithms for diagnosing system faults in PV systems with DMPPT has been developed and experimentally verified. The tool can diagnose the following failures: fixed object shading (with distance estimation), localized dirt, generalized dirt, possible hot-spots, module degradation and excessive losses in DC cables. In addition, it alerts the user of the power losses produced by each failure and classifies the failures by their severity and it does not require the use of irradiance or temperature sensors.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este escrito se pretende llevar a cabo la realización de un proyecto técnico sobre eficiencia energética en edificios. El proyecto comienza con el estudio de la demanda térmica de un edificio, es decir, de sus necesidades de calefacción, refrigeración y agua caliente sanitaria (ACS). Una vez realizado este análisis, se procede al estudio de distintas alternativas para la disminución del coste asociado al consumo energético del edificio, las cuales son: mejora del aislamiento de la envolvente térmica del edificio, instalación de colectores solares para la producción de ACS y el cambio de los quemadores de las calderas. De estas medidas se han presupuestado aquellas que poseen un bajo periodo de retorno de la inversión, y se ha desarrollado su planificación, programación temporal y análisis económico. ABSTRACT In this document is pretended to be carry out the performance of a technical project about energy efficiency in buildings. The project begins with the study of the thermal demand of the building, that is to say, the heating, cooling and domestic hot water (DHW) needs. Once the analysis has been done, is proceeded the study of different alternatives for diminishing the cost associate to the building energy consumption, which are: improvement of the insulation of the building, solar collector installation to produce DHW and change of the burner of the boilers. Among this measures, has been budgeted the ones that possess a low invest pay-back, and it is been developed their planning, their temporal programming and their economic analysis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el marco del proyecto europeo FI-WARE, en el CoNWet Lab (laboratorio de la ETSI Informáticos de la UPM) se ha implementado la plataforma Web Wstore que es una implementación de referencia del Store Generic Enabler perteneciente a dicho proyecto. El objetivo de FI-WARE es crear la plataforma núcleo del Internet del Futuro (IoF) con la intención de incrementar la competitividad global europea en el mundo de las TI. El proyecto introduce una infraestructura innovadora para la creación y distribución de servicios digitales en internet. WStore ofrece a los proveedores de servicios la plataforma donde publicar sus ofertas y desde la cual los clientes podrán acceder ellas. Estos proveedores ofrecen servicios Web, aplicaciones, widgets y data sets del mismo modo que Google ofrece aplicaciones en la tienda online Google Play o Apple en el App Store. WStore está implementada actualmente como una plataforma Web, por lo que una organización que desee ofrecer el servicio de la store necesita instalar el software en un servidor propio y disponer de un dominio para ofrecer sus productos. El objetivo de este trabajo es migrar WStore a un entorno de computación en la nube de manera que con una única instancia se ofrezca el servicio a las organizaciones que deseen disponer de su propia plataforma, de la cual tendrán total control como si se encontrase en su propia infraestructura. Para esto se implementa una versión de WStore que será desplegada en una infraestructura cloud y ofrecida como Software as a Service. La implementación incluye una serie de módulos de código que se podrán añadir opcionalmente en el proceso de instalación si se desea que la instancia instalada sea Multitenant. Además, en este trabajo se estudian y prueban las herramientas que ofrece MongoDB para desplegar la plataforma Wstore Multitenant en una infraestructura cloud. Estas herramientas son replica sets y sharding que permiten desplegar una base de datos escalable y de alta disponibilidad. ---ABSTRACT---In the context of the European project FI-WARE, the CoNWeT Lab (IT Lab from ETSIINF UPM university) has been implemented the web platform WStore. WStore is a reference implementation of the Generic Enabler Store from FI-WARE project. The FI-WARE goal is to create the core platform of the Future Internet (IoF) with the intention of enhancing Europe's global competitiveness in IT technologies. FI-WARE introduces an innovative infrastructure for the creation and distribution of digital services over the Internet. WStore offers to service providers a platform to publicate offerings and where customers can access them. The providers offer web services, applications, widgets and data sets in the same way that Google offers online applications on Google Play or Apple on App Store plataforms. WStore is currently implemented as a web platform, so if an organization wants to offer the store service, it need to install the software on it’s own serves and have a domain to offer their products. The objective of this paper is to migrate WStore to a cloud computing environment where a single instance of the WStore is offered as a web service to organizations who want their own store. Customers (tenants) of the WStore web service will have total control over the software and WStore administration. The implementation includes several code modules that can be optionally added in the installation process to build a Multitenant instance. In addition, this paper review the tools that MongoDB provide for scalability and high availability (replica sets and sharding) with the purpose of deploying multi-tenant WStore on a cloud infrastructure.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto ha tenido por objetivo el estudio de la viabilidad de instalar un sistema de almacenamiento subterráneo de aire comprimido enlazado con una central térmica en España. Dentro de las diversas posibilidades para emplazar el sistema CAES se ha seleccionado el domo salino, por ser la estructura geológica más favorable técnica y económicamente. Con el cometido de encontrar la ubicación más favorable se escogió el domo de Salinas de Añana, y por cercanía geográfica con éste se seleccionó la central térmica de Iberdrola C. T. Pasajes. Una vez elegidos el domo y la central se realizó un estudio de viabilidad técnica y económica de la instalación, empleando estudios geológicos, gravimétricos y económicos. Tras dichos estudios se concluyó que la instalación es posible técnicamente en el domo Salinas de Añana y que se recuperará la inversión a partir del octavo año. ABSTRACT This project has aimed to study the feasibility of installing a system of underground storage of compressed air linked to a thermal plant in Spain. Among the different possibilities to place the CAES system is selected salt dome, as the technically and economically most favorable geological structure. The better dome was Salinas de Añana for its location and Iberdrola C.T. Pasajes was the nearest thermal power plant. Before the dome and thermal power plant were chosen, was performed a technical and economic studies using geological, gravimetric and economic studies. These studies concluded that is possible execute a CAES system in Salinas de Añana dome. The initial investment will pay off the eighth year.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Organización de Estados Iberoamericanos para la Educación, la Ciencia y la Cultura (OEI) pretende llevar energía solar y acceso a internet a más de 66.000 escuelas en Iberoamérica, la mayor parte de ellas ubicadas en zonas rurales y de difícil acceso. Con el proyecto “Luces para aprender” se quiere reducir la brecha digital y poner fin al aislamiento de las comunidades rurales, facilitando su acceso a las tecnologías de la comunicación, con el fin de favorecer su desarrollo educativo, económico, social y cultural. La OEI que coordina el proyecto “Luces para Aprender” se dirigió a TEDECO (Tecnología para el Desarrollo y la Cooperación), que es un grupo de cooperación al desarrollo de la Facultad de Informática de la UPM, para solicitar asesoramiento en la parte software a instalar en el proyecto. Surge la necesidad de dotar de sistema operativo a los computadores que tendrán las escuelas beneficiarias de este proyecto. Por lo tanto, se ha decido crear un sistema operativo que consiste en una distribución GNU/Linux que se adapte a las necesidades de dicho proyecto. Esta distribución va acompañada de un manual de usuario y una guía de instalación para facilitar la implantación en los respectivos centros. Se pretende que la distribución esté disponible en un repositorio web y además esté basada en la filosofía de código libre y abierto. ---ABSTRACT---The OEI (Organization of Ibero-American States for Education, Science and Culture) hopes to provide solar energy and Internet access to more than 66.000 schools in Ibero-America, most of them, located in rural zones and of difficult access. With the project “Luces para aprender” (lights to learn), they would like to reduce the digital gap and put an end to the deprivation of the rural communities, supplying access to the Information Technologies, with the aim of contributing to its educative, economic, social and cultural development. The OEI that coordinates "Luces para Apreder" project, requested TEDECO (Technology for Development and Cooperation), which is a group of development cooperation of Facultad de Informática of the UPM, to advice in the part of software installation in the project. There is a need for an operative system that the computers will have in schools that will benefit from that project. Therefore, it has been decided to create an operative system that consists of a GNU/Linux distribution adapted to the needs of the project. That distribution will be accompanied by a user’s manual and an installation guide to help the implementing in the centres. The distribution is supposed to be available in a web, and moreover, will be based on the philosophy of free and opened codes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El desarrollo del Proyecto consiste, por una parte, en el estudio sobre la respuesta de los materiales piezoeléctricos como generadores de energía en un entorno acuoso que está sometido a variaciones de potencial y, por otra, en el estudio técnico y económico de un equipo basado en la utilización esta fuente de energía y su comercialización en el mercado energético. Esta energía es la que se obtiene de la fuerza de arrastre del agua al desplazarse a causa del movimiento ondulatorio de las olas y que el elemento al flexionar es capaz de transformar. El proyecto contempla a partir de modelos, el funcionamiento eléctrico y mecánico de un generador piezoeléctrico, el sistema de electrónica necesaria para su inserción optimizada en la red eléctrica. A partir de esto se desarrolla una instalación que puede adaptarse a los requerimientos del estudio previo. Empleando un modelo de relación técnica y económica se establece una conexión entre estas dos secciones para hacerse una idea de la rentabilidad económica de un equipo de este estilo a día de hoy. El propósito final, es el de estudiar un nuevo tipo de energía, y comenzar una línea que puede llevar a un lugar muy interesante del sector energético. ABSTRACT This Project presents an analysis on the performance of piezoelectric materials as energy producer in an aquatic environment subject to potential variations. Additionally, the Project contains a technical and an economic analysis on the equipment based on the use of this energy source, as well as its commercialization. Energy is obtained by the water drag force when it is moved by the wave’s movement and by its transformation by the piezoelectric material. The Project studies the electric and mechanic functioning of a piezoelectric generator and the necessary electronic system for its optimized insertion on the electricity distribution network. Based on this, it is developed a system that can be adapted to the previous study requirements. The use of a technical and economic relation model allows the establishment of a connection among them in order to estimate the economic profitability of such equipment nowadays. The final objective of this Project is analyzing a new source of energy, which could start a new investigation line that may lead the energetic sector to a very interesting future.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una apropiada evaluación de los márgenes de seguridad de una instalación nuclear, por ejemplo, una central nuclear, tiene en cuenta todas las incertidumbres que afectan a los cálculos de diseño, funcionanmiento y respuesta ante accidentes de dicha instalación. Una fuente de incertidumbre son los datos nucleares, que afectan a los cálculos neutrónicos, de quemado de combustible o activación de materiales. Estos cálculos permiten la evaluación de las funciones respuesta esenciales para el funcionamiento correcto durante operación, y también durante accidente. Ejemplos de esas respuestas son el factor de multiplicación neutrónica o el calor residual después del disparo del reactor. Por tanto, es necesario evaluar el impacto de dichas incertidumbres en estos cálculos. Para poder realizar los cálculos de propagación de incertidumbres, es necesario implementar metodologías que sean capaces de evaluar el impacto de las incertidumbres de estos datos nucleares. Pero también es necesario conocer los datos de incertidumbres disponibles para ser capaces de manejarlos. Actualmente, se están invirtiendo grandes esfuerzos en mejorar la capacidad de analizar, manejar y producir datos de incertidumbres, en especial para isótopos importantes en reactores avanzados. A su vez, nuevos programas/códigos están siendo desarrollados e implementados para poder usar dichos datos y analizar su impacto. Todos estos puntos son parte de los objetivos del proyecto europeo ANDES, el cual ha dado el marco de trabajo para el desarrollo de esta tesis doctoral. Por tanto, primero se ha llevado a cabo una revisión del estado del arte de los datos nucleares y sus incertidumbres, centrándose en los tres tipos de datos: de decaimiento, de rendimientos de fisión y de secciones eficaces. A su vez, se ha realizado una revisión del estado del arte de las metodologías para la propagación de incertidumbre de estos datos nucleares. Dentro del Departamento de Ingeniería Nuclear (DIN) se propuso una metodología para la propagación de incertidumbres en cálculos de evolución isotópica, el Método Híbrido. Esta metodología se ha tomado como punto de partida para esta tesis, implementando y desarrollando dicha metodología, así como extendiendo sus capacidades. Se han analizado sus ventajas, inconvenientes y limitaciones. El Método Híbrido se utiliza en conjunto con el código de evolución isotópica ACAB, y se basa en el muestreo por Monte Carlo de los datos nucleares con incertidumbre. En esta metodología, se presentan diferentes aproximaciones según la estructura de grupos de energía de las secciones eficaces: en un grupo, en un grupo con muestreo correlacionado y en multigrupos. Se han desarrollado diferentes secuencias para usar distintas librerías de datos nucleares almacenadas en diferentes formatos: ENDF-6 (para las librerías evaluadas), COVERX (para las librerías en multigrupos de SCALE) y EAF (para las librerías de activación). Gracias a la revisión del estado del arte de los datos nucleares de los rendimientos de fisión se ha identificado la falta de una información sobre sus incertidumbres, en concreto, de matrices de covarianza completas. Además, visto el renovado interés por parte de la comunidad internacional, a través del grupo de trabajo internacional de cooperación para evaluación de datos nucleares (WPEC) dedicado a la evaluación de las necesidades de mejora de datos nucleares mediante el subgrupo 37 (SG37), se ha llevado a cabo una revisión de las metodologías para generar datos de covarianza. Se ha seleccionando la actualización Bayesiana/GLS para su implementación, y de esta forma, dar una respuesta a dicha falta de matrices completas para rendimientos de fisión. Una vez que el Método Híbrido ha sido implementado, desarrollado y extendido, junto con la capacidad de generar matrices de covarianza completas para los rendimientos de fisión, se han estudiado diferentes aplicaciones nucleares. Primero, se estudia el calor residual tras un pulso de fisión, debido a su importancia para cualquier evento después de la parada/disparo del reactor. Además, se trata de un ejercicio claro para ver la importancia de las incertidumbres de datos de decaimiento y de rendimientos de fisión junto con las nuevas matrices completas de covarianza. Se han estudiado dos ciclos de combustible de reactores avanzados: el de la instalación europea para transmutación industrial (EFIT) y el del reactor rápido de sodio europeo (ESFR), en los cuales se han analizado el impacto de las incertidumbres de los datos nucleares en la composición isotópica, calor residual y radiotoxicidad. Se han utilizado diferentes librerías de datos nucleares en los estudios antreriores, comparando de esta forma el impacto de sus incertidumbres. A su vez, mediante dichos estudios, se han comparando las distintas aproximaciones del Método Híbrido y otras metodologías para la porpagación de incertidumbres de datos nucleares: Total Monte Carlo (TMC), desarrollada en NRG por A.J. Koning y D. Rochman, y NUDUNA, desarrollada en AREVA GmbH por O. Buss y A. Hoefer. Estas comparaciones demostrarán las ventajas del Método Híbrido, además de revelar sus limitaciones y su rango de aplicación. ABSTRACT For an adequate assessment of safety margins of nuclear facilities, e.g. nuclear power plants, it is necessary to consider all possible uncertainties that affect their design, performance and possible accidents. Nuclear data are a source of uncertainty that are involved in neutronics, fuel depletion and activation calculations. These calculations can predict critical response functions during operation and in the event of accident, such as decay heat and neutron multiplication factor. Thus, the impact of nuclear data uncertainties on these response functions needs to be addressed for a proper evaluation of the safety margins. Methodologies for performing uncertainty propagation calculations need to be implemented in order to analyse the impact of nuclear data uncertainties. Nevertheless, it is necessary to understand the current status of nuclear data and their uncertainties, in order to be able to handle this type of data. Great eórts are underway to enhance the European capability to analyse/process/produce covariance data, especially for isotopes which are of importance for advanced reactors. At the same time, new methodologies/codes are being developed and implemented for using and evaluating the impact of uncertainty data. These were the objectives of the European ANDES (Accurate Nuclear Data for nuclear Energy Sustainability) project, which provided a framework for the development of this PhD Thesis. Accordingly, first a review of the state-of-the-art of nuclear data and their uncertainties is conducted, focusing on the three kinds of data: decay, fission yields and cross sections. A review of the current methodologies for propagating nuclear data uncertainties is also performed. The Nuclear Engineering Department of UPM has proposed a methodology for propagating uncertainties in depletion calculations, the Hybrid Method, which has been taken as the starting point of this thesis. This methodology has been implemented, developed and extended, and its advantages, drawbacks and limitations have been analysed. It is used in conjunction with the ACAB depletion code, and is based on Monte Carlo sampling of variables with uncertainties. Different approaches are presented depending on cross section energy-structure: one-group, one-group with correlated sampling and multi-group. Differences and applicability criteria are presented. Sequences have been developed for using different nuclear data libraries in different storing-formats: ENDF-6 (for evaluated libraries) and COVERX (for multi-group libraries of SCALE), as well as EAF format (for activation libraries). A revision of the state-of-the-art of fission yield data shows inconsistencies in uncertainty data, specifically with regard to complete covariance matrices. Furthermore, the international community has expressed a renewed interest in the issue through the Working Party on International Nuclear Data Evaluation Co-operation (WPEC) with the Subgroup (SG37), which is dedicated to assessing the need to have complete nuclear data. This gives rise to this review of the state-of-the-art of methodologies for generating covariance data for fission yields. Bayesian/generalised least square (GLS) updating sequence has been selected and implemented to answer to this need. Once the Hybrid Method has been implemented, developed and extended, along with fission yield covariance generation capability, different applications are studied. The Fission Pulse Decay Heat problem is tackled first because of its importance during events after shutdown and because it is a clean exercise for showing the impact and importance of decay and fission yield data uncertainties in conjunction with the new covariance data. Two fuel cycles of advanced reactors are studied: the European Facility for Industrial Transmutation (EFIT) and the European Sodium Fast Reactor (ESFR), and response function uncertainties such as isotopic composition, decay heat and radiotoxicity are addressed. Different nuclear data libraries are used and compared. These applications serve as frameworks for comparing the different approaches of the Hybrid Method, and also for comparing with other methodologies: Total Monte Carlo (TMC), developed at NRG by A.J. Koning and D. Rochman, and NUDUNA, developed at AREVA GmbH by O. Buss and A. Hoefer. These comparisons reveal the advantages, limitations and the range of application of the Hybrid Method.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente proyecto abarca el diseño y dimensionamiento de una planta de cogeneración, aprovechando el calor residual disponible a la salida de un horno para la obtención del clinker en la fabricación del cemento.Los gases procedentes de la combustión del coque de petróleo utilizado como combustible del horno y tras atravesar los ciclones, se pretende sean conducidos a una caldera de recuperación del calor(CRC) para la producción de vapor. Este vapor generado alimenta a una turbina en cuyo eje se instala un generador. Tras abordar los planteamientos técnicos del proyecto, se lleva a cabo un análisis de los beneficios que se esperan obtener en base a la actual legislación reguladora de la venta de energía eléctrica a la Red. Con el objeto de aprovechar al máximo el calor residual, se hace necesaria la instalación de la CRC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This document is the result of a process of web development to create a tool that will allow to Cracow University of Technology consult, create and manage timetables. The technologies chosen for this purpose are Apache Tomcat Server, My SQL Community Server, JDBC driver, Java Servlets and JSPs for the server side. The client part counts on Javascript, jQuery, AJAX and CSS technologies to perform the dynamism. The document will justify the choice of these technologies and will explain some development tools that help in the integration and development of all this elements: specifically, NetBeans IDE and MySQL workbench have been used as helpful tools. After explaining all the elements involved in the development of the web application, the architecture and the code developed are explained through UML diagrams. Some implementation details related to security are also deeper explained through sequence diagrams. As the source code of the application is provided, an installation manual has been developed to run the project. In addition, as the platform is intended to be a beta that will be grown, some unimplemented ideas for future development are also exposed. Finally, some annexes with important files and scripts related to the initiation of the platform are attached. This project started through an existing tool that needed to be expanded. The main purpose of the project along its development has focused on setting the roots for a whole new platform that will replace the existing one. For this goal, it has been needed to make a deep inspection on the existing web technologies: a web server and a SQL database had to be chosen. Although the alternatives were a lot, Java technology for the server was finally selected because of the big community backwards, the easiness of modelling the language through UML diagrams and the fact of being free license software. Apache Tomcat is the open source server that can use Java Servlet and JSP technology. Related to the SQL database, MySQL Community Server is the most popular open-source SQL Server, with a big community after and quite a lot of tools to manage the server. JDBC is the driver needed to put in contact Java and MySQL. Once we chose the technologies that would be part of the platform, the development process started. After a detailed explanation of the development environment installation, we used UML use case diagrams to set the main tasks of the platform; UML class diagrams served to establish the existing relations between the classes generated; the architecture of the platform was represented through UML deployment diagrams; and Enhanced entity–relationship (EER) model were used to define the tables of the database and their relationships. Apart from the previous diagrams, some implementation issues were explained to make a better understanding of the developed code - UML sequence diagrams helped to explain this. Once the whole platform was properly defined and developed, the performance of the application has been shown: it has been proved that with the current state of the code, the platform covers the use cases that were set as the main target. Nevertheless, some requisites needed for the proper working of the platform have been specified. As the project is aimed to be grown, some ideas that could not be added to this beta have been explained in order not to be missed for future development. Finally, some annexes containing important configuration issues for the platform have been added after proper explanation, as well as an installation guide that will let a new developer get the project ready. In addition to this document some other files related to the project are provided: - Javadoc. The Javadoc containing the information of every Java class created is necessary for a better understanding of the source code. - database_model.mwb. This file contains the model of the database for MySQL Workbench. This model allows, among other things, generate the MySQL script for the creation of the tables. - ScheduleManager.war. The WAR file that will allow loading the developed application into Tomcat Server without using NetBeans. - ScheduleManager.zip. The source code exported from NetBeans project containing all Java packages, JSPs, Javascript files and CSS files that are part of the platform. - config.properties. The configuration file to properly get the names and credentials to use the database, also explained in Annex II. Example of config.properties file. - db_init_script.sql. The SQL query to initiate the database explained in Annex III. SQL statements for MySQL initialization. RESUMEN. Este proyecto tiene como punto de partida la necesidad de evolución de una herramienta web existente. El propósito principal del proyecto durante su desarrollo se ha centrado en establecer las bases de una completamente nueva plataforma que reemplazará a la existente. Para lograr esto, ha sido necesario realizar una profunda inspección en las tecnologías web existentes: un servidor web y una base de datos SQL debían ser elegidos. Aunque existen muchas alternativas, la tecnología Java ha resultado ser elegida debido a la gran comunidad de desarrolladores que tiene detrás, además de la facilidad que proporciona este lenguaje a la hora de modelarlo usando diagramas UML. Tampoco hay que olvidar que es una tecnología de uso libre de licencia. Apache Tomcat es el servidor de código libre que permite emplear Java Servlets y JSPs para hacer uso de la tecnología de Java. Respecto a la base de datos SQL, el servidor más popular de código libre es MySQL, y cuenta también con una gran comunidad detrás y buenas herramientas de modelado, creación y gestión de la bases de datos. JDBC es el driver que va a permitir comunicar las aplicaciones Java con MySQL. Tras elegir las tecnologías que formarían parte de esta nueva plataforma, el proceso de desarrollo tiene comienzo. Tras una extensa explicación de la instalación del entorno de desarrollo, se han usado diagramas de caso de UML para establecer cuáles son los objetivos principales de la plataforma; los diagramas de clases nos permiten realizar una organización del código java desarrollado de modo que sean fácilmente entendibles las relaciones entre las diferentes clases. La arquitectura de la plataforma queda definida a través de diagramas de despliegue. Por último, diagramas EER van a definir las relaciones entre las tablas creadas en la base de datos. Aparte de estos diagramas, algunos detalles de implementación se van a justificar para tener una mejor comprensión del código desarrollado. Diagramas de secuencia ayudarán en estas explicaciones. Una vez que toda la plataforma haya quedad debidamente definida y desarrollada, se va a realizar una demostración de la misma: se demostrará cómo los objetivos generales han sido alcanzados con el desarrollo actual del proyecto. No obstante, algunos requisitos han sido aclarados para que la plataforma trabaje adecuadamente. Como la intención del proyecto es crecer (no es una versión final), algunas ideas que se han podido llevar acabo han quedado descritas de manera que no se pierdan. Por último, algunos anexos que contienen información importante acerca de la plataforma se han añadido tras la correspondiente explicación de su utilidad, así como una guía de instalación que va a permitir a un nuevo desarrollador tener el proyecto preparado. Junto a este documento, ficheros conteniendo el proyecto desarrollado quedan adjuntos. Estos ficheros son: - Documentación Javadoc. Contiene la información de las clases Java que han sido creadas. - database_model.mwb. Este fichero contiene el modelo de la base de datos para MySQL Workbench. Esto permite, entre otras cosas, generar el script de iniciación de la base de datos para la creación de las tablas. - ScheduleManager.war. El fichero WAR que permite desplegar la plataforma en un servidor Apache Tomcat. - ScheduleManager.zip. El código fuente exportado directamente del proyecto de Netbeans. Contiene todos los paquetes de Java generados, ficheros JSPs, Javascript y CSS que forman parte de la plataforma. - config.properties. Ejemplo del fichero de configuración que permite obtener los nombres de la base de datos - db_init_script.sql. Las consultas SQL necesarias para la creación de la base de datos.