868 resultados para wide area measurement system (WAMS)
Resumo:
In the last decade we have seen how small and light weight aerial platforms - aka, Mini Unmanned Aerial Vehicles (MUAV) - shipped with heterogeneous sensors have become a 'most wanted' Remote Sensing (RS) tool. Most of the off-the-shelf aerial systems found in the market provide way-point navigation. However, they do not rely on a tool that compute the aerial trajectories considering all the aspects that allow optimizing the aerial missions. One of the most demanded RS applications of MUAV is image surveying. The images acquired are typically used to build a high-resolution image, i.e., a mosaic of the workspace surface. Although, it may be applied to any other application where a sensor-based map must be computed. This thesis provides a study of this application and a set of solutions and methods to address this kind of aerial mission by using a fleet of MUAVs. In particular, a set of algorithms are proposed for map-based sampling, and aerial coverage path planning (ACPP). Regarding to map-based sampling, the approaches proposed consider workspaces with different shapes and surface characteristics. The workspace is sampled considering the sensor characteristics and a set of mission requirements. The algorithm applies different computational geometry approaches, providing a unique way to deal with workspaces with different shape and surface characteristics in order to be surveyed by one or more MUAVs. This feature introduces a previous optimization step before path planning. After that, the ACPP problem is theorized and a set of ACPP algorithms to compute the MUAVs trajectories are proposed. The problem addressed herein is the problem to coverage a wide area by using MUAVs with limited autonomy. Therefore, the mission must be accomplished in the shortest amount of time. The aerial survey is usually subject to a set of workspace restrictions, such as the take-off and landing positions as well as a safety distance between elements of the fleet. Moreover, it has to avoid forbidden zones to y. Three different algorithms have been studied to address this problem. The approaches studied are based on graph searching, heuristic and meta-heuristic approaches, e.g., mimic, evolutionary. Finally, an extended survey of field experiments applying the previous methods, as well as the materials and methods adopted in outdoor missions is presented. The reported outcomes demonstrate that the findings attained from this thesis improve ACPP mission for mapping purpose in an efficient and safe manner.
Resumo:
El objetivo de este Proyecto Final de Carrera es la realización de un ensayo de fiabilidad de componentes electrónicos, más concretamente de Minimódulos de Silicio, con el fin de estudiar su comportamiento a lo largo del tiempo de vida. Debido a la larga duración de los Minimódulos de Silicio , un ensayo de este tipo podría durar años, por lo que es necesario realizar un ensayo acelerado que acorte significativamente el tiempo del experimento, para ello, han de someterse a esfuerzos mayores que en condiciones normales de funcionamiento. A día de hoy, los Minimódulos de silicio, que conocemos como placas solares fotovoltaicas, se usan en infinidad de dispositivos debido a las múltiples ventajas que conllevan. La principal ventaja es poder llevar electricidad a cualquier parte del planeta sin necesidad de tener que hacer unas elevadas inversiones. Esta electricidad proviene de una fuente de energía inagotable y nada contaminante, con lo que ayudamos a mantener el equilibrio del planeta. La mayoría de las veces estas placas solares fotovoltaicas se usan en el exterior, soportando cambios de temperatura y de humedad elevados, de ahí, la importancia de realizar ensayos de fiabilidad, que muestren sus posibles causas de fallo, los efectos que producen estos fallos y los aspectos de diseño, fabricación y mantenimiento que puedan afectarles. Los Minimódulos de silicio utilizados en este proyecto son el modelo MC-SP0.8-NF-GCS de la empresa fabricante Multicomp. Para realizar el Proyecto hubiéramos necesitado una cámara climática que simulara unas condiciones ambientales determinadas, pero debido a la dificultad de iluminar el módulo dentro de la cámara climática hemos desarrollado un nuevo sistema de ensayos acelerados en temperatura. El nuevo sistema de ensayos acelerados consiste en: •Colocar los módulos fotovoltaicos en el laboratorio con un foco de 500W que irradia lo equivalente al sol. •Los tres módulos trabajarán a tres temperaturas diferentes para simular condiciones ambientales distintas, concretamente a 60°C, 72°C y 84°C. •Mediante un sistema automático de medida diseñado en LabVIEW, de manera simultánea tomará medidas de tensión en las tres placas y estudiaremos el grado degradación en cada placa. Se analizaran los resultados obtenido de cada una de las medidas y se realizará un estudio de fiabilidad y del proceso de degradación sufrido por los Minimódulos de silicio. Este PFC se puede dividir en las siguientes fases de trabajo siendo el ensayo la parte más larga en el tiempo: •Búsqueda de bibliografía documentación y normas aplicables. •Familiarización con los equipos y software, estudiando el manejo del software que viene con el Multímetro Keithley 2601 y el programa LabVIEW. •Desarrollo del hardware y sistemas necesarios para la realización del ensayo. •Montaje del ensayo •Realización del ensayo. •Análisis de resultados. ABSTRACT. The objective of this Final Project is conducting a test reliability of electronic components, more specifically Silicon minimodules, in order to study their behavior throughout the life span. Due to the long duration of Silicon minimodules a test like this could take years, so it is necessary to perform an accelerated significantly shorten the time of the experiment, testing for it, should be subjected to greater efforts than in normal operating. Today, the mini-modules, silicon is known as photovoltaic solar panels are used in a multitude of devices due to the many advantages they bring. The main advantage is to bring electricity to anywhere in the world without having to make high investments. This electricity comes from an inexhaustible source of energy and no pollution, thus helping to maintain the balance of the planet. Most of the time these solar photovoltaic panels are used on the outside, enduring changes in temperature and high humidity, hence, the importance of reliability testing, showing the possible causes of failure, the effects produced by these faults and aspects of design, manufacturing and maintenance that may affect them. The silicon mini-modules used in this project are the MC-SP0.8-NF-GCS model Multicomp manufacturing company. To realize the project we would have needed a climatic chamber to simulate specific environmental conditions, but due to the difficulty of illuminating the module in the climate chamber we have developed a new system of accelerated tests in temperature. The new system is accelerated tests: •Place the PV modules in the laboratory with a focus on the equivalent 500W radiating sun. •The three modules work at three different temperatures to simulate different environmental conditions, namely at 60 °C, 72 °C and 84 °C. •Automatic measurement system designed in LabVIEW, simultaneous voltage measurements taken at the three plates and study the degradation degree in each plate. The results obtained from each of the measurements and a feasibility study and degradation suffered by the silicon is performed minimodules were analyzed. This PFC can be divided into the following phases of the test work the longest part being overtime: •Literature search and documentation standards. •Familiarization with equipment and software, studying management software that comes with the Keithley 2601 multimeter and the LabVIEW program. •Development of hardware and systems necessary for the conduct of the trial. •Experiment setup •Carrying out the experiment. •Analysis of results.
Resumo:
El objetivo de este Proyecto Final de Carrera es la realización de un ensayo de fiabilidad de componentes electrónicos, más concretamente de diodos LED, con el fin de estudiar su comportamiento a lo largo del tiempo de vida. Debido a la larga duración de los LEDs, un ensayo de este tipo podría durar años, por lo que es necesario realizar un ensayo acelerado que acorte significativamente el tiempo del experimento, para ello, han de someterse a esfuerzos mayores que en condiciones normales de funcionamiento. En la actualidad, los LEDs son usados en infinidad de aplicaciones, debido a sus múltiples ventajas respecto a otros sistemas de iluminación o señalización convencionales. En numerosos casos se utilizan en el exterior, soportando cambios de temperaturas y de humedad elevados, de ahí, la importancia de realizar ensayos de fiabilidad, que muestren sus posibles causas de fallo, los efectos que producen estos fallos y los aspectos de diseño, fabricación y mantenimiento que puedan afectarles. Como consecuencia del envejecimiento de los LEDs, pueden mostrar una reducción en el flujo luminoso y un empeoramiento de las propiedades cromáticas. Los LEDs utilizados en este Proyecto son de AlInGaP, rojos, de alta luminosidad. Para acelerar el ensayo, se utilizará una cámara climática que simule unas condiciones ambientales determinadas, en concreto, 85º C y 85% HR. Además, se realiza una monitorización periódica, siendo necesaria la utilización de un sistema automático de medida diseñado en LabVIEW, el cual, de manera simultánea realizará medidas y gestionará la inyección de corriente a los LEDs mientras se encuentren en el interior de la cámara climática. Se fabrican dos placas con 4 tiras de LEDs para inyectar un nivel de corriente diferente en cada una y así poder comparar la degradación en función de este parámetro. Fuera de la cámara climática se van a medir las curvas características de tensióncorriente de cada LED a una temperatura ambiente constante, fijada por un módulo Peltier. También se realizarán medidas de potencia luminosa y de espectro de emisión. Se analizarán los resultados obtenidos de cada una de las medidas y se realizará un estudio de fiabilidad y del proceso de degradación sufrido por los LEDs. Este PFC se puede dividir en las siguientes fases de trabajo, siendo el ensayo la parte más larga en el tiempo: · Búsqueda de bibliografía, documentación y normas aplicables. · Familiarización con los equipos y software, estudiando el manejo y funcionamiento de la cámara climática temperatura-humedad y el software a aplicar (LabVIEW y software del espectrómetro). · Desarrollo del hardware y sistemas necesarios para la realización del ensayo. · Realización del ensayo. · Análisis de resultados. ABSTRACT. The objective of this end of degree project is conducting an essay reliability of electronic components, more concretely LEDs, in order to study their behavior throughout its lifespan. Due to the long duration of the LEDs, a essay of this type could last for years, so it is necessary to perform an accelerated essay which significantly shorten the time of the experiment, testing should be subjected to greater efforts than in normal operation. Today, LEDs are used in many applications due to its many advantages over other conventional lighting systems or signaling. In numerous cases are used on the outside, enduring high changes in temperature and humidity, hence the importance of reliability essays, showing the possible causes of failure, the effects produced by these failures and aspects of design, manufacturing and maintenance that may affect them. As a result of the ageing of the LEDs, they may show a reduction in light output and a worsening of the chromatic properties. The LEDs used in this project are AlInGaP, red and high brightness. To speed up the essay will be used a climatic chamber to simulate specific environmental conditions, specifically 85 ° C and 85 % RH. In addition, is pe rformed a periodic monitoring using an automatic measurement system designed in LabVIEW , which , simultaneously will performed measurements and will manage the injection current to the LEDs while are inside of the climatic chamber. 4 strips of LEDs are created to inject a different level of current in each, so can compare the degradation in terms of this parameter. Out of the climatic chamber are obtained the characteristic curves of voltage-current of each LED at a constant room temperature, set by a Peltier module. Also, measures light power and the emitted spectrum. The results of each of the measures and a reliability study and degradation suffered by the LEDs will be discussed. This PFC can be divided into the following steps, the essay being the longest part: • Search bibliography, documentation and standards. • Familiarization with equipment and software, studying the management and the operation of the temperature-humidity environmental chamber and applying software (LabVIEW applications and spectrometer software). • Development of hardware and systems necessary for the conduct of the essay. • Carrying out the essay. • Analysis of results.
Resumo:
La calidad del hormigón prefabricado se determina mediante ensayos de rotura a compresión en probetas transcurridos los 28 días de curado, según establece la EHE-08. Sin embargo, en la plantas de prefabricados es necesario además saber cuándo el hormigón está listo para ser procesado (destensado, cortado, trasladado), por lo que es necesario hacer ensayos de resistencia a la compresión entre las 48 y 72 horas, este tiempo se determina a partir de la experiencia previa adquirida y depende de las condiciones de cada planta. Si las probetas no han alcanzado el valor establecido, normalmente debido a un cambio en las condiciones climatológicas o en los materiales utilizados como el tipo de cemento o agregados, la solución adoptada suele ser dejar curar el material más horas en la pista para que alcance la resistencia necesaria para ser procesado. Si sigue sin alcanzarla, lo cual sucede muy ocasionalmente, se intenta analizar cuál ha sido el motivo, pudiéndose tirar toda la producción de ese día si se comprueba que ha sido un fallo en la fabricación de la línea, y no un fallo de la probeta. Por tanto, esta metodología de control de calidad, basada en técnicas destructivas, supone dos tipos de problemas, costes y representatividad. Los métodos no destructivos que más se han aplicado para caracterizar el proceso de curado del hormigón son los ultrasónicos y la medida de la temperatura como se recoge en la bibliografía consultada. Hay diferentes modelos que permiten establecer una relación entre la temperatura y el tiempo de curado para estimar la resistencia a compresión del material, y entre la velocidad de propagación ultrasónica y la resistencia. Aunque estas relaciones no son generales, se han obtenido muy buenos resultados, ejemplo de ello es el modelo basado en la temperatura, Maturity Method, que forma parte de la norma de la ASTM C 1074 y en el mercado hay disponibles equipos comerciales (maturity meters) para medir el curado del hormigón. Además, es posible diseñar sistemas de medida de estos dos parámetros económicos y robustos; por lo cual es viable la realización de una metodología para el control de calidad del curado que pueda ser implantado en las plantas de producción de prefabricado. En este trabajo se ha desarrollado una metodología que permite estimar la resistencia a la compresión del hormigón durante el curado, la cual consta de un procedimiento para el control de calidad del prefabricado y un sistema inalámbrico de sensores para la medida de la temperatura y la velocidad ultrasónica. El procedimiento para el control de calidad permite realizar una predicción de la resistencia a compresión a partir de un modelo basado en la temperatura de curado y otros dos basados en la velocidad, método de tiempo equivalente y método lineal. El sistema inalámbrico de sensores desarrollado, WilTempUS, integra en el mismo dispositivo sensores de temperatura, humedad relativa y ultrasonidos. La validación experimental se ha realizado mediante monitorizaciones en probetas y en las líneas de prefabricados. Los resultados obtenidos con los modelos de estimación y el sistema de medida desarrollado muestran que es posible predecir la resistencia en prefabricados de hormigón en planta con errores comparables a los aceptables por norma en los ensayos de resistencia a compresión en probetas. ABSTRACT Precast concrete quality is determined by compression tests breakage on specimens after 28 days of curing, as established EHE-08. However, in the precast plants is also necessary to know when the concrete is ready to be processed (slack, cut, moved), so it is necessary to test the compressive strength between 48 and 72 hours. This time is determined from prior experience and depends on the conditions of each plant. If the samples have not reached the set value, usually due to changes in the weather conditions or in the materials used as for example the type of cement or aggregates, the solution usually adopted is to cure the material on track during more time to reach the required strength for processing. If the material still does not reach this strength, which happens very occasionally, the reason of this behavior is analyzed , being able to throw the entire production of that day if there was a failure in the manufacturing line, not a failure of the specimen. Therefore, this method of quality control, using destructive techniques, involves two kinds of problems, costs and representativeness. The most used non-destructive methods to characterize the curing process of concrete are those based on ultrasonic and temperature measurement as stated in the literature. There are different models to establish a relationship between temperature and the curing time to estimate the compressive strength of the material, and between the ultrasonic propagation velocity and the compressive strength. Although these relationships are not general, they have been very successful, for example the Maturity Method is based on the temperature measurements. This method is part of the standards established in ASTM C 1074 and there are commercial equipments available (maturity meters) in the market to measure the concrete curing. Furthermore, it is possible to design inexpensive and robust systems to measure ultrasounds and temperature. Therefore is feasible to determine a method for quality control of curing to be implanted in the precast production plants. In this work, it has been developed a methodology which allows to estimate the compressive strength of concrete during its curing process. This methodology consists of a procedure for quality control of the precast concrete and a wireless sensor network to measure the temperature and ultrasonic velocity. The procedure for quality control allows to predict the compressive strength using a model based on the curing temperature and two other models based on ultrasonic velocity, the equivalent time method and the lineal one. The wireless sensor network, WilTempUS, integrates is the same device temperature, relative humidity and ultrasonic sensors. The experimental validation has been carried out in cubic specimens and in the production plants. The results obtained with the estimation models and the measurement system developed in this thesis show that it is possible to predict the strength in precast concrete plants with errors within the limits of the standards for testing compressive strength specimens.
Resumo:
A lo largo del presente trabajo se investiga la viabilidad de la descomposición automática de espectros de radiación gamma por medio de algoritmos de resolución de sistemas de ecuaciones algebraicas lineales basados en técnicas de pseudoinversión. La determinación de dichos algoritmos ha sido realizada teniendo en cuenta su posible implementación sobre procesadores de propósito específico de baja complejidad. En el primer capítulo se resumen las técnicas para la detección y medida de la radiación gamma que han servido de base para la confección de los espectros tratados en el trabajo. Se reexaminan los conceptos asociados con la naturaleza de la radiación electromagnética, así como los procesos físicos y el tratamiento electrónico que se hallan involucrados en su detección, poniendo de relieve la naturaleza intrínsecamente estadística del proceso de formación del espectro asociado como una clasificación del número de detecciones realizadas en función de la energía supuestamente continua asociada a las mismas. Para ello se aporta una breve descripción de los principales fenómenos de interacción de la radiación con la materia, que condicionan el proceso de detección y formación del espectro. El detector de radiación es considerado el elemento crítico del sistema de medida, puesto que condiciona fuertemente el proceso de detección. Por ello se examinan los principales tipos de detectores, con especial hincapié en los detectores de tipo semiconductor, ya que son los más utilizados en la actualidad. Finalmente, se describen los subsistemas electrónicos fundamentales para el acondicionamiento y pretratamiento de la señal procedente del detector, a la que se le denomina con el término tradicionalmente utilizado de Electrónica Nuclear. En lo que concierne a la espectroscopia, el principal subsistema de interés para el presente trabajo es el analizador multicanal, el cual lleva a cabo el tratamiento cualitativo de la señal, y construye un histograma de intensidad de radiación en el margen de energías al que el detector es sensible. Este vector N-dimensional es lo que generalmente se conoce con el nombre de espectro de radiación. Los distintos radionúclidos que participan en una fuente de radiación no pura dejan su impronta en dicho espectro. En el capítulo segundo se realiza una revisión exhaustiva de los métodos matemáticos en uso hasta el momento ideados para la identificación de los radionúclidos presentes en un espectro compuesto, así como para determinar sus actividades relativas. Uno de ellos es el denominado de regresión lineal múltiple, que se propone como la aproximación más apropiada a los condicionamientos y restricciones del problema: capacidad para tratar con espectros de baja resolución, ausencia del concurso de un operador humano (no supervisión), y posibilidad de ser soportado por algoritmos de baja complejidad capaces de ser instrumentados sobre procesadores dedicados de alta escala de integración. El problema del análisis se plantea formalmente en el tercer capítulo siguiendo las pautas arriba mencionadas y se demuestra que el citado problema admite una solución en la teoría de memorias asociativas lineales. Un operador basado en este tipo de estructuras puede proporcionar la solución al problema de la descomposición espectral deseada. En el mismo contexto, se proponen un par de algoritmos adaptativos complementarios para la construcción del operador, que gozan de unas características aritméticas especialmente apropiadas para su instrumentación sobre procesadores de alta escala de integración. La característica de adaptatividad dota a la memoria asociativa de una gran flexibilidad en lo que se refiere a la incorporación de nueva información en forma progresiva.En el capítulo cuarto se trata con un nuevo problema añadido, de índole altamente compleja. Es el del tratamiento de las deformaciones que introducen en el espectro las derivas instrumentales presentes en el dispositivo detector y en la electrónica de preacondicionamiento. Estas deformaciones invalidan el modelo de regresión lineal utilizado para describir el espectro problema. Se deriva entonces un modelo que incluya las citadas deformaciones como una ampliación de contribuciones en el espectro compuesto, el cual conlleva una ampliación sencilla de la memoria asociativa capaz de tolerar las derivas en la mezcla problema y de llevar a cabo un análisis robusto de contribuciones. El método de ampliación utilizado se basa en la suposición de pequeñas perturbaciones. La práctica en el laboratorio demuestra que, en ocasiones, las derivas instrumentales pueden provocar distorsiones severas en el espectro que no pueden ser tratadas por el modelo anterior. Por ello, en el capítulo quinto se plantea el problema de medidas afectadas por fuertes derivas desde el punto de vista de la teoría de optimización no lineal. Esta reformulación lleva a la introducción de un algoritmo de tipo recursivo inspirado en el de Gauss-Newton que permite introducir el concepto de memoria lineal realimentada. Este operador ofrece una capacidad sensiblemente mejorada para la descomposición de mezclas con fuerte deriva sin la excesiva carga computacional que presentan los algoritmos clásicos de optimización no lineal. El trabajo finaliza con una discusión de los resultados obtenidos en los tres principales niveles de estudio abordados, que se ofrecen en los capítulos tercero, cuarto y quinto, así como con la elevación a definitivas de las principales conclusiones derivadas del estudio y con el desglose de las posibles líneas de continuación del presente trabajo.---ABSTRACT---Through the present research, the feasibility of Automatic Gamma-Radiation Spectral Decomposition by Linear Algebraic Equation-Solving Algorithms using Pseudo-Inverse Techniques is explored. The design of the before mentioned algorithms has been done having into account their possible implementation on Specific-Purpose Processors of Low Complexity. In the first chapter, the techniques for the detection and measurement of gamma radiation employed to construct the spectra being used throughout the research are reviewed. Similarly, the basic concepts related with the nature and properties of the hard electromagnetic radiation are also re-examined, together with the physic and electronic processes involved in the detection of such kind of radiation, with special emphasis in the intrinsic statistical nature of the spectrum build-up process, which is considered as a classification of the number of individual photon-detections as a function of the energy associated to each individual photon. Fbr such, a brief description of the most important matter-energy interaction phenomena conditioning the detection and spectrum formation processes is given. The radiation detector is considered as the most critical element in the measurement system, as this device strongly conditions the detection process. Fbr this reason, the characteristics of the most frequent detectors are re-examined, with special emphasis on those of semiconductor nature, as these are the most frequently employed ones nowadays. Finally, the fundamental electronic subsystems for preaconditioning and treating of the signal delivered by the detector, classically addresed as Nuclear Electronics, is described. As far as Spectroscopy is concerned, the subsystem most interesting for the scope covered by the present research is the so-called Multichannel Analyzer, which is devoted to the cualitative treatment of the signal, building-up a hystogram of radiation intensity in the range of energies in which the detector is sensitive. The resulting N-dimensional vector is generally known with the ñame of Radiation Spectrum. The different radio-nuclides contributing to the spectrum of a composite source will leave their fingerprint in the resulting spectrum. Through the second chapter, an exhaustive review of the mathematical methods devised to the present moment to identify the radio-nuclides present in the composite spectrum and to quantify their relative contributions, is reviewed. One of the more popular ones is the so-known Múltiple Linear Regression, which is proposed as the best suited approach according to the constraints and restrictions present in the formulation of the problem, i.e., the need to treat low-resolution spectra, the absence of control by a human operator (un-supervision), and the possibility of being implemented as low-complexity algorithms amenable of being supported by VLSI Specific Processors. The analysis problem is formally stated through the third chapter, following the hints established in this context, and it is shown that the addressed problem may be satisfactorily solved under the point of view of Linear Associative Memories. An operator based on this kind of structures may provide the solution to the spectral decomposition problem posed. In the same context, a pair of complementary adaptive algorithms useful for the construction of the solving operator are proposed, which share certain special arithmetic characteristics that render them specially suitable for their implementation on VLSI Processors. The adaptive nature of the associative memory provides a high flexibility to this operator, in what refers to the progressive inclusión of new information to the knowledge base. Through the fourth chapter, this fact is treated together with a new problem to be considered, of a high interest but quite complex nature, as is the treatment of the deformations appearing in the spectrum when instrumental drifts in both the detecting device and the pre-acconditioning electronics are to be taken into account. These deformations render the Linear Regression Model proposed almost unuseful to describe the resulting spectrum. A new model including the drifts is derived as an extensión of the individual contributions to the composite spectrum, which implies a simple extensión of the Associative Memory, which renders this suitable to accept the drifts in the composite spectrum, thus producing a robust analysis of contributions. The extensión method is based on the Low-Amplitude Perturbation Hypothesis. Experimental practice shows that in certain cases the instrumental drifts may provoke severe distortions in the resulting spectrum, which can not be treated with the before-mentioned hypothesis. To cover also these less-frequent cases, through the fifth chapter, the problem involving strong drifts is treated under the point of view of Non-Linear Optimization Techniques. This reformulation carries the study to the consideration of recursive algorithms based on the Gauss-Newton methods, which allow the introduction of Feed-Back Memories, computing elements with a sensibly improved capability to decompose spectra affected by strong drifts. The research concludes with a discussion of the results obtained in the three main levéis of study considerad, which are presented in chapters third, fourth and fifth, toghether with the review of the main conclusions derived from the study and the outline of the main research lines opened by the present work.
Resumo:
La caracterización de módulos fotovoltaicos proporciona las especificaciones eléctricas que se necesitan para conocer los niveles de eficiencia energética que posee un módulo fotovoltaico de concentración. Esta caracterización se consigue a través de medidas de curvas IV, de igual manera que se obtienen para caracterizar los módulos convencionales. Este proyecto se ha realizado para la optimización y ampliación de un programa de medida y caracterización de hasta cuatro módulos fotovoltaicos que se encuentran en el exterior, sobre un seguidor. El programa, desarrollado en LabVIEW, opera sobre el sistema de medida, obteniendo los datos de caracterización del módulo que se está midiendo. Para ello en primer lugar se ha tomado como base una aplicación ya implementada y se ha analizado su funcionamiento para poder optimizarla y ampliarla para introducir nuevas prestaciones. La nueva prestación más relevante para la medida de los módulos, busca evitar que el módulo entre medida y medida, se encuentre disipando toda la energía que absorbe y se esté calentando. Esto se ha conseguido introduciendo una carga electrónica dentro del sistema de medida, que mantenga polarizado el módulo siempre y cuando, no se esté produciendo una medida sobre él. En este documento se describen los dispositivos que forman todo el sistema de medida, así como también se describe el software del programa. Además, se incluye un manual de usuario para un fácil manejo del programa. ABSTRACT. The aim of the characterization of concentrator photovoltaic modules (CPV) is to provide the electrical specifications to know the energy efficiency at operating conditions. This characterization is achieved through IV curves measures, the same way that they are obtained to characterize conventional silicon modules. The objective of this project is the optimization and improvement of a measurement and characterization system for CPV modules. A software has been developed in LabVIEW for the operation of the measurement system and data acquisition of the IV curves of the modules. At first, an already deployed application was taken as the basis and its operation was analyzed in order to optimize and extend to introduce new features. The more relevant update seeks to prevent the situation in which the module is dissipating all the energy between measurements. This has been achieved by introducing an electronic load into the measuring system. This load maintains the module biased at its maximum power point between measurement periods. This work describes the devices that take part in the measurement system, as well as the software program developed. In addition, a user manual is included for an easy handling of the program.
Resumo:
Este proyecto consistira en la realization de un estudio aciistico sobre la sala 8 de los cines Kinepolis de Ciudad de la Imagen, que dispone de 408 butacas. Los cines Kinepolis es uno de los mayores complejos multisala de Europa. Cuenta con mas de 9.200 butacas en total distribuidas en 25 salas a las que se accede mediante dos grandes pasillos conectados por el hall. En 1998, ano de su apertura, el complejo recibio el Record Guinness a la sala cinematografica mas grande del mundo, que dispone de 996 butacas. El objetivo de este proyecto es conseguir caracterizar acusticamente una sala de cine a traves de la medicion de parametros acusticos de la sala y de un modelo virtual de la misma. Para llevar a cabo el proyecto, primero se van a realizar tanto una medicion geometrica como acustica de la sala mediante el sistema de medida DIRAC. Los resultados de estas mediciones nos serviran para construir y validar un modelo virtual de la sala real con el software de simulacion EASE. La medicion acustica se va a realizar con el sistema de medicion DIRAC. Este sistema nos dara information sobre una amplia variedad de parametros acusticos. En este proyecto no se va a trabajar con todos ellos, solo con los mas significativos. Estos se describen a continuacion en la introduccion teorica. La medicion geometrica nos va a servir para construir un modelo virtual que tenga las mismas dimensiones que la sala original. Esta medicion la realizaremos mediante un medidor laser y una cinta metrica. Una vez construido el modelo virtual, se procedera a su validacion. Este proceso se realiza ajustando el tiempo de reverberacion del modelo mediante la introduccion de distintos materiales acusticos en las superficies del mismo, de manera que, variando la absorcion de la sala, el tiempo de reverberacion promedio del modelo se asemeje lo mas posible al medido en la sala real. Este proceso tiene como objetivo comprobar que el modelo virtual tiene un comportamiento acustico similar al de la sala real. Es necesario validar adecuadamente el modelo para que las comparaciones y conclusiones sean fiables. Por ultimo, tras la simulacion acustica del modelo, se compararan los resultados simulados con los medidos en la sala. En este proceso se contrastaran algunos de los parametros que guardan relation con el tiempo de reverberacion. De esta manera se verificara si el tiempo de reverberacion es o no un parametro acustico fiable para la validacion de un modelo virtual de una sala de cine. Anteriormente se han realizado proyectos iguales de otras salas de diferente tamano de Kinepolis. El objetivo de realizar el mismo estudio en distintas salas, es comprobar si el tamano de la sala influye en la validacion de los modelos virtuales mediante el tiempo de reverberacion. ABSTRACT. This Project consists on the development of an acoustic research of the movie theater 8 of the Kinepolis complex in Ciudad de la Imagen, Madrid. This room has 408 spots. Kinepolis is one of the biggest multiplex complexes in Europe. It has 9,200 locations disposed in 25 rooms. There are two large corridors which give access to all of theaters. In the middle of the structure, there is the main hall that connects these corridors. In 1998, at the time when the complex was open, it was awarded with the Record Guinness for the biggest theater in the world, which has 996 locations. The target of this project is to successfully characterize the acoustics of a movie theater through reverberation time and a virtual model. In order to reach this goal, in the first place, we are going to perform both, an acoustic and a geometric measurement of the room using DIRAC measurement system. The results of these measures will allow us to build and validate a virtual model of the room, using the simulation software EASE. We are going to use the DIRAC system in order to accomplish the acoustic measure. This operation gives us a huge variety of acoustic parameters. Not all of these are going to be used for this research, only the most significant ones. These are described in the theoretical introduction. The geometric measure is essential to help us to build the virtual model, because the model has to be exactly equal as the real room. This measurement will be performed with an electronic distance meter and a measuring tape. Once the virtual model is finished, it will be proved. This validation process will be realized by adjusting the reverberation time in the model. We will change the walls materials, therefore, the overall absorption of the room will change. We want the model reverberation time resemble to the real one. This practice is going to ensure that the model acoustic performance is close to the real one. In addition, it has to be successfully validate of we want the future comparisons to be reliable. Finally, after the model virtual simulation, we will compare the simulated results with the measure in the room. In this process, we will compare not only the reverberation time, but others parameters that keep relation with the reverberation time. We will verify this way, if the reverberation time is or is not an appropriate acoustic parameter to validate a virtual model of a movie theater. There have been done others similar acoustic researches in different theaters with different sizes. The aim of performing similar researches in different rooms is to determine if the size of the room infers in the validation process.
Resumo:
Existen en el mercado numerosas aplicaciones para la generación de reverberación y para la medición de respuestas al impulso acústicas. Sin embargo, éstas son de precios muy elevados y/o no se permite acceder a su código y, mucho menos, distribuir de forma totalmente libre. Además, las herramientas que ofrecen para la medición de respuestas al impulso requieren de un tedioso proceso para la generación de la señal de excitación, su reproducción y grabación y, finalmente, su post-procesado. Este procedimiento puede llevar en ocasiones al usuario a cometer errores debido a la falta de conocimientos técnicos. El propósito de este proyecto es dar solución a algunos de los inconvenientes planteados. Con tal fin se llevó a cabo el desarrollo e implementación de un módulo de reverberación por convolución particionada en tiempo real, haciendo uso de software gratuito y de libre distribución. En concreto, se eligió la estación digital de trabajo (DAW. Digital Audio Worksation) REAPER de la compañía Cockos. Además de incluir las funcionalidades básicas de edición y secuenciación presentes en cualquier DAW, el programa incluye un entorno para la implementación de efectos de audio en lenguaje JS (Jesusonic), y se distribuye con licencias completamente gratuitas y sin limitaciones de uso. Complementariamente, se propone una extensión para REAPER que permite la medición de respuestas al impulso de recintos acústicos de una forma completamente automatizada y amigable para el usuario. Estas respuestas podrán ser almacenadas y posteriormente cargadas en el módulo de reverberación, permitiendo aplicar sobre nuestras pistas de audio la respuesta acústica de cualquier recinto en el que se hayan realizado medidas. La implementación del sistema de medida de respuestas se llevó a cabo empleando la herramienta ReaScript de REAPER, que permite la ejecución de pequeños scripts Python. El programa genera un Barrido Sinusoidal Logarítmico que excita el recinto acústico cuya respuesta se desea medir, grabando la misma en un archivo .wav. Este procedimiento es sencillo, intuitivo y está al alcance de cualquier usuario doméstico, ya que no requiere la utilización de sofisticado instrumental de medida. ABSTRACT. There are numerous applications in the market for the generation of reverb and measurement of acoustic impulse responses. However, they are usually very costly and closed source. In addition, the provided tools for measuring impulse responses require tedious processes for the generation and reproduction of the excitation signal, the recording of the response and its final post-processing. This procedure can sometimes drive the user to make mistakes due to the lack of technical knowledge. The purpose of this project is to solve some of the mentioned problems. To that end we developed and implemented a real-time partitioned convolution reverb module using free open source software. Specifically, the chosen software was the Cockos’ digital audio workstation (DAW) REAPER. In addition to the basic features included in any DAW, such as editing and sequencing, the program includes an environment for implementing audio effects in JS (Jesusonic) language of free distribution and features an unrestricted license. As an extension for REAPER, we propose a fully automated and user-friendly method for measuring rooms’ acoustic impulse responses. These will be stored and then loaded into the reverb module, allowing the user to apply the acoustical response of any room where measurement have been taken to any audio track. The implementation of the impulse response measurement system was done using REAPER’s ReaScript tool that allows the execution of small Python scripts. The program generates a logarithmic sine sweep that excites the room and its response is recorded in a .wav file. This procedure is simple, intuitive and it is accessible to any home user as it does not require the use of sophisticated measuring equipment.
Resumo:
O trabalho aborda a aplicação da técnica de reconciliação de dados para o balanço da movimentação de gás natural em uma malha de escoamento de gás não processado, elaborando também um método de cálculo rápido de inventário de um duto. Foram aplicadas, separadamente, a reconciliação volumétrica à condição padrão de medição e a reconciliação mássica, bem como realizadas comparações dos resultados em relação ao balanço original e verificação do balanço resultante de energia em termos de poder calorífico superior. Dois conjuntos de pesos foram aplicados, um arbitrado de acordo com o conhecimento prévio da qualidade do sistema de medição de cada um dos pontos, outro baseado no inverso da variância dos volumes diários apurados no período. Ambos apresentaram bons resultados e o segundo foi considerado o mais apropriado. Por meio de uma abordagem termodinâmica, foi avaliado o potencial impacto, ao balanço, da condensação de parte da fase gás ao longo do escoamento e a injeção de um condensado de gás natural não estabilizado por uma das fontes. Ambos tendem a impactar o balanço, sendo o resultado esperado um menor volume, massa e energia de fase gás na saída. Outros fatores de considerável impacto na qualidade dos dados e no resultado final da reconciliação são a qualidade da medição de saída do sistema e a representatividade da composição do gás neste ponto. O inventário é calculado a partir de uma regressão que se baseia em um regime permanente de escoamento, o que pode apresentar maior desvio quando fortes transientes estão ocorrendo no último dia do mês, porém a variação de inventário ao longo do mês possui baixo impacto no balanço. Concluiu-se que a reconciliação volumétrica é a mais apropriada para este sistema, pois os dados reconciliados levam os balanços mássicos e de energia em termos de poder calorífico, ambos na fase gás, para dentro do perfil esperado de comportamento. Embora um balanço volumétrico nulo apenas da fase gás não seja por si só o comportamento esperado quando se considera os efeitos descritos, para desenvolver um balanço mais robusto é necessário considerar as frações líquidas presentes no sistema, agregando maior dificuldade na aquisição e qualidade dos dados.
Resumo:
Estimates of the recapitalisation needs of the euro-area banking system vary between €50 and €600 billion. The range shows the considerable uncertainty about the quality of banks’ balance sheets and about the parameters of the forthcoming European Central Bank stress tests, including the treatment of sovereign debt and systemic risk. Uncertainty also prevails about the rules and discretion that will applyto bank recapitalisation, bank restructuring and bank resolution in 2014 and beyond. The ECB should communicate the relevant parameters of its exercise early and in detail to give time to the private sector to find solutions. The ECB should establish itself as a tough supervisor and force non-viable banks into restructuring. This could lead to short-term financial volatility, but it should be weighed against the cost of a durably weak banking system and the credibility risk to the ECB. The ECB may need to provide large amounts of liquidity to the financial system. Governments should support the ECB, accept cross-border bank mergers and substantial creditor involvement under clear bail-in rules and should be prepared to recapitalise banks. Governments should agree on the eventual creation of a single resolution mechanism with efficient and fast decision-making procedures, and which can exercise discretion where necessary. A resolution fund, even when fully built-up, needs to have a common fiscal backstop to be credible.
Resumo:
It is generally assumed that any capital needs discovered by the Asset Quality Review the ECB is scheduled to finish by the end of 2014 should be filled by public funding (= fiscal backstop). This assumption is wrong, however. Banks that do not have enough capital should be asked to obtain it from the market; or be restructured using the procedures and rules recently agreed. The Directorate-General for Competition at the European Commission should be particularly vigilant to ensure that no further state aid flows to an already oversized European banking system. The case for a public backstop was strong when the entire euro area banking system was under stress, but this is no longer the case. Banks with a viable business model can find capital; those without should be closed because any public-sector re-capitalisation would likely mean throwing good money after bad.
Resumo:
For over forty years, European countries have held numerous conferences and signed multiple international agreements aimed at either creating a unitary patent which will be valid in all European countries upon issuance or establishing a specialized European court with jurisdiction over patents. This paper first outlines the need for a unitary patent in the European Union and then chronicles the measures taken to support and milestones toward the creation of a European-wide unitary patent system. The paper then discusses the few problems and pitfalls that have prevented European countries from coming to an agreement on such a patent system. Finally, the paper considers the closely related agreements of ‘Unitary Patent Package’, the challenges facing these agreements and examines if it would finally result in an EU Unitary patent system that benefits one and all.
Resumo:
The understanding of the continental carbon budget is essential to predict future climate change. In order to quantify CO₂ and CH₄ fluxes at the regional scale, a measurement system was installed at the former radio tower in Beromünster as part of the Swiss greenhouse gas monitoring network (CarboCount CH). We have been measuring the mixing ratios of CO₂, CH₄ and CO on this tower with sample inlets at 12.5, 44.6, 71.5, 131.6 and 212.5 m above ground level using a cavity ring down spectroscopy (CRDS) analyzer. The first 2-year (December 2012–December 2014) continuous atmospheric record was analyzed for seasonal and diurnal variations and interspecies correlations. In addition, storage fluxes were calculated from the hourly profiles along the tower. The atmospheric growth rates from 2013 to 2014 determined from this 2-year data set were 1.78 ppm yr⁻¹, 9.66 ppb yr⁻¹ and and -1.27 ppb yr⁻¹ for CO₂, CH₄ and CO, respectively. After detrending, clear seasonal cycles were detected for CO₂ and CO, whereas CH₄ showed a stable baseline suggesting a net balance between sources and sinks over the course of the year. CO and CO₂ were strongly correlated (r² > 0.75) in winter (DJF), but almost uncorrelated in summer. In winter, anthropogenic emissions dominate the biospheric CO₂ fluxes and the variations in mixing ratios are large due to reduced vertical mixing. The diurnal variations of all species showed distinct cycles in spring and summer, with the lowest sampling level showing the most pronounced diurnal amplitudes. The storage flux estimates exhibited reasonable diurnal shapes for CO₂, but underestimated the strength of the surface sinks during daytime. This seems plausible, keeping in mind that we were only able to calculate the storage fluxes along the profile of the tower but not the flux into or out of this profile, since no Eddy covariance flux measurements were taken at the top of the tower.
Resumo:
La présente thèse vise à évaluer le degré d’implantation et d’utilisation de systèmes de mesure de la performance (SMP) par les décideurs des organisations de réadaptation et à comprendre les facteurs contextuels ayant influencé leur implantation. Pour ce faire, une étude de cas multiples a été réalisée comprenant deux sources de données: des entrevues individuelles avec des cadres supérieurs des organisations de réadaptation du Québec et des documents organisationnels. Le cadre conceptuel Consolidated Framework for Implementation Research a été utilisé pour guider la collecte et l’analyse des données. Une analyse intra-cas ainsi qu’une analyse inter-cas ont été réalisées. Nos résultats montrent que le niveau de préparation organisationnelle à l’implantation d’un SMP était élevé et que les SMP ont été implantés avec succès et utilisés de plusieurs façons. Les organisations les ont utilisés de façon passive (comme outil d’information), de façon ciblée (pour tenter d’améliorer des domaines sous-performants) et de façon politique (comme outil de négociation auprès des autorités gouvernementales). Cette utilisation diversifiée des SMP est suscitée par l’interaction complexe de facteurs provenant du contexte interne propre à chaque organisation, des caractéristiques du SMP, du processus d’implantation appliqué et du contexte externe dans lequel évoluent ces organisations. Au niveau du contexte interne, l’engagement continu et le leadership de la haute direction ont été décisifs dans l’implantation du SMP de par leur influence sur l’identification du besoin d’un SMP, l’engagement des utilisateurs visés dans le projet, la priorité organisationnelle accordée au SMP ainsi que les ressources octroyées à son implantation, la qualité des communications et le climat d’apprentissage organisationnel. Toutefois, même si certains de ces facteurs, comme les ressources octroyées à l’implantation, la priorité organisationnelle du SMP et le climat d’apprentissage se sont révélés être des barrières à l’implantation, ultimement, ces barrières n’étaient pas suffisamment importantes pour entraver l’utilisation du SMP. Cette étude a également confirmé l’importance des caractéristiques du SMP, particulièrement la perception de qualité et d’utilité de l’information. Cependant, à elles seules, ces caractéristiques sont insuffisantes pour assurer le succès d’implantation. Cette analyse d’implantation a également révélé que, même si le processus d’implantation ne suit pas des étapes formelles, un plan de développement du SMP, la participation et l’engagement des décideurs ainsi que la désignation d’un responsable de projet ont tous facilité son implantation. Cependant, l’absence d’évaluation et de réflexion collective sur le processus d’implantation a limité le potentiel d’apprentissage organisationnel, un prérequis à l’amélioration de la performance. Quant au contexte externe, le soutien d’un organisme externe s’est avéré un facilitateur indispensable pour favoriser l’implantation de SMP par les organisations de réadaptation malgré l’absence de politiques et incitatifs gouvernementaux à cet effet. Cette étude contribue à accroître les connaissances sur les facteurs contextuels ainsi que sur leurs interactions dans l’utilisation d’innovations tels les SMP et confirme l’importance d’aborder l’analyse de l’implantation avec une perspective systémique.
Resumo:
Two gravity cores retrieved off NW Africa at the border of arid and subtropical environments (GeoB 13602-1 and GeoB 13601-4) were analyzed to extract records of Late Quaternary climate change and sediment export. We apply End Member (EM) unmixing to 350 acquisition curves of isothermal remanent magnetization (IRM). Our approach enables to discriminate rock magnetic signatures of aeolian and fluvial material, to determine biomineralization and reductive diagenesis. Based on the occurrence of pedogenically formed magnetic minerals in the fluvial and aeolian EMs, we can infer that goethite formed in favor to hematite in more humid climate zones. The diagenetic EM dominates in the lower parts of the cores and within a thin near-surface layer probably representing the modern Fe**2+/Fe**3+ redox boundary. Up to 60% of the IRM signal is allocated to a biogenic EM underlining the importance of bacterial magnetite even in siliciclastic sediments. Magnetosomes are found well preserved over most of the record, indicating suboxic conditions. Temporal variations of the aeolian and fluvial EMs appear to faithfully reproduce and support trends of dry and humid conditions on the continent. The proportion of aeolian to fluvial material was dramatically higher during Heinrich Stadials, especially during Heinrich Stadial 1. Dust export from the Arabian-Asian corridor appears to vary contemporaneous to increased dust fluxes on the continental margin of NW Africa emphasizing that melt-water discharge in the North Atlantic had an enormous impact on atmospheric dynamics.